題 目:Approximation capabilities of neural networks on unbounded domains
内容簡介:In this talk, we overview universal approximation theorems of single-hidden layer nets on unbounded domains, including the work of Ito (1992) and Chen-Chen-Liu (1995) and Wang-Qu (2022). In particular, we explain those tools used in Wang-Qu (2022) are related to classical estimates that appeared in the transcendental number theory and Nevanlinna theory.
Moreover, it is a central topic in the theory of networks that why deeper nets are more powerful than shallow nets, on which we demonstrate that two-hidden layer ReLU nets are universal approximators in Lp(Rn), while single-hidden layer nets are not.
報告人:太盟投資集團 汪明晰 博士
報告人簡介:先後在北京大學、香港大學、蘇黎世聯邦理工學院(ETH) 分别獲得數學學士、碩士、博士學位,并獲得ETH最佳博士論文獎。曾在馬普研究所,法蘭克福大學,達姆施塔特工業大學,薩爾斯堡大學從事學術訪問或博士後工作,後入職瑞士百達銀行和太盟投資集團。其學術成就包括獨立解決了dynamical Mordell-Lang猜想的一個不平凡的情形,與合作者完整刻畫了雙曲空間真自映射幺半群的結構,與合作者成功解決了算數動力系統中的Habegger問題。當前研究方向為人工智能的數學理論和數論,其成果分别發表于《Acta Arithmetica》《Neural Networks》和《Trans. Amer. Math. Soc.》等著名雜志。
時 間:2021年12月26日(周日)下午16:30
地 點:騰訊會議 ID:274-317-317
熱烈歡迎廣大師生參加!
太阳集团1088vip
2021年12月16日