会员登录  |  我要入会  |  中文  |  English
2020年高性能计算与数据分析研讨会成功举办
发布时间:2020-06-05 14:54      分享:

2020年5月23日-24日,由中国工业与应用数学学会主办,南京信息工程大学与中国工业与应用数学学会体育数学专业委员会、江苏省工业与应用数学学会共同承办的“2020年高性能计算与数据分析研讨会”顺利在线召开。会上,南京信息工程大学副校长戴跃伟教授与数学与统计学院院长张建伟教授分别致辞,与200多名学者一起在线探讨数学应用。

200多位代表在线参会


本次线上学术研讨会共历时两天,有14位报告人做了精彩报告。23日上午,第一位报告人是中国科学院刘歆研究员,他重点讨论了正交约束优化问题,并介绍了最新的在Stiefel流形上采用的近端梯度技术;第二位报告人是北京大学林宙辰教授,他的报告中提出了一种新的训练前馈神经网络的优化方法;第三位报告人是美国普渡大学杨海钊教授,他介绍了对基于深度学习的数值分析的几点思考,主要集中在深度神经网络的逼近和优化方面。23日下午,第一位报告人是复旦大学郦旭东教授,他介绍了在大规模线性规划问题方面的一些工作,提出了一种基于半光滑牛顿法的近似增广拉格朗日方法;第二位报告人是复旦大学邵美悦教授,他介绍了激发态计算中产生的一类带结构的特征值问题;第三位报告人是上海纽约大学凌舒扬教授,他讨论了谱聚类的数学基础中的两个重要进展。24日上午,第一位报告人是中国科学院明平兵研究员,他提出了一种基于深度神经网络的求解偏微分方程的数值方法;第二位报告人是美国杜克大学李颖洲教授,他介绍了一种低复杂度的CNN——“Butterfly- net”,具有结构化和稀疏的跨通道连接;第三位报告人是北京大学董彬教授,他主要讨论了最近深度学习对计算数学的一些影响,并介绍了用数值微分方程连接深度神经网络的工作;第四位报告人是上海交通大学许志钦教授,他演示了在高维基准数据集(MNIST/CIFAR10)和深度神经网络(VGG16)上一个非常普遍的频率原理(F-Principle)——DNNs通常适合从低频到高频的目标函数。24日下午,第一位报告人是清华大学史作强教授,他介绍了一些基于偏微分方程的点云插值方法;第二位报告人是香港理工大学李步扬教授,他介绍了在一般的多边形区域中时间依赖的Ginzburg-Landau方程被重新表述成一个新的方程组,提出了一种线性化、解耦的Galerkin有限元法求解新系统;第三位报告人是中国科学院于海军研究员,他的报告中证明了具有整流幂次单元(RePU)的深度网络比深度ReLU网络能更好地逼近光滑函数;第四位报告人是华南师范大学叶颀教授,他报告了在Banach空间上引入了一个基于核的概率测度的概念,通过配点和插值等随机方法来求解确定性问题。

本次会议受到南京信息工程大学和国家自然科学基金的资助,会议不仅给我们带来国内外最新的研究成果,也促进了高性能计算、数据分析等方向的交叉研究,增强国内外同行专家的学术交流与合作,开阔了相关领域青年教师和研究生的学术视野。


学会体育数学专业委员会供稿



中国工业与应用数学学会办公室 地址:北京市海淀区清华大学数学科学系B202室 电话:010-62787525 建模竞赛咨询电话:010-62781785 学会总部办公基地(长沙) 地址:湖南省长沙市龙喜路2号星沙区块链产业园三楼 电话:0731-86207515 学会邮箱:office@csiam.org.cn
战略合作伙伴

扫描二维码关注中国工业与 应用数学学会微信公众号

中国工业与应用数学学会  版权所有     京ICP备18063763号-1      技术支持:中科服

你知道你的Internet Explorer是过时了吗?

为了得到我们网站最好的体验效果,我们建议您升级到最新版本的Internet Explorer或选择另一个web浏览器.一个列表最流行的web浏览器在下面可以找到.