小议人工智能与仿真科学结合的未来(长期更新)
★★ 有了精细的有限元,人工智能这样一个模仿有限元(借助有限元生成的数据)的、精度尚不如有限元的代理模型意义何在?(个人见解)1.强可迁移性。面对若干算例,有限元需要一个一个的去计算,把第100个算例算的很完美,并不能对它算第101个有任何帮助,一切还要从头开始(设置边界条件、设置迭代步长、等待求解完成等等)。但是深度神经网络不同,它具有泛化性能,也许一开始它会吃掉巨大的计算资源,但是当它学会了,
★★ 有了精细的有限元,人工智能这样一个模仿有限元(借助有限元生成的数据)的、精度尚不如有限元的代理模型意义何在?(个人见解)
1.强可迁移性。
面对若干算例,有限元需要一个一个的去计算,把第100个算例算的很完美,并不能对它算第101个有任何帮助,一切还要从头开始(设置边界条件、设置迭代步长、等待求解完成等等)。
但是深度神经网络不同,它具有泛化性能,也许一开始它会吃掉巨大的计算资源,但是当它学会了,它会变得非常灵活;
2.适用范围广。
总有有限元应付不了的时候:比如复杂的工况,不可能设置明白的边界条件,这个时候实验的数据往往会跟仿真的数据有较大偏差,或仿真根本无法正常收敛。这时有限元无法工作了,但深度神经网络仍然可以鲁棒地学习数据。采用DL的途径帮助科学家\工程师去探索本构关系是一个值得期待的办法。事实上,《Advancing mathematics by guiding human intuition with AI》,已经有人开始做类似的事情。
深度神经网络的软肋在哪里?(下一步努力研究的方向在哪里?)
1.可解释性不够;——信息瓶颈理论,见收藏
2.可靠性没有充足的理论保证;
关于神经网络的黑箱特性
”黑箱“有好处吗?
我认为当然有。就比如上面讲的拟合实验数据,这时黑箱反而成为一种优势,因为黑箱可以使你你不需要掌握所有的真实世界当中的细节,也不需要完全明白真实世界运行的每一个机制(不管是物理定律还是其他的机制),就可以鲁棒地建立神经网络(当然你也不需要很明白神经网络内部的工作机制)和训练数据。
今天的工业软件、人工智能技术使用的数学很多还是将古典理论(比如古典概率论,古典微分几何等)作为基础。
数学的发展领先于技术的发展一百年、两百年左右。今天的数学理论势必会是未来科技的奠基石。所以我认为研究下一代人工智能,实现通用的人工智能以及发展下一代的工业软件,我们必须掌握更深刻的现代理论。
2023年10月24日
有关所谓的数据“范式”
我之前一直有这样的观点,
理论、实验、计算是支撑科学发现的三大支柱。而在人工智能时代,数据成为了所谓的“第四大支柱”
这个观点被我写入了毕业论文,但是现在想来,我有一个比这个从其他媒体和文章看来的观点更好的观点,
理论、实验、计算是支撑科学发现的三大支柱。人工智能也不例外,日光之下无新事,人工智能理论、人工智能实验、人工智能计算是支撑人工智能发展的三大支柱。
至于所谓的“数据”,我认为它只是一种当下流行的信息载体,用于人工智能学习。这应该不是最终形式。或许永远没有最终形式。
力学的外延是整个物理,乃至试图解释自然界和人类社会中一切的复杂系统(宇宙、生命、AI)机理的所有科学。因此力学家大多都是通才,近现代科学也可称肇始于力学。
更多推荐




所有评论(0)