2023年4月24日,人工智能学院1篇论文被ICML 2023接收并被评为大会宣讲论文(Oral)。论文的第一作者为人工智能学院2022级研究生裴正奇同学,通讯作者为中国科学院计算技术研究所王树徽研究员,在此热烈祝贺他们!
ICML的全称是 International Conference on Machine Learning,是机器学习与人工智能领域的CCF-A类国际顶级会议(H5指数257,影响因子约20,对标SCI一区),此次会议将于2023年7月在美国夏威夷召开。论文名称为《Dynamics-inspired Neuromorphic Visual Representation Learning》,该论文以哈密顿动力学原理作为出发点,打造了一种全新的神经拟态扁平化计算架构,将神经元系统类比于刚体力学系统,各个神经元之间的神经权重表达为神经元的动力学状态之间的路径积分,在参数规模约减、准确率、鲁棒性等指标方面展示了突出的性能表现,提供了一种不同于传统深度学习的研究思路。
2022年夏天,裴正奇同学以初试和复试均为第一名的成绩被中国科学院大学人工智能学院录取,成为一名硕士新生。
“我本科毕业于多伦多大学工程科学系,之后自己创业了三四年,最后还是发现自己更喜欢搞科研的纯粹感,于是就选择了继续攻读硕博学位。自己在创业期间意识到,人工智能和自然科学相比还有很大的差异,为了弥补这个差异,我们需要跳出工程思维,不应该以短期的指标突破作为单一的目标,而是应该从更底层宏观的角度来规划。”就这样,裴正奇同学在中科院计算所王树徽老师的指导下,开始了对人工智能深度学习领域底层逻辑的探索。
“我在本科期间接触过一些物理学和生物学的知识,发现它们有许多可取之处,尤其是动力学系统和神经生物学这两个领域,受它们启发,我开始做一些新的尝试,比如,将神经元之间的权重值去掉,并用理论基础扎实的动力学理论来解读它们的学习过程。当我把这个思路讲给王老师之后,王老师立刻给我提供了许多非常深刻的思路,一拍即合,于是我们就开始了不断的摸索和完善。虽然期间也遭遇了多次质疑,毕竟基于权重的深度学习理论太成功了,无论是从工程应用还是学术价值。好在经过不懈努力,我们迈出了第一步,虽然我们的理论欠成熟,处于雏形阶段,但我们相信,它能给大家提供一种新的思路。”
回首国科大的研一时光,裴正奇觉得自己虽然在研究过程中取得了阶段性的成果,但自己的科研之路仍然处于起步阶段,“王老师经常对我说,科研无止境”,科研的过程就是不断尝试,不断创新,打开格局,享受探索科学真相的过程,即使失败了也能成为后人成功的垫脚石,无怨无悔。