据新华社北京8月16日电 (记者宋晨)记者16日从中国科学院自动化研究所获悉,该所李国齐研究员、徐波研究员团队联合清华大学、北京大学等,提出“基于内生复杂性”的类脑神经元模型构建方法,改善传统模型计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例,相关研究发表于《自然·计算科学》。
构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能领域发展的重要目标。
“目前流行的大模型路径是基于尺度定律构建更大、更深和更宽的神经网络,可称之为‘基于外生复杂性’的通用智能实现方法。”李国齐说,这一路径面临着计算资源及能源消耗难以为继、可解释性不足等问题。
另外一方面,人类大脑有1000亿神经元,1000万亿左右的突触连接,每个神经元具有丰富且形态各异的内部结构,但功耗仅20瓦左右。因此借鉴大脑神经元动力学特性,向内丰富神经元结构探索通用智能潜力巨大,这条路径可称之为“基于内生复杂性”的通用智能实现方法。
李国齐表示,实验结果验证了内生复杂性模型在处理复杂任务时的有效性和可靠性,为将神经科学的复杂动力学特性融入人工智能提供新方法和理论支持,也为实际应用中的人工智能模型优化和性能提升提供可行的解决方案。
目前,研究团队已开展进一步研究,有望提升大模型计算效率与任务处理能力,实现在实际应用场景中的快速落地。