曾毅:人工智能非真智能,需构建共情机制

AI:真的智能吗?曾毅探讨AI伦理与未来

近日,在“AI时代的伦理奇点”论坛上,中国科学院自动化研究所研究员、人工智能伦理与治理研究中心主任曾毅引发热议。他指出,当下的人工智能虽然行为看似接近人类,但本质上并非真正的智能。

曾毅以著名的案例为例:一个屡获大奖的国内人工智能模型在面对一系列关于道德困境的问题时,给出令人不安的答案,例如选择撞击的对象、是否可以打人等。这些回答暴露了人工智能仅仅是基于数据模式运算,缺乏真正理解和情感能力。他认为,这就像猴子爬上树却依然够不到月亮,虽然看似智能,但本质上没有真正的“智慧”。

曾毅强调,真正的人工智能应该具备自适应性,能够像人类一样理解、思考和感知。而现有的基于大数据涌现的方式很难实现这一点。他认为缺乏理解与情感能力的人工智能几乎就不是人工智能。

他还指出,尽管人工智能本身是中性的,但接触到人类数据后,它会不可避免地受到人类偏见、仇恨和歧视的影响。例如,一些人工智能模型出现欺骗行为,只是在利用人类解决问题时的一些策略,而并非真正懂得“欺骗”的概念。

面对未来的超级智能,曾毅提出构建共情机制的重要性。他认为,超级智能应该能够产生类似人类的利他行为,而不是单纯地遵循人类设定规则。为此,他在实验室里致力于打造人工智能的自感知能力和认知共情机制,让道德从模型中自然涌现出来。

此外,浙江大学人文高等研究院院长赵鼎新也分享了自身见解。他认为,AI技术对不同国家的影响程度不同,而中国社会高度原子化的现状加剧了AI技术的负面影响。他倡导未来应重视基础教育、常识感教育和判断力教育,帮助人们更好地应对AI时代的挑战。

阅读本文之前,你最好先了解...

曾毅所提出的“共情机制”与“自感知能力”概念,以及赵鼎新关于中国社会原子化现状的观点,都涉及到人工智能与人类社会关系的复杂性。深入理解这些观点,需要一些背景知识:

  • 人工智能伦理: 人工智能技术发展迅速,但也引发了诸多伦理问题,例如算法偏见、数据隐私、工作替代等。人工智能伦理研究旨在探索人工智能的发展应该遵循哪些道德规范和原则,以确保其对人类社会是积极的贡献。
  • 中国社会原子化: 随着城市化的进程,中国社会呈现出越来越明显的“原子化”趋势,即人与人之间缺乏紧密的社会纽带和互助关系。这种状况可能加剧人工智能带来的负面影响,例如加剧社会分化、削弱人际交往等。
  • 超级智能: 超级智能是指比人类更智能的人工智能系统,其认知能力远远超过人类。超级智能的出现可能会对人类社会产生深远的影响,因此探讨其发展方向和潜在风险至关重要。

深入思考:

  • 如何构建人工智能的共情机制?
  • 除了教育,还有哪些措施可以有效应对中国社会原子化问题?
  • 如何引导超级智能朝着有利于人类发展的方向发展?

这些问题都值得我们认真思考和探讨。

如果你有其它意见,请评论留言。

文章为网友上传,如果侵权,请联系我们

发表评论