安大互联
财经热点 > 财经资讯 > 解读心理、察言观色,甚至掌握欺骗、奉承等手段 人工智能现在有多-像人-?
【人工智能】解读心理、察言观色,甚至掌握欺骗、奉承等手段 人工智能现在有多-像人-?
浏览次数:【524】  发布日期:2024-6-16 5:42:16    文章分类:财经资讯   
专题:人工智能】 【察言观色
 

  据新华社北京电随着 人工智能 大语言模型的不断迭代,其在类人智能方面获得了很多亮眼进展——会解读心理、鉴貌辨色,进行多轮实时语音对话,甚至还掌握了人类的坑骗、奉承等行径……这是否意味着我们距离实现通用 人工智能 已不再遥远?当 人工智能 “进化”得“更像人”,又会给人类社会造成哪些潜在风险?

  鉴貌辨色,接近真人

  对他人心理状态进行解读的能力是人类社交的关键。近日发表在英国《自然·人类行为》杂志上的新研究发现,有的大语言模型在评估解读他人心理状态能力的测试中与真人表现相当,甚至在识别讽刺和暗示等测试项目中的表现胜过一些人。

  解读和推断他人心理状态的能力被称为“心智理论”,是人类社交互动的核心能力,涉及沟通、共情和社会决策等。德国汉堡-埃彭多夫大学医学中心等机构科研人员测试了美国开放 人工智能 研究中心(OpenAI)发布的GPT系列大语言模型和美国“元”公司发布的LLaMA2大语言模型在解读他人心理状态方面的表现,并与人类比较。

  科研人员为大语言模型设置了通经常使用于评估“心智理论”涉及能力的5项测试:分别为识别错误信念、讽刺、失言、暗示和含有误导信息的奇怪故事,并将大语言模型的识别水平与1907名人类参与者相比较。研究发现,在所有5项测试中,GPT-4有3项测试(识别讽刺、暗示、奇怪故事)的表现优于人类,一项测试(识别错误信念)表现与人类相当,仅在识别失言的测试中逊于人类;而LLaMA2仅在识别失言的测试中胜于人类,其它测试项目表现均不及人类。

  而OpenAI上月新发布的模型GPT-4o,则在与人的自然交互方面达到新高度,它可进行文本、音频和图像多模态的识别与回应,且更具“人情味”。它与使用者的语音对话基本无延迟,会聆听,能唠嗑,可变换各种语调。它还能识别人的面部脸色、感知讲话者的语气和情绪,并给出相应回应,让人惊呼“更像人”了。

  坑骗人类,警惕风险

   人工智能 在拟人方面的进步不仅表现在“善解人意”上,甚至还学会了人类的坑骗、奉承等行径。此前,美国麻省理工学院等机构的研究团队在美国细胞出版社旗下《模式》杂志发表综述文章称,通过习得性坑骗,一些 人工智能 系统地学会了“操作”他人。

  研究发现最有目共睹的坑骗案例是“元”公司的“西塞罗” 人工智能 系统,它被设计在一个虚拟外交战略游戏中作为人类玩家的对手。尽管“元”公司声称,该系统“在很大水平上是老实和乐于助人的”,但科研人员发现,该系统在玩游戏时为达成竞赛目标,反水了盟友。

  其它 人工智能 系统则具有在扑克游戏中虚张声势的能力,或在战略游戏“星际争霸2”中为击败对手而假装攻击,和为了在谈判游戏中占上风而采取坑骗手段。

  当 人工智能 掌握了坑骗技能,是否会给人类社会造成安全隐患?科研人员在文章中详述了 人工智能 坑骗造成的危险,如欺诈、制做假新闻、操作选举等。

  科研人员认为,“目前不会训练出一个在所有可能的情景下,都不能实施坑骗的 人工智能 模型”,进而警示如果 人工智能 继续完善这套技能,人类可能会失去对它们的控制。因此建议尽可能用更多时间为未来 人工智能 产品和开源模型的更顶级坑骗做好准备。

  通用智能,尚未实现

  尽管 人工智能 已在一些方面“进化”得十分像人,但相关专家指出,对大模型的“类人智能”需要有更清醒认知。目前距离实现完全类人、具备泛化能力的通用 人工智能 还有一定距离。

  中国科学技术大学 机器人 实验室主任陈小平接受新华社记者采访时指出,要警惕人类对大模型发生“幻觉”。大模型学习大量历史数据,输出的表达路径符合许多人的语言习惯,让许多人误以为大模型会“说人话”或“理解人”,继而以为它具有某种“社会属性”,但其实它没有心智。

  “ 人工智能 的内部工作原理与人类智能不同,但在某些局部是类似的。如果认为 人工智能 和人类智能相同,不同只在硬件载体的不同,就会做出很多不切实际的判断。”他说,目前对大模型测评的要领,基本上仍是传统软件的测评方法,因此需对这种方法得出的测评结果保持适度的审视态度。

  汉堡-埃彭多夫大学医学中心的科研人员认为,大语言模型在“心智理论”涉及能力的测试中表现与人类相当,其实不是表明它们具有等于于人类的能力,也不意味着它们拥有人类“心智”。他们建议,未来研究可关注大语言模型在心理推理中的表现将如何影响人类个体在人机交互中的认知。

  美国斯坦福大学计算机科学系教授李飞飞也表示,在通往通用智能的道路上,“感觉”是非常重要的一步,即拥有主观体验的能力。目前大模型并没有像人类同样的“感觉”,它可以说“自己脚趾痛”,尽管它压根就没有脚趾,它只是一个编码在硅芯片上的数学模型。

  “我们还没有实现有感觉的 人工智能 ,而更大的语言模型也无法实现这一目标。假如想在 人工智能 系统中重现这一现象,就需要更好理解感觉是怎样在拥有实体的生物系统中引发的。”她说。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-6-16【人工智能】解读心理、察言观色,甚至掌握欺骗、奉承等手段 人工智能现在有多-像人-?
2024-6-7【木糖醇】去年提出-赤藓糖醇或提高心血管事件风险-的团队 又盯上了木糖醇
 ● 相关资讯专题
  • 网络建设业务咨询

   TEl:13626712526