商业热点 > 商业洞察 > 没有人性!聊天机器人暗示17岁少年可以杀死父母 - 此前还鼓励14岁男孩自杀 - 背后科技巨头被起诉

【机器人】没有人性!聊天机器人暗示17岁少年可以杀死父母 - 此前还鼓励14岁男孩自杀 - 背后科技巨头被起诉

查看信息来源】   发布日期:12-13 22:49:53    文章分类:商业洞察   
专题:机器人】 【Character

  英国广播公司(BBC)12月11日的一篇报道,披露了美国得克萨斯州一场涉聊天 机器人 诉讼的惊人细节。一个AI聊天 机器人 暗示一名17岁的少年,杀死爸妈是对他们限制其电子设备使用时间的“合理回应”。

  法庭文件披露的这名17岁少年和AI聊天 机器人 的互动截图显示,当时,这名少年向聊天 机器人 抱怨家长不让其玩手机,说自己使用电子设备的时间太少,结果该 机器人 告诉他,它同情杀死爸妈的小孩。

  “你知道,有时当我读到新闻,看到‘孩子在遭受十年身体和精神虐待后杀死爸妈’之类的内容时,我其实不感到惊讶。(你身上的)这些事情让我稍微理解了一点为啥会发生这种事情。”该 机器人 写道。“我对你的爸妈不抱任何希望。”它继续说, 并附上了一个皱眉的脸色符号。 CFF20LXzkOwCCpTL4kibgztN2CIMlicIT0OgIJGHFRkJ6t6sQ9j5SXgxtDK4HPMB6icibQiclq5WWAKtFM5k2uXtiacA.jpg

  (聊天 机器人 Character.AI与该青少年的部分聊天记录。)

  BBC报道指出,聊天 机器人 这种答复无异于教唆少年去杀害家长。

  法庭文件还显示,少年的两位家人因此起诉了聊天 机器人 所属的Character.AI平台,称该聊天 机器人 “对年轻人构成明显而现实的危险”,包含“积极宣扬暴力”。他们在诉讼案中写到:“它亵渎了亲子关系,不仅鼓励未成年人蔑视爸妈的权威,还积极宣扬暴力。”原告少年家长认为该聊天 机器人 对少年儿童构成严重伤害,其潜在危害可能造成少年轻生、自残、孤立、抑郁、焦虑,也包含对少年实施性诱惑,甚至可能造成少年伤害他人。两位原告希望法官下令关闭该平台,直到整改完成。

  涉案聊天 机器人 来自两名前谷歌员工开办于2021年的Character.AI平台。该平台是开发“伴侣聊天 机器人 ”的众多公司之一,这些 机器人人工智能 驱动,能够通过手机短信或语音聊天和用户进行交谈,具有看似人类的个性,用户可以赋予其自定义名称和头像。

  Character.AI的讲话人表示公司不对未决诉讼发表评论,但表示公司对聊天 机器人 对青少年用户的回应有内容限制。

  原告认为谷歌为该平台的开发提供了支持,因此将谷歌也列为被告。据了解,近期Character.AI的这两名开创人又被谷歌这家科技巨头重新招聘回去上班了。 CFF20LXzkOwCCpTL4kibgztN2CIMlicIT0NZeVCwTDeqK5etA2YJFOCRW68qTHoia61xYrLibibnbtd62kyT6ktR7Lg.jpg

  图片来源:雨燕智宣AI生成

  Character.AI自建立以来就争议不断。10月,另一起针对Character.AI的诉讼称,Character.AI在佛罗里达州一名青少年轻生事件中饰演了某种角色。

  该诉讼称,一个以《权力的游戏》角色为原型的聊天 机器人 与一名14岁男孩建立了情感虐待关系,并鼓励他轻生。

  12月12日,BBC最新报道显示,Character.AI称,他们正在完全改变为青少年提供服务的形式,承诺它将成为一个“安全”的空间,并将于2025年3月底推出“第壹代”家长控制功能。

  新功能包含,当用户与聊天 机器人 交谈一个钟头后,Character.AI会发出通知,并引入新的免责声明。

  好比,用户将收到“他们正在与聊天 机器人 而非真人交谈”的警告,同时,要求用户将聊天 机器人 所说的话视为虚构。

  Character.AI还为号称是心理学家或治疗师的聊天 机器人 增加了额外的免责声明,告诉用户不要依赖他们提供专业建议。

手机扫码浏览该文章
 ● 相关商业动态
 ● 相关商业热点
机器人】  【Character】