安大互联
财经热点 > 财经资讯 > 推荐摄入石头获取营养 谷歌AI产品又-翻车-了
【Alphabet】推荐摄入石头获取营养 谷歌AI产品又-翻车-了
浏览次数:【549】  发布日期:2024-5-28 22:11:25    文章分类:财经资讯   
专题:Alphabet】 【AI概述】 【谷歌AI
 

K图 GOOGL_0]

K图 GOOG_0]

  5月中旬,谷歌在其年度开发者大会上宣布了长时间以来全球搜索领域的最大变革:将其最新的AI模型植入搜索引擎,试图以此追赶竞争对手微软和OpenAI。然而,谷歌这项名为“AI Overview(以下简称‘AI概述’)”的搜索功能一上线却遭遇了“花式翻车”,“建议用户用胶水将芝士固定在披萨上”“推荐摄入石头获取营养”等一连串荒谬的回答不仅让谷歌十分尴尬,也在互联网上掀起了轩然大波。

  对此,谷歌讲话人表示,谷歌正在利用这些“孤立的”例子对其系统进行更广泛的改进。

  其实,《每日经济新闻》记者发现,这其实其实不是谷歌AI产品第壹次“翻车”。去年其首推对标ChatGPT的聊天 机器人 Bard时,在demo视频中犯下事实性错误,让公司市值一夜狂跌。前阵子,Gemini大多数情境下无法生成白人图像,且对历史人物的描绘也不准确,也在全网掀起轩然大波。

  有观点指出,目前谷歌“AI概述”面临的尴尬之处在于,以前只要AI生成的信息是错误的,那责任便可以“甩锅”给检索出相应信息的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是AI生成的。除了错误和截流其它网站外,谷歌“AI概述”还被指存在“规模化的剽窃”等。

  上线便“花式翻车”,甚至教唆“跳桥”

  谷歌表示,通过使用“AI概述”,用户将能够从Gemini的强大能力中获益,从而减少搜索信息的部分工作。

  然而,“AI概述”还没来得及推翻搜索领域,便已经制造了很多令人啼笑皆非的“笑料”。

  科技媒体The Verge的记者Kylie Robison就在其署名文章中举了一个例子对这项新功能进行讽刺。文章称,当用户准备享用自制披萨时,却遇到芝士会滑落的问题,沮丧的用户开始查询谷歌,搜索解决方案,然而,“AI概述”的回答是,“加点胶水”,并“贴心”地给出了“操作方法”。尽管胶水的确可以解决粘连问题,但这极有可能是Gemini出现了“幻觉”所引发的结果。

  而这只是“AI搜索”功能近期出现的众多错误之一。例如,“AI概述”建议用户每天至少吃一块石头来补充 维生素 和矿物质。

  另外,“AI概述”还告诉用户使用“含氟漂白剂和白醋”来清洁洗衣机,但这两种成分混合后会发生无益的氯气。更震惊的是,当用户表达“感到沮丧”时,“AI概述”居 然称,“一位Reddit用户建议从金门大桥上跳下去”。

  危害健康的建议其实其实不仅限于人类。有用户提问:“将狗留在闷热的车内是否安全?”“AI概述”的回答是:“把狗留在闷热的车内是安全的。尤其是在闷热的天气里。”

  《纽约时报》报道称,“AI概述”功能是将谷歌Gemini大语言模型生成的内容与网络上实时的链接片段相结合,其给到用户的结果可以引用来源,但却无法鉴别来源内容的正确与否。

  The Verge报道称,给披萨加胶水的定论似乎是基于一位名为“fucksmith”的用户十多年前在Reddit帖子中的评论,他们显然是在开玩笑。

  外媒称,如此荒谬的结构,应该足以让谷歌考虑删除“AI概述”功能,直到其得到更严格的测试。“AI概述”不仅提供了糟糕和危险的建议,而且还可能对谷歌的声誉造成损害。换句话说,一个卓越的AI要既能识别出恰当的内容,又能分析这个内容并决定是否采用。

  谷歌:正利用“孤立”例子改进产品

  谷歌讲话人在一份声明中称,“AI概述”绝大多数的搜索结果都是高质量信息,还有可以在互联网上溯源的链接。目前网上的很多例子都是不常见的问题,而且有些例子被篡改过,还有些是无法重现的。

  该讲话人表示,谷歌正在“迅速采取行动,并根据其政策,在适当的情景下删除某些‘AI概述’给出的定论,并利用这些‘孤立的’例子对其系统进行更广泛改进,其中一些改进的内容已经开始推出。”

  科技媒体The Verge此前报道称,谷歌总裁桑达尔·皮查伊在接受采访时承认,这些“AI概述”功能引发的“幻觉”是大型语言模型的“固有缺陷”,而大型语言模型正是“AI概述”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案。

  所谓AI的“幻觉”,是指AI在处理和生成信息时,会错误地建立不存在的事实或数据,从而误导用户。这个问题不仅在谷歌的AI系统中存在,在其它公司的AI产品中也同样普遍。

  皮查伊的坦诚表态在社会各界引发了广泛讨论。然而,皮查伊似乎淡化了这些错误的严重性。他表示:“‘AI概述’功能有时会犯错,但这其实其实不意味着它没有用处。我认为这其实其实不是看待该功能的正确方式。我们获得了进展么?是的,肯定有。与去年相比,我们在事实准确性方面的指标上获得了很大进步。整个行业都在改进,但问题还没有完全解决。”

  《每日经济新闻》记者了解到,其实“AI概述”其实其实不是谷歌首个“翻车”的AI产品。

  2023年2月,为了对抗新生的ChatGPT,谷歌宣布推出聊天 机器人 Bard,但在官方发布的demo视频中,Bard在回答一个有关詹姆斯韦伯太空望远镜的问题时给出了错误的定论。今年2月,谷歌发布更新后的AI聊天 机器人 Gemini,但用户很快发现,该系统在大多数情境下无法生成白人图像,而且对历史人物的描绘也不准确。

  专家:很多AI厂商都是在“兜售梦想”

  有观点指出,谷歌“AI概述”功能的尴尬之处在于,以前只要AI生成的信息是错误的,那责任便可以“甩锅”给检索出相应信息的网站,现在谷歌要自己承担虚假信息和错误信息的责任,哪怕是AI生成的;另外,以前谷歌和其它内容提供网站是共生共赢的关系,如今谷歌截流了这些网站的流量,用户直接从“AI概述”给的内容拿结果,这些网站变成了纯供给方,很难被谷歌“AI概述”引流。

  除了一系列错误和截流外,谷歌“AI概述”也被指存在其它问题和风险。例如,“AI概述”总是摘抄来自不同网站的内容,并稍作更改,这种行为也被抨击为“规模化的剽窃”。

   人工智能 专家、纽约大学神经科学名誉教授加里·马库斯(Gary Marcus)表示,很多AI厂商都是在“兜售梦想”,希望更多人相信这项技术的正确率终将从80%提升至100%。马库斯强调,初步实现80%的正确率相对简单,因为其中涉及大量人类数据,其正确率天然就在这个区间。但弥合这最后20%的差距却极具挑战。其实,马库斯认为这有可能是条死胡同。

  在发布“AI概述”时,谷歌表示,随着这项功能推广到其它国家,今年年底前“AI概述”的服务受众规模将超过10亿。然而,正如马库斯教授所言,谷歌能否保证“最后的20%内容正确率”,才是其“AI概述”受众规模能否超过10亿的关键所在。

  其实,自OpenAI于2022年年底发布ChatGPT并一夜成名以来,谷歌一直面临着将AI整合到其搜索技术中的压力。然而,谷歌在驯服大型语言模型方面存在挑战,这些大模型是从开放的网络中获取的大量数据中学习,而不是像传统软件那样编程。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-6-13【Alphabet】AI产品屡陷争议 谷歌搜索主管 - 错误不可能避免 有些风险必须得冒
2024-6-12【Alphabet】因滥用搜索领域市场主导地位,谷歌在土耳其被罚4.82亿
2024-6-11【Alphabet】土耳其竞争委员会对谷歌处以罚款
 ● 相关资讯专题
Alphabet】  【委员会】  【土耳其】 
  • 网络建设业务咨询

   TEl:13626712526