商业洞察
【OpenAI】OpenAI-草莓-落地了?ChatGPT惊现神秘GPT-4o模型 网友热议 - 新版本提升不多
【查看信息来源】 8-13 22:32:13当地时间8月13日,OpenAI的聊天 机器人 账号@ChatGPTapp发文宣布,自上周以来,ChatGPT上了一个新的GPT-4o模型。
根据该账号的回帖,新上线的ChatGPT-4o模型其实不是上周发布的API端GPT-4o 0806模型,当前该模型也对免费用户开放,不过有使用次数的制约。
图片来源:X
这一消息立即引发了网友的热议与猜想:难道这就是传说中的“草莓”项目?之所以网友的热情如此之高,是因为“草莓”项目的前身是Q*算法模型,Q*能够解决棘手的科学和数学问题。如果AI模型掌握了数学能力,将拥有更强的推理能力,甚至与人类智能相媲美。
然而,在随后的测试中,网友们发现新模型与之前的版本相比,没有太大改善,也未能通过经典的草莓单词测试,不过在逻辑推理方面还是有所改进。
GPT-4o家族上新,“草莓”落地?
网友的激动其实不是毫无缘由。
新模型发布的前一周,OpenAI 总裁 阿尔特 曼在X上发布了一张花园里的草莓相片,网友随即联想到了OpenAI团队此前被爆出的一个名为“草莓(Strawberry)”的项目。但对于评论区的猜想, 阿尔特 曼我没有证实,也木有否认,只是确认这张相片拍的是他现实中的花园。
而后,ChatGPT账号发了一个草莓脸色,OpenAI员工特里弗·克里奇发了餐盘上的草莓图片,和爆料人@iruletheworldmo也频繁更新,几乎次次都与草莓相关,这些似乎都指向了一个可能即将揭晓的重要时刻。
因此,当ChatGPT账号宣布GPT-4o家族更新,网友们的情感和讨论也达到了高点,这一更新是否就是“草莓”的落地?
不过,随着测试信息的披露,网友发现,这一更新并没能满足他们的期待。而且,对于新模型的具体改进和新功能,OpenAI却出奇地保持了缄默寂静。
一系列测试显示,新模型与之前的模型相比并没有太大的改善。在经典的草莓单词测试中,新模型还是出现了错误。大多数测试者反馈称,他们并没有感受到明显的性能提升。有的网友甚至直言根本分不清楚新版本和旧版本到底有啥区别。
图片来源:X
但本次更新其实不是没有亮点。一些用户指出,新模型在逻辑推理方面有所改进,例如它不再轻易陷入逻辑循环。另外,新模型的响应速度也比之前的版本快了很多。
有网友还总结出了新旧模型之间的三点不同:一是输出风格略有不同,其次推理略有改进,不再陷入循环,最后是更加亲切,更愿意探索其存在的哲学层面(更少 机器人 化,更像Claude)。可是他也承认新旧模型之间的不同不大。
来源:X
AI发展背后的安全挑战
对于这些评论,ChatGPT的回应是:“还有许多工作要做,我们正在努力。”至于新更新是否是备受关注的“草莓”,外界硬是不得而知。
之所以网友们的热情如此高涨,是因为“草莓”项目的前身是Q*算法模型,Q*能够解决棘手的科学和数学问题。如果AI模型掌握了数学能力,将拥有更强的推理能力,甚至与人类智能相媲美。而这一点是当前的大语言模型还无法做到的。
尽管这一方法有可能使模型在智能上实现质的飞跃,但其随同的危险性也不容忽视。正如斯坦福大学教授、STaR技术的开发者之一Noah Goodman所言:“这种技术潜力巨大,但同时也随同着相当大的危险。”
据外媒此前报道,“草莓”项目的练习涉及对经过后期训练的模型(这些模型已经针对特定用途或应用进行了有效的后期训练)进行最终微调。这一过程类似于斯坦福大学的自学推理机(STaR)技术。STaR技术允许AI模型通过反复建立自己的练习数据,“引导”自己进入更高的智能水平,理论上可以让语言模型达到超越人类的智能水平。
值得注意的是,OpenAI此前屡次因安全问题而受到疑问。今年7月,OpenAI的一名内部人士向美国证券交易委员会(SEC)投诉,指控公司通过非法限制性保密协议限制员工对外披露与公司技术潜在安全问题相关的信息。更早之前,OpenAI原超级对齐团队责任人Jane Leike在离职后也指责公司忽视安全文化,只重视“闪亮的产品”而非安全。
而在8月9日,OpenAI发布了一篇关于安全性的博客文章,详细介绍了公司在开发ChatGPT用户的旗舰模型GPT-4o时所做的安全努力,并探讨了这些技术可能对社会造成的危险。
OpenAI警告称,用户可能会与AI建立社会关系,进而减少对人际关系交往的切实需求——这或许对孤独的人有益,但也有可能影响健康的社会关系。与AI的长期互动甚至可能影响社会规范,好比,模型允许用户随时打断和“拿走麦克风”,这种行为虽然对AI来说合乎情理,但在人际关系交往中却显得粗鲁。
在谈到GPT-4o的早期测试时,OpenAI透露,他们观察到用户与模型的互动语言开始出现微妙的变化,例如,表达共同纽带的语言,“这是我们在一起的最后一天”...。这种看似无害的表现,背后可能隐藏着更大的问题。
另外,OpenAI还提到,GPT-4o有时会无意间生成模仿用户声音的输出。换句话说,它可能被用来冒充他人,从而被利用进行犯罪活动。