2024年6月20日,美国达特茅斯工程学院公布了对OpenAI首席技术官米拉·穆拉蒂(Mira Murati)的采访视频。米拉在采访中透露,GPT-5将在一年半后发布,在某些领域将达到博士的智能。这时,Claude 3.5 Sonnet,已经成了第壹个测试分数高于最聪明的人类博士的模型。
最近,OpenAI CTO米拉·穆拉蒂在达特茅斯工程学院发表了关于AI在各行业中的变革潜力及其对工作的影响的重要言论。
米拉表示,大约一年半年后,OpenAI将发布“博士生水平”的 人工智能 。相较之下,GPT-3相当于幼儿的智能水平,GPT-4更像高中生的智能水平。但她强调,博士等级的AI仅适用于某些特定任务,“这些系统在某些特定的任务中已经达到了人类水平,当然在许多其它任务中,它们还达不到。”
这时,Anthropic于6月20日官宣发布了全新大模型 Claude 3.5 Sonnet,号称是迄今为止最智能的模型。
图片来源:X
Claude 3.5 Sonnet不仅将AGI的倒计时推至75%,更是成了第壹个测试分数高于最聪明的人类博士分数的模型。
图片来源:Life Architect
据Life Architect数据显示,Claude 3.5 Sonnet在研究生级推理(GPQA)、本科级知识(MMLU)和编码能力(HumanEval)上都刷新了SOTA。其中,在MMLU上,它得分90.4;在GPQA上,得分为67.2。这也是第壹次,LLM突破了GPQA 65%的分数,达到了最聪明的人类博士的水平。普通博士在GPQA上的得分为34%,领域内专业博士的得分为65%,而Claude 3.5 Sonnet,显然已经超越了他们。
图片来源:Life Architect
在达特茅斯学院的采访中,主持人提出了一个假设性的问题,他问:“假设在三年后GPT变得极其智能,它是否可能自行连接到互联网并开始行动?”
对此,米拉回答说:“的确,我们对此进行了很多思考。具备AI智能体能力的系统的确存在,它们会连接到互联网,进行相互之间的交流,共同完成任务,或与人类无缝合作。因此,我们在未来与AI的合作可能会像我们现在相互之间的合作一样。”
图片来源:Metaculus
人工智能 的进步速度令人惊叹。
在2022年,专家们预测,人类水平的 人工智能 有可能在本世纪的60年代兴起,可能性为50%。然而,Metaculus预测员社区的预测时间更早,他们预测的是40年代。随着GPT-4的发布,社区的预测时间开始提前,预计在2032年,甚至最早在2027年,我们就有可能实现AGI。
图片来源:Metaculus
6月20日凌晨,前 OpenAI 联合开创人、首席科学家伊尔亚·苏茨克(Ilya Sutskever)在社交媒体上官宣成立新公司 SSI,专注于安全超级智能。
网友称:“好家伙!这是直接越过AGI,一步迈向Super Intelligence(超级智能)了。”
图片来源:X
伊尔亚在SSI官方账号中官宣的“开场词”里表示:“超级智能已经触手可及。构建安全超级智能(SSI)是我们这个时代最重要的技术问题。”
他还补充道:“我们将以一个焦点、一个目标、一个产品,直接追求安全的超级智能。我们将通过一个小而高效的团队所创造的革命性突破来实现它。”
图片来源:X
总而言之,伊尔亚团队要搞的事情,用网友一个经典的脸色包式的总结来看就是:
图片来源:X
然而,人工超级智能的发展也引发了一点担忧。
最近,一篇预印本论文提出观点:随着人工超级智能(ASI)的实现, 人工智能 独步天下的能力可能会让人们尊其为神,从而发生一种认知偏差,不加疑问地接受它的决定。
图片来源:arxiv.org
作者特飞科·欧亚尔(Tevfik Uyar)警告说,这种现象可能造成我们混淆技术进步与道德伦理的优越性。“我们不能因为ASI的能力强大,就认为它在道德和伦理上也同样表现优越。”
更令人担忧的是,这种动态可能造成一种“技术官僚神权统治”,在这种统治下,决策权被移交给ASI,从而破坏了人类的主动性和批判性思维。作者强调:“如果我们将决策权交给ASI,那么人类的主动性和批判性思维可能会受到破坏。”