6月14日,在第六届“北京智源大会”上,百度、零一万物、百川智能、智谱AI、面壁智能等国内主流大模型公司总裁与CTO会聚,围绕 人工智能 关键技术路径和应用场景展开精彩演讲和尖峰对话。
其中,零一万物总裁、创新工场老总李开复,与中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,就通用 人工智能 的关键问题进行思考,智源研究院理事长黄铁军主持了这场对话。
问题一:是啥原因使得大模型如此成功?还有哪些欠妥的地方需要进一步发展?
李开复: AI 2.0是有史以来最伟大的科技革命和平台革命,大模型Scaling Law 的重要性在这个时代得以凸显——人类能够用更多计算和数据不断增加大模型的智慧,这条被多方验证的路径还在推进中,还远没有触达天花板。
第贰,大模型的智慧来自接近无损的压缩,Scaling Law进程中不能盲目堆更多的GPU,需要有一个方法评估有没有越做越好或哪个方法做得更好。零一万物内部有严谨的要领论,用压缩的理念去评估,让以往漫无目的“炼丹”训模过程变得更系统也更有科学和数学根据。
大模型正面临着一些挑战。例如说,如果“仅仅用更多算力就能把它往前推动”是主要方向的话,就会造成只有那些GPU资源丰富的企业和国家能够在这方面胜出。很多国内大模型在部分案例里接近或打平或偶尔超过美国的大模型。需要专注算法和工程创新一体化的推进,和怎么以这种能力避免进入“盲目堆算力推动模型性能提升”的状态。
当然,目前大模型还直面许多挑战,但我们可以看到的是,当全球如此多聪明的大脑涌入这个领域后,大部分问题不能说被完美地解决,可是都在逐步被攻克的进程中,我对大模型的未来相当乐观。
张亚勤:我讲“三个做对了”和“三个需要改进”。
“三个做对了”
首先,规模定律的实现,主要得益于对 海量数据 的利用和算力的明显提升。再加上如今的Diffusion和Transformer架构能够高效地利用算力和数据,使得“飞轮效应”得以正循环。尽管有人疑问Scaling Law在2到3年后是否仍然有效,至少在未来5年仍将是产业发展的主要方向。
其次是“Token-Based”统一表述方式。在大模型中,“Token”是一个基本元素。甭管是文本、语音、图像、视频,还是自动驾驶中的 激光雷达 信号,甚至是生物领域的蛋白质和细胞,最终都能抽象为一个Token。Token之间的练习、学习和生成是核心环节,这与我们大脑中的神经元工作原理相似,不管执行何种任务,其基础机制都是相同的。
最后是通用性。这与Token紧密相关。如今的通用性不仅表现在文本处理上,还扩展到了多模态领域,甚至可以生成如蛋白质等复杂结构。另外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有着广泛的应用前景。
“三个需要改进”
第壹,效率较低。尤其是大模型的计算效率低下问题,与人类大脑的高效性形成了鲜明的对照。另外,人脑能够根据不一样的情境灵活调用不同区域的神经元,而大模型却每次输入一个问题都要调用和激活几乎大量参数。因此,如何借鉴人类大脑的计算方法,在降低计算耗能、提高效率方面进行探索和创新,是一个值得注意的方向。
第贰,大模型目前还未能真正理解物理世界,相关的推理能力、透明性和幻觉等诸多问题都还在深入研究中。即便大模型做得再好,生成式表述与对真实世界的描绘之间仍存在矛盾。因此,我们需要探索如何将生成式的机率大模型与现有的“第壹性原理”或真实模型、知识图谱相结合。目前,虽然已经有了一点尝试,如采用RAG技术或进行微调,并获得了一定的进展,但这些方法其实不是根本解决方案。我预测,在未来五年内,将会有一个全新的架构出现,这个架构有望取代当前的Transformer和Diffusion模型。
第叁个欠妥的地方是界限问题。现在大模型无法知道“我不晓得什么”,这是目前要处理的问题,是它的界限效应。
问题二:有些人认为大模型是一个实践、是一个工程,是经验主义做的东西,没有理论基础,说得不好听叫“不靠谱”,如何看这个问题?
李开复:科学和工程缺一不可。如果只做工程,不了解“第壹性原理”,没有数学的根据、没有办法评估不同方法的效果,考量到昂贵的算力成本,这样的摸索肯定是做不出一个好模型的。可是如果只是在实验室里雕花,然后写一些不错的论文,期待有工程人才把论文做成产品,这肯定也是不行的。
零一万物的经验是,每个做AI、做模型的Researcher要懂Infrastructure、都要懂推理、都要知道成本的问题,所以当需要面对科研问题时,就知道在产品里期望的反应速度有多快,要怎么实现,做完实验就可以确保模型可以得到令人满意的工程结果。训练模型的进程中绝对不只是写Paper,还要同时考虑如何系统化、工程化地做数据工程,因为数据的练习、数据的筛选是极为重要的。还有底层的AI Infrastructure,GPU这么昂贵,如果把一张当成两张、三张使用,任何公司都会得到好处,所以科技和工程这两方面缺一不可。
问题三:大家关心AI2.0,大模型产业化最大的场景在哪里?手机端这么多年,To B、To C ,这两个大赛道哪个更有机会?为啥?
李开复:简单而言,在中国To C 短时间更有机会,国外两者都有机会。To C方面,就像手机端、PC时代里,一个新技术、新平台造成新应用,大模型同样如此,这是巨大的机会,可是这些应用的出现一定是循序渐进的。
AI 2.0 时代会和PC、手机端时代一样,第壹个阶段应该是生产力工具,包含信息获取;第贰个阶段可能会是娱乐、音乐、游戏,第叁个阶段可能会是搜索;再下一个阶段可能会是电商;然后可能会有社交、短视频、O2O的应用出现。
一个理由就是刚开始应用要能够挣钱、能够处理问题,所以第壹波潮流会是生产力工具,但越往后,难度越高——高用户量的应用商业模式往往是先堆积用户再找变现模式,所以应用成本务必要很低,试错难度很大、所期望的投资也更多。
递进的模式不会有特别大的改变,To C应用会从生产力工具一步步走向短视频类应用。To C的确会发生大量的用户,但这不是说不能用大模型来做产品,只是在普及顺序上会根据这六个阶段进行。
当然,这个进程中也有挑战,在大模型领域做应用跟PC、互联网时代不一样,因为推理成本还太贵。最近零一万物提出了TC-PMF概念(技术成本产品市场契合度),这个概念是指,当你考虑PMF时,还要把技术的切实需求、实现难度和成本考虑进去。
做应用务必要考量到刚才这六个阶段谁先谁后、啥时候做、提早做。第贰,做应用的时候还要综合考量到当时的技术够不够好,成本是否足够低,所以大模型To C应用不像过去手机端时代,产品经理一个人就可以做主,它需要做Infrastructure、做推理引擎的人、一起打磨TC-PMF。这件事难度高,可是回报也高,机会也更大。
最后我想讲,在To C方面,我不相信技术可以永久领先,其实技术造成的领先窗口非常短暂,一旦巨头看到你验证了PMF,他们会有许多方法超越你。一旦你验证了TC-PMF,要把握时间窗口把品牌打出来,最终胜出的To C应用不只是需要有技术优势,还需要在时间窗口内缔造持续优势,好比品牌优势,好比社交链,好比用户数据,让用户不能离开你这个平台。在微信强大的时代里抖音能被做出来,就是因为它抓住了这个时间窗口。
再讲一下To B的应用。大模型有可能在To B方向上造成更大价值,而且能够比To C更快实现,可是To B这个领域有几个挑战。
第壹个挑战是大公司、传统公司不是很敢采取推翻式技术,大公司会习惯每年增长5%预算,做和去年同样的事情。
第贰个挑战在中国比较严重,许多大公司没有认识到软件的价值,为软件付费的意识有待进一步提高。现在有许多大模型公司在竞标时越竞越低,做到最后做一单赔一单,都没有利润。我们在AI 1.0时代曾见过这个现象,现在它在AI 2.0时代又重现了。这种心理状态造成部分大公司只愿支付很低的价钱,大模型公司也只能给出折中的方案,达到惊艳效果的屈指可数。
问题四:大模型产业的最大场景会在哪里?To B、To C在啥地方能够落地施展作用?
张亚勤:在应用和服务层面,先面向消费者(To C)再面向企业(To B)。To B的周期相对较长,而To C的应用产品则可以迅速推出,这与过去的PC互联网和手机端的发展路径基本一致。在基础设施层,目前真正盈利的主要聚焦在To B领域,尤其是在芯片、硬件、服务器等。像英伟达、AMD等芯片制造商,和服务器、HBM存储、InfiniBand和NVLink等相关技术的提供商,他们目前是盈利最多的。
关于AI路径,三个关键领域:首先是信息智能,其次是物理智能(现在流行的术语是具身智能),最后是生物智能。在具身智能阶段,To B的应用可能会比To C更快落地。然而,在生物智能阶段,情况可能相反,To C的应用可能会先于To B出现。尽管每个领域的详细情况可能有所不同,但总体来看,甭管是To C还是To B,都将存在开源模型、商业闭源模型、基础大模型,和针对垂直行业模型和边缘模型。
问题五:具身智能中,是热门的人形 机器人 先有机会,还是自动驾驶会有机会?
张亚勤: 无人驾驶 L4+是具身智能第壹个、最大的应用,也会是第壹次实现新图灵测试的应用。 无人驾驶 它就是一个开车的特殊 机器人 。 无人驾驶 的安全性已经比人类驾驶要高至少10倍。
尽管安全性很好,当前 无人驾驶 仍存在一些挑战,虽然安全但不够老练, 无人驾驶 要变成主流,要通过新图灵测试的话,需要是好司机,也需要是老司机。我认为 无人驾驶 在明年会成为第壹个真正实现具身智能或物理智能的AGI。
大模型帮助 无人驾驶 解决了很多问题,好比长尾问题、数据生成问题,生成式 人工智能 可以生成很多数据。大模型的应用使得 无人驾驶 系统能够实现端到端的智能化,同时也意味着 无人驾驶 会有更高的智能性,还将加速在实际场景中的落地应用。
李开复:现在 无人驾驶 面临巨大机会,终于可以落地了。在L2、L3阶段,包含城市自动小巴等等场景, 无人驾驶 可以真正创造价值。到L4、L5阶段,要无限制地开到开放场景,全球都面临着挑战。中国能做得很好,也许这就是很大的市场。
讲到具身智能,是物理世界跟AI的结合很关键。大模型非常适合虚拟世界,在金融公司的后台、客服等等场景,大模型很快可以落地发生价值。如果需求是软件,直接对接大模型就行。一旦大模型接入物理世界,就需要面临各种问题,有安全问题、机械问题等等,难度会大很多倍。
从创业者的视角而言,虽然现在具身智能一时比较热,但对大部分创业者而言,如果希望短时间落地发生价值、能挣钱,肯定还是做虚拟世界要远远容易很多。具身智能重要,可以很好地结合大模型多模态能力,而且一旦具身后就可以发生数据,形成数据飞轮闭环,有很大的想象空间。但短时间要做好,难度很大。绝大多数应用场景其实不用人形 机器人 ,炒菜 机器人 应该长得像锅,吸尘器也长得其实不像人。
张亚勤:通用 人工智能 15-20年内可以实现,并通过新图灵测试。0至5年内,在信息智能领域,对语言、图像、声音和视频的领会、生成等方面通过新图灵测试。0至十年内,在物理智能领域,实现大模型在物理环境中的领会与操作能力,通过新图灵测试。0至20年内,在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体联结的生物智能,通过图灵测试。要是三年前问我这个问题,我可能会说50年实现AGI,这几年随着大模型的发展,我认为20年能实现。
问题六:GAI、具有通用性的 人工智能 和AI领域说了这么多年的AGI是不同 的。AGI是要超越人类的,AGI是有自我意识的,AGI不只是智能水平超过了人类,而且有自我意识,要有自己的目标、做出自己的判断。你们刚才谈到的是指这样的AGI吗,还是只是说前面一种?
李开复:AGI的定义因人制宜。如果把AGI定义为能做人所能做的一切事情,那么我今天没有办法定义,因为它还有太多未知的东西还没有被解。可是这种定义只把人当作金标准,似乎就是问车啥时候能跟人跑得一样快,可是车在很多场景已经比人跑得快很多了,只是有些场景没法胜任。我个人会说:只要Scaling Law继续,只要AI一年比一年更聪明,它会多做好比5倍的事情,IQ会提升20个点。
但聪明的方向,能做的事情也许是人历来都不能做的,不见得要能做人做的每件事。因为我是做投资和创业的,我想看到的是巨大的商业价值。从这个视角而言,我们不会太纠结是不是能够百分之一百做到人类能做的事。如果全球有一万件事情,AI在9000件上做得比人好,有1000件人做得比较好,这样也挺好的,要给人留一点空间。
谈到虚拟跟物理世界,在虚拟世界里,Agent还是极为重要的,因为人的Intelligence不只是回答问题,是要知道“怎么把事情做出来”。而且假如是谈创造商业价值,Agent帮你把东西买了,帮你把事情解决了,这个是有很大的商业价值,也是贴近AGI的重要一步。
张亚勤:我刚才讲的20年实现AGI,不包含拥有意识或情感。我对AGI的定义有三点,第壹是要有巨大的能力,能在大部分的任务里比人类强,而不是所有任务均超越人类。第贰,它务必是通用的,过去每个任务都要用不一样的模型,可是AGI是要有一个通用的大底座,完全可以有小的垂直模型,但它本身具有通用性。第叁是不断升级、学习、进化,就像人类一样。我不认为如今的Scaling Law,或我们现在做的研究会让AI发生意识,并且我也不认为我们应该从事这方面的研究。我们还是要处理真实的问题,把 人工智能 作为我们的工具、延伸、Agent,而不是另外一种物种。
问题七:从工程、从应用、从商业、从所有的视角,可能没人想去做一个超越人类的、有自我意识的AGI。可是最近OpenAI发生的事情,从去年年底开始,IIya和Altman的争议观点就是两点:你不想干可是它们可能就要出来了,出来之后我们就面临着失控的巨大风险。你们认为这种风险存在还是不存在?
李开复:我认为存在的,但概率不会很高。如果我们越来越依赖Reward model完全让AI自己找路径的话,发生的机率或许会增高。当然,当前大模型的练习方法还不至于让大家担忧过度。不管在哪个时代,我认为技术是中性的,每个科技时代有技术造成的“电车难题”,最后人类都用有效的要领解决了。因此,我对此是持谨慎乐观的态度,短时间最担忧是坏人用它去做伤天害理的事情。中长期看,我依旧建议尝试用“以子之矛攻子之盾”——用更好的技术解决技术造成的挑战,让“AI for Good”,真正造福全人类。
张亚勤:随着AI的能力不断扩大,风险也在不断扩大,所以现在考量到将来的危险是很关键的。我不担忧所谓的AGI会出现意识,会掌控人类。我担忧的是如果现在不高度重视AI的治理,当AGI达到一定的能力并被大规模部署,那么可能会有失控风险。目前AI仍存在可解释性问题,未来 机器人 数量可能会比人要多,那么当大模型被用到基础物理设施、金融系统,包含国家安全,军事系统等方面,就可能会有失控的危险。因此我主张务必要现在开始把AI治理重视起来。对于技术发展我永远持乐观态度,我认为我们人类有两种智慧,一种是发明技术的智慧,一种是引导技术走向的智慧。我认为我们会达到平衡,但前提是现在要实施行动。