从ChatGPT到Sora, 人工智能 技术为人类造成许多惊喜。然而,在当下,仍有安全、伦理、隐私风险与AI应用相伴而生。随着 人工智能 技术深度介入人类的生发生活,如何做好社会利益和技术进步之间的平衡,是当前务必要面对的问题。
“我国的 人工智能 发展与治理间其实不存在本质冲突。”中国科学院计算技术研究所副所长、研究员,中国科学院网络数据科学与技术重点实验室主任,CCF中国 数字经济 50人论坛秘书长程学旗在数字中国建设峰会特色活动“院士专家行”会后接受21世纪经济报道记者采访时指出。
全球范围内, 人工智能 治理步伐都在逐渐加快。
今年,欧盟《 人工智能 法案》即将正式落地、美国参议院AI工作组发布《推动美国在AI领域的创新:参议院AI政策路线图》指导美国国会监管 人工智能 ,提供立法框架。而我国早在去年就发布《生成式 人工智能 服务管理暂行办法》《生成式 人工智能 服务安全基本要求》等,为AI厂商合规提供服务指明方向。
然而,当前,部分 人工智能 从业者却担忧过于严格的标准可能会因为合规资源占用造成成本飙升,进而影响行业发展。
程学旗认为, 人工智能 治理工作应当持续推进,确保技术发展和应用与社会价值观和法律法规保持方向一致。
AI正逐步走向千行百业,应用范围不断扩大。其实,除了已经进入办公室的大语言模型,AI技术在更早以前就广泛地存在于推荐算法、自动驾驶等场景之中。
从技术角度动身,AI本身就具有“不确定性”。“算法不可避免地会有黑箱化的部分,AI模型在设计进程中可能也存在意图不清晰等诸多问题。这些都会造成 人工智能 有潜在的安全、伦理、隐私风险。经常被担忧的用户数据泄露、大模型‘幻觉’都是不确定性造成的不良影响。”程学旗指出。
我国 人工智能 产业的发展可以用日新月异来形容——模型大战参战者成“百”上“千”,具身智能等新应用、新场景不断涌现。技术跑得快,治理也要跟上。制定法律规则对其监管成为一种一定。“因此,我认为目前监管步伐适度加快是可以明白的。”他指出。
他透露,目前,国家相关部门还在尝试从技术动身,构建部分智能化算法的技术发展谱系。“完成谱系建构后,我们对其可信性、鲁棒性、可解释性和安全性等技术性质的判断将更加精确,进而可以更加针对性地确认其应尽的合规义务。”他指出。