4月26日,清华大学苏世民书院院长、 人工智能 国际治理研究院院长薛澜出席2024中关村论坛年会平行论坛“ 数据安全 治理与发展论坛”,并在接受包含新京报贝壳财经在内的媒体采访时回答了如何应对 人工智能 的潜在风险,和可能的社会影响等诸多问题。
对于 人工智能 潜在风险的控制体系建设,他强调了国家法律法规、企业内部和社会公众的综合性作用。
他认为,国家需要专门出台类似《个人信息保护法》《生成式 人工智能 服务管理暂行办法》的以处理算法为主的法律法规,要求算法合理保护使用者权益。另外也需要企业通过成立委员会等加强内部基础建设的措施来保证技术应用过程合法合规。
“ 人工智能 安全上路还需要全社会共同监督,一旦发觉误用、滥用的情景及时举报,相关政府部门将采取相应治理措施。”薛澜说。
他认为,应该鼓励 人工智能 采取开源技术路径,“增进技术快速发展和迭代”。同时他认为,在开源进程中也要保证技术安全,防止被恶意使用者利用从而给人类社会造成危害。
“ 人工智能 技术刚进入应用阶段,各国的应用场景存在不同。”薛澜希望未来 人工智能 在应用上尽量给公众提供更多选择,但也需要以我国的特定场景为基础。
他以人脸识别技术为例解释称,国内火车站常人满为患,需要在较短时间内通过大量人流,“这时期人脸识别技术相对来说更快”。另外,火车站也可以为不愿意采取人脸识别技术的人设立人工通道,“只是这样可能更慢些”。
人工智能 可能影响将来的职业技能要求,甚至是就业模式,我们应该如何应对?
对此薛澜认为,就像面对其它技术创新一样,我们可能需要探讨“怎么样利用 人工智能 技术为人类服务”,可能需要思考“人类下一步发展更希望得到啥”,“哪些工作可能更有创意、 人工智能 无法替代”,探讨思考后得到的方向可能就是人类需要掌握的技能。
“另一方面也需要开拓就业新领域。”薛澜表示,随着新技术发展和物质文化生活不断丰富,社会将发生更多的新需求,“这些需求也许就是将来的就业新模式”。
采访结束后,薛澜参加了主题为“ 数据安全 治理与发展”的中关村论坛年会平行论坛,并主持“AI大模型 数据安全 治理”圆桌讨论。
该论坛由国家互联网信息办公室、 北京市 人民政府主办,国家互联网信息办公室网络数据管理局、 北京市 互联网信息办公室、 北京市 经济和信息化局、 北京市 政务服务和数据管理局等七家单位承办,清华大学 人工智能 国际治理研究院、国家互联网应急中心北京分中心协办。