正值我国《 数据安全 法》施行两周年,2023“浦江护航” 数据安全 上海论坛9月1日举行。记者从论坛上获悉,电信和互联网企业承载着大量用户个人信息和业务数据,占全国行业机构发生数据的总量超过四分之一,具有极高价值,但也成为网络攻击的主要目标,勒索病毒、数据泄露等安全事件时有发生,总体形势仍然严峻。但其中,上海承担着护卫 数据安全 的重要角色。上海政府办公厅副主任张宇祥介绍,截至去年底,上海数字核心企业已突破1200家,核心产业规模近3400亿元人民币。
去年11月以来,以ChatGPT为代表的生成式 人工智能 等新技术、新业务的发布,引发行业变革,但也为 数据安全 保护和监管造成新挑战。 深信服 科技股份有限公司副总裁马蕴超举例,“我们公司有一个细分产品规则库,需要有4人花数年时间对其进行不断更新维护。然而,经训练的大模型只用了一周时间,就把规则库原更新维护效果给超越了,我们真的震撼到了。”
但上海数字证书认证中心有限公司总经理崔久强却担忧大模型“恶”的一面。“我看过一个诈骗短视频,其中用AIGC(生成式 人工智能 )生成了一个人的声音和肖像,所谓眼见为实、耳听为实,而今已经做不到了。人脸识别是 人工智能 技术应用最先取得商业化成功的领域,但AIGC如果开始做伤天害理的事情,好比各种伪造攻击等,后果是巨大的。”观安信息开创人张照龙也留意到,大模型中隐含着许多敏感数据。不久前韩国三星一技术人员因写代码受困,求助于ChatGPT,将企业生产的核心代码也上传了,使个人、企业及国家敏感数据不断处于风险之下。因此,如何做好数据的防泄密和统一的数据管控,这非常关键。
“从去年ChatGPT重磅发布到今年以来国产大模型‘百模大战’,可谓热闹非凡,但从过往经验来看,我们应记住:永久不要高估一个新技术前五年的创造性,也永久不要低估它接着五到十年的破坏性。”上海交通大学 人工智能 研究院副院长王延峰说。
国家和政府部门其实早已留意到其中挑战。今年8月31日,国内首批8家大模型公司通过《生成式 人工智能 服务管理暂行办法》备案,获批面向公众开放服务,这些大模型包含了上海 人工智能 实验室的书生通用大模型、商汤科技“商量”,和百度“文心一言”等。这意味着,国产大模型从“诞生潮”迈向“应用潮”进程中,始终面临着政府部门的审慎监管。
工信部 网络安全 管理局副局长杜广达在论坛上介绍,近期,工信部已启动2023年“数安护航”专项行动,面向重点电商平台、 数据中心 和云基础设施运营企业,集中开展风险排查和防范处置,及时化解电信和互联网领域 数据安全 的危险隐患。
此次论坛由上海通信管理局等主办,上海赛博 网络安全 产业创新研究院等承办。