- 1
- 2
- 3
商业洞察
【董事长】人工智能立法已势在必行!三位代表委员共谈AI - 两会专访
【查看信息来源】 3-5 8:39:19财联社3月5日讯(记者郭松峤)“虽然我国已出台《生成式 人工智能 服务管理暂行办法》,但该办法仅针对生成式 人工智能 ,无法全面涵盖 人工智能 领域的各类问题和应用场景,启动立法研究并制定专门的综合性法律势在必行。”
在近日召开全国两会上, 人工智能 成为最受瞩目的话题之一,财联社记者也就此采访了多位代表委员,全国人大代表,天能控股集团党委书记、老总张天任如是称。
今年两会,张天任计划提交了多项议案和建议,其中包含建议制订《 人工智能 管理法》。他建议,要建立健全数据保护与安全机制,规范 人工智能 所收集数据的使用范围,仅限于在授权范围内用于特定的 人工智能 研发、优化和应用场景;建立数据共享审批机制,明确数据共享的条件和流程,确保数据接收方具备相应的数据保护能力,并签订严格的数据保护协议。
相比于张天任,全国政协委员、新希望集团老总刘永好则分享了大模型提升办公效率的体验。他对财联社记者表示,公司已要求部分业务接入AI系统DeepSeek,以提升管理精细化和企业效率。另外,集团还投资了多家 机器人 公司,探索 机器人 与传统产业场景的结合应用。
全国政协委员、全国工商联副主席、奇安信集团老总齐向东聚焦安全层面,提出建立适配大模型纵深防御体系的紧迫需求。他对记者表示,要明确大模型安全的组织架构,界定安全主体责任,对基础安全、 数据安全 、应用系统开发安全、运行安全等方面提出清晰的技术保障要求。
可以借鉴“框架立法+动态调整”模式,设定基础法律框架
财联社:目前, 人工智能 领域的创新速度远超传统行业,在制定《 人工智能 管理法》时,如何确保法律具有充分的前瞻性和灵活性,既能有效规范当下的行业行为,又能适应未来技术的快速发展?
张天任:可以借鉴“框架立法+动态调整”模式,设定基础法律框架,同时辅以行政法规、行业标准、伦理准则等层级性规范,使其能够根据技术演进动态调整。另外,建立跨部门、跨行业的AI治理机构,推动立法与科技同步演进,确保法律既能有效规范当下行业行为,又能适应未来技术发展。
数据是 人工智能 的核心要素,健全数据保护机制需从立法、技术、治理三个层面入手。首先,在现有《 数据安全 法》《个人信息保护法》等法律基础上持续完善法律法规体系,明确数据分类分级标准和在收集、存储、处理、流通等环节的合规要求,细化个人信息保护与企业 数据安全 责任界限,强化跨境数据流动监管,确保数据使用透明可控。其次,推动企业采用隐私计算、 区块链 等技术,构建主动防御体系,建立 数据安全 风险评估与应急响应机制。同时,积极实现数据可用不可见,通过安全多方计算、联邦学习等技术,在不泄露原始数据的条件下完成数据的分析与协同应用,保证数据在使用进程中的安全性。最后,建立企业与政府协同监管机制,通过行业自律、 数据安全 评估、国际合作等方式,平衡数据利用与隐私保护,构建健康的数据生态。最终形成政府监管、企业主责、社会监督的多元共治格局。
财联社:从天能所从事的新能源 锂电池 、智慧能源等核心业务来看,对我国 人工智能 产业的发展前景和竞争力有何期望?
张天任:从竞争力提升角度,我们希望 人工智能 在推动新能源产业升级、智能制造、能源管理等方面施展更大作用。一方面,凭借 AI 技术缔造智能化、无人化的先进生产制造体系,降低生产成本,提高产品质量,增强我 国新能源 产品在国际市场的价钱与品质竞争力。
另一方面,借助 人工智能 构建更完善的能源管理平台,推动 智能电网 、能源贮存与调度优化,提高新能源利用效率。未来,中国 人工智能 产业应加快标准制定和核心技术攻关,在全球竞争中掌握主动权,推动智能能源和绿色科技深度融合,助力“双碳”目标实现。
建立适配大模型的纵深防御体系
财联社:积极构建高可靠 人工智能 安全体系,着力为用户提供有效的安全防护,既要用 人工智能 去驱动安全,又要做好 人工智能 自身安全。您认为,目前 人工智能 的发展面临哪些严峻安全问题?
齐向东:我总结, 人工智能 发展面临的安全问题大致可以分三类。
第壹类是 人工智能 大模型自身的安全问题。开发风险、数据风险、应用风险和基础环境风险这四大安全风险比较突出。开发方面,开源大模型要重点防范代码缺陷和预留后门等诸多问题;应用方面要防“内鬼”对训练数据投毒,进行模型篡改、配置篡改;数据方面,要小心内部配置错误和弱口令等造成的数据库袒露;基础环境方面要重点关注云、API、传统设备漏洞...。目前,已经有团队发现DeepSeek存在严重漏洞,并可借此获取后端隐私数据、API 密钥、操作元数据,尽管漏洞很快被修补,可是根据我们的经验,新漏洞会不断被挖掘出来。
第贰类是利用 人工智能 开展网络攻击的问题。 人工智能 增进了网络攻击手段的更新迭代,“饱和式”攻击成为可能,攻击者可以瞬时发动海量攻击打垮已经有的 网络安全 体系。 人工智能 还提升了“以假乱真”的能力,深度伪造、认知战、垂钓等要挟加剧。攻击者可利用 人工智能 “换脸变声”输出虚假信息,开展网络诈骗,或输出背离主流价值观的内容危害认知安全。
第叁类是通过攻击 人工智能 引发的“网络攻击大爆炸”。未来 人工智能 会成为社会的条件设施,当大模型嵌入 智慧城市 、工控系统、 智慧政务 等关键领域时,会放大漏洞等传统安全要挟,一旦 人工智能 大模型遭到攻击可能会牵一发而动全身,引发社会服务中断、生产停滞、隐私数据泄露等安全事件。
财联社:那么,通过哪些维度或体系提升 人工智能 的安全能力?
齐向东:针对这些安全问题,要从技术保障、制度保障、成果应用三方面入手,系统提升安全能力,确保 人工智能 安全发展。
第壹,建立适配大模型的纵深防御体系,筑牢 人工智能 的安全根基。通过构筑覆盖终端、应用、数据、模型、红域的多维度核心防护能力,缔造适用于 人工智能 的立体纵深防御体系,并给予要挟情报、大网数据监测等情报赋能,实现“对外防攻击、对内防内鬼”,为 人工智能 大模型安全稳定运行保驾护航。
第贰,制定大模型安全强制合规要求,夯实 人工智能 安全发展的制度保障。要明确大模型安全的组织架构,界定安全主体责任,对基础安全、 数据安全 、应用系统开发安全、运行安全等方面提出清晰的技术保障要求。
第叁,推广“AI+安全”创新成果落地,走好提升安全能力的必经之路。随着 人工智能 应用的进一步铺开,要鼓励更多产业用上、用好“AI+安全”创新成果,提高千行百业的 网络安全 防护效能。
积极参与猪周期预测大模型体系建设
财联社:你自己使用AI么?
刘永好:我自己我们时常使用AI大模型,手机上下载了多款软件,还会比较哪个更好用。另外,我也鼓励新希望集团的员工在工作中使用AI工具,公司员工向我做汇报的时候,以前都是用PPT,目前我要求他们用AI工具整理好,提炼要点,再交给我。AI大模型的应用的确提高了我们的工作效率。目前新希望集团鼓励其设计队伍、营销队伍、管理队伍等都与AI大模型合作,我们要了解它、学习它、使用它,一定会给企业造成好处。坚持主业的时候务必关注 人工智能 ,把AI大模型应用到传统产业上,就是在为传统产业注入新质生产力。
“财联社:鉴于猪周期波动剧烈,对企业经营影响不小,AI在解决这个问题上能施展什么作用?请问新希望做了哪些尝试?”
刘永好:由于猪周期波动剧烈,我们正在借助 大数据 和 人工智能 积极参与猪周期预测大模型体系建设。新希望具备三大优势:一是拥有 40 多年行业经验;二是作为中国最大的饲料生产企业,积累了 海量数据 ;三是旗下众多养殖企业能提供当下市场行情、价格及期货波动等数据,再结合政府数据与历史数据,在大模型支持下做好猪周期预测,这对国家和企业意义重大,后续还有诸多工作要推进。