商业热点 > 商业洞察 > 张莹代表 - 建议加强人工智能规则治理 健全专业人才培养模式

【人工智能】张莹代表 - 建议加强人工智能规则治理 健全专业人才培养模式

查看信息来源】   发布日期:1-15 22:13:29    文章分类:商业洞察   
专题:人工智能】 【出口管制

  1月14日, 北京市 第十六届人民代表大会第叁次会议举行,市长殷勇作政府工作报告。报告提出,要提升优势产业发展能级,完善新一代信息技术、 人工智能 等产业支持政策。

  对于 人工智能 的发展和落地, 北京市 人大代表张莹就把 人工智能 应用到了日常工作中。作为 中国电信 股份有限公司北京分公司10000号服务中心员工,她将算法与用户实际诉求相结合,参与研发了服务大模型,以进行全流程的智能辅助。

  张莹告诉新京报记者,本次上会她造成了加强 人工智能 规则治理与健全 人工智能 领域专业人才培养模式两项建议。

  构筑大模型安全能力,用“魔法打败魔法”

  张莹表示,当前在 人工智能 规则治理方向中,恶意误导模型、虚假信息流传、无益的信息传递三个方面的问题较为突出。具体来看,恶意误导模型使得模型训练结果受损,浪费算力资源;模型生成的不真实或不良信息的流传会影响公众的价值观和认知,进而被别有用心的人用于制造社会舆论,甚至涉及司法犯罪;大模型的普遍应用一方面方便了工作生活,另一方面也造成了大模型生成有害信息无法事前拦截的问题。

  对此,她建议针对受众群体较大或训练成本较高的模型,采取必要的安全隐患监管措施,一方面针对数据的安全隐患监管,对敏感数据进行加密和脱敏处理,确保数据存储、传输及使用安全的条件上,建立严格的数据访问、处理控制机制,并构建完善的审计流程,防止数据被恶意篡改或泄露。另一方面针对参与训练的技术人员建立完备的权限管理制度,根据“最小化”原则访问其所需资源并对访问及使用过程运用自动化安全检测工具或平台实时进行审查及监管,发现潜在的危险并及时修复。

  张莹认为,在模型生产内容安全风险加剧的情景下,需要迭代更新新型安全治理技术,构筑大模型安全能力,用“魔法打败魔法”。对可能存在的各类大模型安全风险相关数据进行收集,构筑完备的数据底座来为风险识别奠基基础,并在数据底座的条件上运用正确的技术手段,如相似度匹配、语义分析等进行有效的危险识别及风险等级评估。算法升级方面,针对模型结构进行优化,基于当前模型的特点可以针对性地进行模型结构改进和训练策略调整。

  试点在中小学开设 人工智能 实践体验课消除就业不确定影响

  作为在行业一线进行 人工智能 应用落地的代表,张莹也观察到当前企业内 人工智能 高条理人才不足,青年科技人才更多是应用层人才,能力偏重于数据资源应用与数据加工挖掘,研发推翻性成果需进一步提高人才培养的深度与针对性。

  在她看来,为减少 人工智能 出现“幻觉”,保持AI模型的自洽性需要在模型训练、推理、微调等不同环节由具备在交叉学科融合进程中运用适当的技术来选择符合逻辑的合理结果的专业人才,帮助模型自洽性的保持和提高。随着 人工智能 技术的不断进步,将来的就业环境更加复杂,部分传统职业用工需求将极速下降,而相应地也会发生新的与 人工智能 领域相适应的新型职业。

  对此,她建议企业内部针对人才培养加强顶层设计及战略规划,深化企业与高校联合高条理人才培养模式改革,聚焦 机器人 、教育、医疗、文化、交通等领域,持续推进交叉学科 人工智能 领域人才培育。

  “适时试点在中小学开设 人工智能 实践体验课程,鼓励有条件的科技型公司与教育集团或学校建立战略合作关系,共同培养拔尖创新人才,使学生及家长对就业市场未来发展有一个客观的认知,对行业趋势保持敏感,以消除未来就业环境的不确定性造成的影响。通过针对性的培养专业素养及职业技能,鼓励学生发展创新思维、逻辑思维和实施变革的能力,为未来新型职业尤其是行业推翻性职业的人才缺口做足充分的准备。”张莹说。

手机扫码浏览该文章
 ● 相关商业动态
 ● 相关商业热点
商务部】  【人工智能】  【美国商务部】  【出口管制】  【安全局】  【世界经济】  【英伟达】  【黄仁勋】  【分公司】  【海宁皮城】  【数据中心】  【川润股份】  【云计算】  【通信网络】  【IDC】