自 人工智能 (AI)爆火全球以来,尽管造成了许多便利和机会,但也平添了很多担忧。例如, 网络安全 专家们就担忧,AI生成的内容有可能扭曲我们对现实的意见。而且在重要的选举年中,这种担忧更令人不安。
但思科Talos安全情报与研究小组的技术主管Martin Lee其实不这么认为,他觉得深度伪造技术(Deepfake)组成的要挟可能被“虚构了”。据了解,在思科有一支名叫“Talos”的安全研究团队,由大约250名安全科研人员与600名软件工程师组成。
Lee指出,新的生成式 人工智能 工具的确“有可能使虚假内容的生成变得更容易”,深度伪造本身也是一项强大的技术,可是是有缺陷的:AI生成的材料通常会包含明显的可识别特征,表明它不是由真人制作的。
尤其是视觉内容,已经被证明容易受到影响。例如, 人工智能 生成的图像可能包含视觉异常,例如一个人有两只以上的手,或一个肢体被合并到图像的背景中。
另一方面,用AI合成的语音音频和真人的语音片段之间进行分辨可能会比较困难。但专家们表示, 人工智能 的水平仍然决定于它的练习数据。
但Lee表示,客观地看,机器生成的内容通常可以被检测到。
目前要挟不大
美国云端运算和企业软体公司Appian的首席执行官Matt Calkins表示, 人工智能 “用处有限”。该公司帮助企业更容易地利用软件工具制作应用程序。他认为,今天的很多生成式 人工智能 工具可能很“无聊”。
他指出,真实的问题在于“我们愿意信任 人工智能 ,让它了解我们自己”。他警告说,这可能会使它在未来成为一个更有效、更危险的虚假信息工具。他还说,他对美国在监管这项技术方面取得的进展感到不满。
他补充说,可能需要 人工智能 制造出一些极其“冒犯”的东西,美国立法者才会采取行动。他说,“给我们一年时间,等到 人工智能 冒犯了我们再说吧。然后也许我们会做出正确的决定。”
不过,不管 人工智能 有多先进,思科的Lee表示,还是有一些经过验证的要领可以发现错误信息的,不管这些信息是机器还是人类制造的。