美国中国证券监督管理委员会(SEC)主席加里·根斯勒周一(8月7日)接受媒体采访时表示, 人工智能 增加了金融危机爆发的危险。
根斯勒重申了自己一贯的立场,他指出技术的快速进步可能会增加金融全面的统一性和相互关联性,并使这些系统更难监管,从而最终造成系统性风险。
根斯勒强调:“ 人工智能 这项技术将成为未来某些危机或未来金融危机的中心,因为它与围绕规模和网络的强大经济体系心心相印。”
他解释说,在未来,少数几家大型 人工智能 公司将提供大部分商业和金融依赖的工具,系统越集中,每个人就越依赖相同的信息,总体上也就更加脆弱,而这就更有可能造成系统溃散。
金融领域的从众心理一直是模因股的一大推动力。但这与 人工智能 的一个关键区别在于,散户投资者只是整个市场的一小部分。根斯勒认为,如果 人工智能 给出了糟糕的建议,它可能会影响到更多的投资者。
根斯勒在此前的演讲中也发表了类似的评论,他称尽管 人工智能 是“我们这个时代最具变革性的技术”,但它可能会增进投资人的羊群行为,鼓励单一文化。
根斯勒认为,随着 人工智能 增强金融互联性,单个行业的危险可能会广泛而迅速地蔓延,这种情景可能会使 人工智能 成为2027年或2037年危机后调查报告中的核心角色。
鉴于 人工智能 有望用更少人工完成更多工作,美国经济各领域的很多企业已经在接受 人工智能 ,当然也包含金融。即便在这种情景下,与根斯勒一样,许多政府官员也对这项技术持怀疑态度。
根斯勒指出,公司的利益和投资人的利益其实不一样, 人工智能 模型可能会以公司利益为优先事项。他补充说,公司应该负责维护投资者和消费者免受自己技术的侵害。
根斯勒表示:“根据法律规定,投资顾问对客户负有诚信义务、注意义务和忠诚义务。假如你使用的是算法,你也应该有同样的义务。”
到底谁对 人工智能 负有法律责任,是政策制定者之间一直争论的一个问题。美国中国证券监督管理委员会上个月提出了一项规定,要求平台消除其技术中的利益冲突。