最近,中北大学学生团队成功开发了国内首款多角色AI心理疗愈大模型和AI心理情感服务平台,旨在更有效地解决高校同学的心理健康问题。通过算法识别、筛选、分析出社交媒体上的疑似轻生风险信息,发现高风险有轻生倾向的人群后组织人力实施救援,尽可能找到其亲朋好友,预警并采取相应救援行动……日渐成熟的AI技术在心理方面的应用逐渐深入。近年来,AI技术赋能心理服务已不新鲜,AI心理医师正好补齐当前精神与心理健康服务的一些短板,其发展前景应该被看好。
截至2021年底,我国登记在册的重性精神障碍患者有660万人,心理处于亚健康状态的人更是有很多。相比之下,我国精神科医师仅有6.4万人。精神与心理专业医师奇缺,造成很多患者只能苦熬硬撑。但AI心理医师孜孜不倦且可以量产,进而可以填空补缺,让更多患者及时获得相应治疗。目前一些AI心理医师已施展出了巨大作用,好比“北小六”AI心理服务 机器人 直到今天已在医院场景服务约1万人次,AI帮助“优质心理治疗人人可得”逐渐成为现实。
AI心理医师具有很多独特优势。好比智能产品可把心理评估和干预的程序熟记在内,做到评估过程规范,结论十分精准。为患者制定心理干预程序,和实施科普宣教等,智能产品也能做到高度标准化。智能产品还是能力超强的“学霸”,可以阅读大量相关病例,并做到过目不忘。AI心理医师根据设定的程序行事,且脾性好、不使性子,不会因情绪波动造成医患关系紧张。
不过,也要看到,AI心理医师的毛病也十分突出。尤其是, 机器人 虽然讲规则,按程序行事,能坚守冰凉的准则性,是“铁面无情”的好楷模,却缺乏见机行事的灵活性,对人类的情感与情绪难以理解和把控,更无法开展感性互动。精神与心理疾病多涉及情感与情绪,心理咨询需要感性交流,医师善解人意才能做好这项工作。 人工智能 产品理性有余、感性缺失,无法提供“带温度”的服务。
更关键的是, 人工智能 技术也有被滥用的危险。目前一些语音智能产品辱骂用户或带有性别歧视等恶习,说明AI心理医师深度学习的数据质量也要引起高度重视。假如有人给某种AI心理医师产品喂“有毒的数据”,该产品完全可能“学坏”,甚至出现教唆轻生等极端行为。目前已经有医疗机构开展AI医师与真人医师的一致性评测,这种评测对提升智能产品的质量大有好处。但除了质量要更有保障,更应该采取措施,避免AI心理医师沾染恶习、沦为工具。
医疗类 人工智能 产品既关乎健康与生命,又涉及个人敏感隐私,且 人工智能 的存储与记忆功能均很强大。AI心理医师所掌握的治疗信息一旦管理和使用不妥,就会对患者发生很大的杀伤力。因此,这种工具在获取健康数据方面有哪些权限,和数据的运用、贮存、销毁等有哪些规定,都亟待明确。
AI心理医师的能耐再大,也只能作为人类的助手,不能过度依赖,或任由其单独治疗。兵法上讲,“不尽知用兵之害者,则不能尽知用兵之利”。对AI心理医师也应该如此,只有“尽知其害”,并对证量标准、伦理规范、行为准则、监管方式等加以明确,才能在“尽用其利”的同时,规避可能发生的危险,守住智能产品的安全底线,确保AI心理医师等智能产品平稳行驶在发展的快车道上,造福于社会但不给社会添乱。
文l罗志华