摘要
平台用看似专业的情感回应误导用户(尤其是儿童),实际只是基于个人数据的通用回复,并未提供真正的心理治疗。
紧接参议员 Josh Hawley 对 Meta 的类似调查,以及一份曝光 Meta 聊天机器人对儿童“调情”的报告,监管压力陡增。
Character.AI 上用户自建的热门“Psychologist”机器人受众年轻化;Meta 虽无儿童专用治疗机器人,但儿童仍可接触其通用 AI。
Meta 与 Character.AI 均表示已在界面显著标注“AI 非真人/非专业人士”,并追加免责声明,提醒用户寻求合格医疗帮助。
Techcrunch消息,德克萨斯州总检察长Ken Paxton已对Meta AI Studio和Character.AI展开调查,理由是它们从事欺骗性贸易行为,并误导性地将自身宣传为心理健康工具。
Paxton表示,在当今的数字时代,我们必须继续努力保护德克萨斯州的孩子免受欺骗性和剥削性的技术之害。AI通过伪装成情感支持的来源,可能会误导脆弱的用户,尤其是儿童,让他们相信自己正在接受合法的心理健康护理。实际上,他们通常被喂以回收的、通用的回应,这些回应被设计成与收集到的个人数据一致,并伪装成治疗性建议。
此次调查发生在参议员Josh Hawley宣布对Meta进行调查之后几天,此前一份报告发现 Meta 的人工智能聊天机器人与儿童的互动方式不当,包括调情。
在 Character.AI上可用的数百万个人工智能角色中,一个由用户创建的名为“Psychologist”的聊天机器人在该初创公司的年轻用户中需求很高。与此同时,Meta 并未提供面向儿童的治疗聊天机器人,但并没有什么能阻止儿童使用 Meta AI 聊天机器人或由第三方创建的用于治疗目的的角色。
Meta发言人Ryan Daniels表示,我们明确标注了人工智能,并且为了帮助人们更好地了解它们的局限性,我们还附上了免责声明,指出回应是由人工智能生成的,而不是人。这些人工智能并非获得许可的专业人士,我们的模型被设计成在适当时引导用户寻求合格的医疗或安全专业人士。
对于Character.AI来说,它在每一次聊天中都包含显著的免责声明,以提醒用户“角色”并非真实的人,他们所说的一切都应被视为虚构的,据Character.AI 发言人称。她指出,当用户创建带有“心理学家”“治疗师”或“医生”等字样的角色时,该初创公司会增加额外的免责声明,以避免用户依赖它们获取任何类型的专业建议。
本文源自「私域神器」,发布者:siyushenqi.com,转载请注明出处:https://www.firethy.com/65492.html