OpenAI 面临隐私危机:ChatGPT 编造致命谎言,欧洲监管机构追究公司责任
OpenAI 的聊天机器人 ChatGPT 因编造了关于用户的致命谎言,再次成为欧洲隐私投诉的焦点。该投诉由隐私权倡导组织 Noyb 提出,并得到了一名挪威男子的支持,该男子震惊地发现 ChatGPT 编造了一个虚假故事,声称自己谋杀了两个孩子,并试图杀死第三个孩子。
此次事件凸显了 ChatGPT 生成不准确信息的风险,引发了人们对数据保护和隐私责任的担忧。Noyb 认为 ChatGPT 的行为违反了 欧盟《通用数据保护条例》(GDPR),特别是关于个人数据的准确性和更正。
“捏造谋杀案”震惊当地社区
这位名叫阿尔韦·亚尔马·霍尔曼 (Arve Hjalmar Holmen) 的男子在与 ChatGPT 对话时大吃一惊,他向人工智能询问了一些关于自己的信息。人工智能没有提供准确的细节,而是编造了一个完全虚假的故事,声称霍尔曼因谋杀两个儿子并企图谋杀第三个儿子而被判有罪。虽然人工智能关于他孩子的数量和性别的回答部分准确,但这个虚构的谋杀故事令人深感不安。
诺伊布强调,尽管某些细节(例如孩子的性别和家庭住所)部分准确,但捏造的谋杀指控给霍尔门造成了巨大的精神痛苦。
隐私和数据准确性:GDPR的严峻考验
Noyb 的法律团队辩称,GDPR 明确规定个人数据必须准确,个人有权在出现不准确信息时要求更正。OpenAI 附带的简短免责声明指出,AI 可能存在错误,但这并不能免除他们的责任。OpenAI 必须为生成虚假信息承担责任。
根据 GDPR,数据控制者(在本例中为 OpenAI)必须确保其处理的所有个人数据准确无误,并确保个人拥有明确的错误纠正机制。然而,ChatGPT 目前尚未提供纠正虚假信息的方法,这可能会使公司面临潜在的处罚。事实上,违反 GDPR 的行为最高可导致公司全球年收入的 4% 罚款。
欧洲监管机构加强法律问责
此案引起了欧洲监管机构的高度关注,他们对人工智能生成内容的担忧日益加深。Noyb 已在挪威提起诉讼,敦促相关监管机构对 OpenAI 的做法进行彻底调查。其他相关案件也在审理中。例如, 波兰隐私监管机构 自 2023 年 9 月以来尚未对 OpenAI 的 ChatGPT 做出正式回应。
尽管一些国家采取了更为谨慎的态度,表示并不急于彻底禁止生成式人工智能工具,但虚假信息带来的危险可能会促使监管机构改变立场。OpenAI 已在多个国家面临监管行动,其中包括意大利。2023 年,该公司因未能完全遵守数据保护法规而被暂时封锁,并被处以 1500 万欧元的罚款。
人工智能制造问题:从伦理到法律挑战
此案再次凸显了人工智能在伪造信息方面带来的潜在风险,尤其是从道德和法律的角度来看。 诺伊布的律师辩称,人工智能公司不能仅仅依靠免责声明来逃避责任。他们说:“你不能只是添加一个免责声明说‘我们可能错了’,然后就无视造成的损害。”
随着人工智能工具日益普及,人们越来越担心其可能损害个人隐私和声誉。人工智能公司需要承担更多责任——不仅要避免虚假信息的传播,更要确保此类信息从一开始就不被捏造。
未来的监管和责任:OpenAI 将如何应对隐私挑战?
Noyb 的新投诉不仅代表着 OpenAI 面临的挑战,也代表着全球人工智能公司面临的共同问题:如何确保其技术不会因虚假信息而导致法律和道德后果。随着欧洲监管机构加强对人工智能工具的审查,OpenAI 如何应对这些挑战将对其在全球市场的合规性产生重大影响。
未来,我们可能会看到隐私投诉和监管行动的增多,迫使人工智能公司在产品设计中优先考虑数据保护和用户权利。在创新与隐私保护之间取得平衡,正迅速成为人工智能公司必须解决的关键问题。