OpenAI, 개인정보 위기에 직면: ChatGPT, 치명적인 거짓말 조작, 유럽 규제 기관, 회사 책임 추궁
OpenAI의 챗봇 ChatGPT는 사용자에 대한 치명적인 거짓말을 조작한 후 다시 한번 유럽의 개인정보 보호 불만의 중심에 섰습니다. 이 불만은 개인정보 보호 권리 옹호 단체인 Noyb가 제기했으며, ChatGPT가 두 명의 아이를 살해하고 세 번째 아이를 죽이려 했다는 거짓 이야기를 만들어냈다는 사실에 충격을 받은 노르웨이인의 지원을 받았습니다.
이 사건은 ChatGPT가 부정확한 정보를 생성할 위험을 강조하여 데이터 보호 및 개인 정보 보호 책임에 대한 주요 우려를 불러일으킵니다. Noyb는 ChatGPT의 행동이 유럽연합의 일반 데이터 보호 규정(GDPR)특히 개인 데이터의 정확성과 수정과 관련하여.
"조작된 살인사건", 지역사회에 충격
문제의 남자, 아르베 얄마르 홀멘은 ChatGPT와 대화하며 AI에게 자신에 대한 정보를 요청하자 당황했습니다. AI는 정확한 정보를 제공하는 대신, 홀멘이 두 아들을 살해하고 세 번째 아들을 살해하려 한 혐의로 유죄 판결을 받았다는 완전히 거짓된 이야기를 꾸며냈습니다. AI의 답변은 자녀 수와 성별에 관해서는 어느 정도 정확했지만, 날조된 살인 이야기는 매우 불안했습니다.
노브는 자녀의 성별과 가족 거주지 등 특정 세부 사항이 부분적으로 정확하지 않음에도 불구하고, 조작된 살인 주장이 홀멘에게 상당한 정서적 고통을 초래했다고 강조했습니다.
개인정보 보호 및 데이터 정확성: GDPR에 대한 가혹한 테스트
Noyb의 법무팀은 GDPR이 개인 정보의 정확성을 명시하고 있으며, 개인은 부정확한 정보가 발생할 경우 수정을 요청할 권리가 있다고 주장합니다. OpenAI가 AI가 틀릴 수 있다는 간략한 면책 조항을 포함했다고 해서 OpenAI의 책임이 면제되는 것은 아닙니다. OpenAI는 허위 정보 생성에 대한 책임을 져야 합니다.
GDPR에 따라 데이터 관리자(이 경우 OpenAI)는 처리하는 모든 개인 데이터의 정확성을 보장하고 개인이 오류를 수정할 수 있는 명확한 메커니즘을 갖추도록 해야 합니다. 그러나 ChatGPT는 현재 허위 정보를 수정할 수 있는 방법을 제공하지 않아 회사가 잠재적으로 처벌받을 수 있습니다. 실제로 GDPR 위반 시 회사의 연간 전 세계 매출의 최대 4%에 달하는 벌금이 부과될 수 있습니다.
유럽 규제 기관, 법적 책임 강화
이 사건은 AI가 생성한 콘텐츠에 대해 점점 더 우려하고 있는 유럽 규제 기관의 상당한 주목을 받았습니다. Noyb는 노르웨이에 불만을 제기하여 관련 규제 기관에 OpenAI의 관행에 대한 철저한 조사를 실시할 것을 촉구했습니다. 다른 관련 사건도 진행 중입니다. 예를 들어, 폴란드 개인정보보호 규제기관 2023년 9월 이후로 OpenAI의 ChatGPT에 대한 공식적인 응답을 아직 내지 않았습니다.
일부 국가는 생성 AI 도구를 전면적으로 금지하기 위해 서두르지 않는다고 말하며 보다 신중한 접근 방식을 취했지만, 조작된 정보로 인한 위험으로 인해 규제 기관이 입장을 바꾸게 될 수 있습니다. OpenAI는 이미 이탈리아를 포함한 여러 국가에서 규제 조치에 직면했으며, 이탈리아에서는 회사가 데이터 보호 규정을 완전히 준수하지 않아 2023년에 일시적으로 차단되고 1,500만 유로의 벌금을 물었습니다.
AI 제작 문제: 윤리에서 법적 문제까지
이 사례는 AI가 정보를 조작할 때 발생할 수 있는 잠재적 위험, 특히 윤리적, 법적 위험을 다시 한 번 강조합니다. 노브변호사들은 AI 기업들이 단순히 면책 조항에만 의존하여 책임을 회피할 수는 없다고 주장합니다. "단순히 '우리가 틀렸을 수도 있다'는 면책 조항을 덧붙인 후, 발생한 피해를 무시할 수는 없습니다."라고 그들은 말했습니다.
AI 도구가 보편화됨에 따라 개인의 프라이버시와 평판을 손상시킬 수 있는 잠재력에 대한 우려가 커지고 있습니다. AI 회사는 허위 정보의 확산을 피하는 것뿐만 아니라 그러한 정보가 처음부터 조작되지 않도록 보장함으로써 더 많은 책임을 져야 합니다.
미래의 규제와 책임: OpenAI는 개인정보 보호 문제를 어떻게 처리할 것인가?
노이브의 새로운 항의는 OpenAI에게뿐만 아니라 전 세계 AI 기업들이 직면한 공통된 문제이기도 합니다. 바로 조작된 정보로 인해 자사 기술이 법적, 윤리적 문제로 이어지지 않도록 어떻게 보장할 것인가 하는 문제입니다. 유럽 규제 당국이 AI 도구에 대한 감시를 강화함에 따라, OpenAI가 이러한 과제에 어떻게 대응하는지가 글로벌 시장에서의 규정 준수에 상당한 영향을 미칠 것입니다.
미래에는 개인정보 보호 불만과 규제 조치가 증가하여 AI 회사가 제품 설계에서 데이터 보호와 사용자 권리를 우선시해야 할 수도 있습니다. 혁신과 개인정보 보호의 균형을 맞추는 것은 AI 회사가 해결해야 할 중요한 문제가 되고 있습니다.