그녀(Her)의 목소리

2024년 5월 27일, explained

배우 스칼릿 조핸슨이 오픈AI가 자신의 목소리를 도용했다는 의혹을 제기했다.

영화 〈그녀(Her)〉의 한 장면. 사진: Warner Bros. Picture
NOW THIS

미국 배우 스칼릿 조핸슨이 5월 19일 GPT-4o에 사용된 목소리가 자신의 것과 비슷하다며 개발사 오픈AI를 비판했다. 조핸슨은 “가까운 친구들조차 구분하지 못할 정도로 내 목소리와 너무 흡사해 충격과 분노를 느낀다”고 했다. 조핸슨은 변호사를 통해 오픈AI 측에 AI 목소리를 어떻게 만들었는지 구체적인 과정을 공개하라고 요구하며 법적 대응을 시사했다.

WHY NOW

AI가 사람을 흉내 내기 시작하면서 권리 충돌이 늘어나고 있다. 학습 데이터의 저작권 침해부터 목소리와 얼굴 도용까지 다양한 피해 사례가 보고된다. 오픈AI를 비롯한 AI 기업들은 사전 허가 없이 데이터를 사용하고 문제가 제기되면 사후적으로 허락을 요청하고 있다. 즉 감시하지 않으면 결코 알 수 없다. 한편 오픈AI는 AI의 안전과 통제를 담당하던 팀 ‘수퍼얼라인먼트’ 팀을 해체했다.

스카이

오픈AI는 5월 13일 라이브 행사를 열고 GPT-4o라는 새로운 AI 모델을 공개하고 시연했다. 주로 텍스트를 통해 질의응답을 했던 기존 모델과 달리 GPT-4o는 이용자와 실시간 음성 대화를 나눌 수 있었다. SF 영화에 나오는 것처럼 기계와 사람이 자연스럽게 대화했다. 음성도 고를 수 있다. 성별과 음색에 따라 5개가 있는데, 이날 시연에 사용된 목소리는 ‘스카이(Sky)’였다.

그녀

시연을 지켜본 사람들은 스카이의 음성이 영화 〈그녀(Her)〉에 등장하는 AI 서비스 ‘사만다’의 목소리와 비슷하다고 지적했다. 사만다의 목소리 역할을 맡은 배우가 스칼릿 조핸슨이다. 라이브 행사를 마치고 샘 올트먼 오픈AI CEO는 X에 “her”라는 글을 올렸다. 또 지난해에는 영화 <그녀>를 자신이 가장 좋아하는 SF 영화로 꼽으며 “놀라울 정도로 예언적”이라고 했다.

성명

인터넷 커뮤니티 등에서 목소리 논란이 커지자 조핸슨이 직접 나섰다. 조핸슨은 올트먼이 지난해 9월에 이어 라이브 행사 이틀 전까지도 목소리 사용을 제안했지만 거절했다고 밝혔다. 즉 자신의 목소리를 동의 없이 사용했다는 주장이다. 조핸슨에 따르면 올트먼은 조핸슨이 AI 목소리를 맡으면 인간과 AI에 관한 엄청난 변화에 사람들이 편안함을 느낄 수 있다며 설득했다.

반박

오픈AI는 목소리 도용이나 모방 사실은 없다면서도 스카이 음성 사용을 일시 중단했다. 오픈AI는 AI 목소리를 만들기 위해 5개월에 걸쳐 성우와 영화배우에게 400개의 샘플을 받았고, 그중 14개를 꼽은 뒤 최종적으로 5개를 선택했다고 밝혔다. 스카이의 목소리는 조핸슨의 목소리를 훔친 것도 아니고, 흉내 낸 것도 아니고, 다른 전문 배우가 자신의 목소리를 낸 것이라고 했다.

퍼블리시티권

오픈AI의 해명이 사실이라면 저작권 침해 문제는 없다. 그러나 퍼블리시티권 문제가 있다. 사람의 이름, 음성, 초상 등을 동의 없이 상업적으로 이용할 수 없도록 하는 것이다. 상황은 조핸슨에게 유리해 보인다. 미국 법조계는 오픈AI가 조핸슨의 목소리를 도용하거나 모방하지 않았다고 주장해도, 올트먼이 조핸슨을 고용하려고 했고 X에 “her”를 언급했다는 건 영화를 참고했다는 인상을 준다고 지적한다.

정체성

실제로 1988년에 유사 판례가 있었다. 가수 베트 미들러가 자신의 목소리처럼 들리는 광고를 만든 포드자동차를 상대로 소송을 제기해 이겼다. 광고에 나온 노래는 미들러가 광고 녹음 제안을 거절한 뒤 백업 가수가 부른 것이었다. 둘의 목소리가 비슷해서 일부 사람들은 미들러가 부른 줄 알았다. 법원은 “피고에게 미들러의 목소리가 가치가 없었다면 왜 백업 가수에게 그의 목소리를 흉내 내라고 지시했겠는가”라며 피고가 추구한 것은 미들러의 정체성이었다고 판결했다.

합의

조핸슨은 스카이의 목소리가 어떻게 만들어졌는지 구체적인 과정을 알려 달라고 오픈AI에 요청했다. 오픈AI가 더 자세한 대답을 내놓을지는 알 수 없다. 이를 강제할 수 있는 유일한 방법은 소송뿐이다. 그러나 소송이 제기되면 오픈AI는 재판 과정에서 AI 모델이 만들어지는 과정을 원치 않는 방식으로 노출해야 한다. 법적 다툼으로 이어지기 전에 합의를 볼 가능성이 크다.

IT MATTERS

오픈AI는 스카이의 목소리를 사용하지 않을 것이고, 공개되지 않은 금액으로 조핸슨과 합의를 볼 것이고, 올트먼은 앞으로 트윗을 하기 전에 변호사의 검토를 받게 될지 모른다. 이 사건은 그렇게 할리우드 유명 배우가 얽힌 작은 소동 정도로 끝날 수 있다. 그러나 정말 중요한 건, 오픈AI를 비롯한 AI 기업들은 사전 허가 없이 데이터를 사용하고 문제가 제기되면 합의금과 함께 사후 허락을 요청한다는 것이다. 즉 감시하지 않으면 문제를 결코 알 수 없다. 한편 오픈AI는 AI의 안전과 통제를 담당하던 팀인 ‘슈퍼얼라인먼트’ 팀을 최근 해체했다.
 
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close