항의하는 아티스트 그룹에 의해 유출된 OpenAI의 텍스트-비디오 변환 도구 Sora

2024년 11월 26일, 불만을 품은 아티스트와 초기 테스터 그룹이 OpenAI의 새로운 텍스트-비디오 변환 도구인 SORA에 대한 액세스 권한을 유출하여 회사의 착취적인 관행에 항의했습니다. 이 그룹은 ‘Sora 홍보 인형’이라는 이름으로 활동하며 OpenAI가 보상과 창작물 인정을 제한하면서 무급 연구 개발에 자신들을 이용하고 있다고 주장했습니다. 이 단체는 OpenAI가 예술 커뮤니티를 진정으로 지원하기보다는 SORA의 이미지를 개선하기 위해 테스터들을 ‘아트 워싱’에 투입했다고 비난했습니다.

이 단체는 AI 개발자 플랫폼인 Hugging Face에 유출 내용을 게시하여 Sora의 프런트엔드로 보이는 것을 설정했습니다. 이 비인가 버전을 통해 누구나 Sora의 기능을 사용하여 동영상을 제작할 수 있었습니다. 그러나 몇 시간 후 OpenAI가 개입하여 공개 액세스를 중단한 것으로 알려졌습니다. 이러한 폐쇄에도 불구하고 수많은 사용자가 이미 소셜 미디어 플랫폼 X에 SORA로 제작한 동영상 사례를 올렸습니다. 영화감독 황 루는 11월 26일자 게시물에 “팔과 다리를 얼마나 잘 처리하는지 인상적이다”라는 글과 함께 유출된 툴로 제작한 클립을 올렸습니다.

Sora PR 퍼펫은 처음에는 초기 테스터, 레드 팀원, 크리에이티브 파트너로 프로그램에 참여하도록 초대받았다고 주장했습니다. 하지만 이들은 의미 있는 보상이나 인정의 기회 없이 단지 Sora를 호의적으로 홍보하는 데 이용당했을 뿐이라고 주장합니다. 유출과 함께 공개된 성명서에서 이들은 “우리는 초기 테스터, 레드팀원, 크리에이티브 파트너가 되겠다는 약속과 함께 Sora에 대한 접근 권한을 받았습니다. 그러나 우리는 오히려 Sora가 아티스트에게 유용한 도구라고 세상에 알리기 위한 ‘아트 워싱’의 유혹을 받고 있다고 믿습니다.”

이 단체는 유출된 Sora 버전과 함께 공개한 공개 서한에서 현재 1,570억 달러의 가치를 지닌 OpenAI가 아티스트들이 프로젝트에 기여한 대가를 부당하게 지급받지 못하도록 막고 있다고 비난했습니다. 이 단체는 “수백 명의 아티스트가 1,500억 달러 가치[의] 회사를 위해 버그 테스트, 피드백, 실험적 작업을 통해 무급 노동을 제공하고 있습니다.”라고 썼습니다. 이 서한은 이어서 얼리 액세스 프로그램이 창의적인 표현과 비평보다는 홍보와 광고에 더 중점을 두고 있다고 주장했습니다.

아티스트들의 불만은 Sora를 통해 생성된 모든 콘텐츠가 널리 공유되기 전에 OpenAI의 승인을 받아야 하므로 창작의 자유가 제한된다는 주장으로 더욱 가중되었습니다. 소수의 크리에이터만이 자신의 작품을 선보일 기회를 갖게 되어 진정한 예술적 협업의 잠재력이 제한된다는 것이 이들의 주장입니다.

Sora는 텍스트 프롬프트를 최대 1분 분량의 동영상으로 변환할 수 있는 확산 모델로서, 제너레이티브 AI 기능의 비약적인 도약을 의미합니다. OpenAI는 2024년 2월 16일에 Sora를 처음 공개하여 큰 호평을 받았습니다. X의 사용자들은 단순한 텍스트 프롬프트에서 초현실적인 동영상 콘텐츠를 제작할 수 있는 이 모델에 대해 찬사를 보냈습니다. 2월 17일자 The Information의 보도에 따르면, OpenAI는 다양한 스타일을 포괄하고 AI가 생성한 비디오의 품질을 향상시키기 위해 “수억 시간”의 비디오 클립으로 SORA를 훈련시켜 왔습니다.

하지만 Sora는 기술 및 운영상의 문제에 직면했습니다. 이전 버전은 비디오 시퀀스 전체에서 일관된 스타일, 오브젝트, 캐릭터를 유지하는 데 어려움을 겪었기 때문에 “수백 개의 클립을 생성해야 사용 가능한 클립을 얻을 수 있었다”고 영화 제작자 패트릭 세더버그는 언급하는 등 비디오 생성의 일관성이 핵심 문제였습니다. 유출된 Sora 버전은 ‘터보’ 변형으로 보이며, 이전 버전에 비해 더 빠르게 작동하는 것으로 보입니다. X에서 사용자가 발견한 코드에 따르면 이 버전에는 추가 커스터마이징 기능과 컨트롤이 포함되어 있어 향후 Sora 버전에서 더 다양한 스타일이 생성될 수 있음을 암시합니다.

유출이 발생한 후 OpenAI 대변인은 성명서를 통해 Sora가 아직 “연구용 프리뷰”에 머물러 있으며, “광범위한 사용을 위해 창의성과 강력한 안전 조치의 균형을 맞추기 위해 노력하고 있다”고 밝혔습니다. 대변인은 “알파 버전에 참여한 수백 명의 아티스트가 새로운 기능과 안전장치의 우선순위를 정하는 데 도움을 주며 Sora의 개발에 힘을 보태고 있다”고 덧붙였습니다. 참여는 자발적으로 이루어지며, 피드백을 제공하거나 도구를 사용할 의무는 없습니다. 이러한 아티스트들에게 무료 액세스를 제공하게 되어 기쁘게 생각하며, 앞으로도 보조금, 이벤트 및 기타 프로그램을 통해 지속적으로 지원할 계획입니다.” 또한 아티스트는 Sora 도구를 ‘책임감 있게’ 사용하고 기밀 정보를 공유하지 않는 것 외에 OpenAI에 대해 “어떠한 의무도 없다”고 강조했습니다.

대변인은 아티스트의 참여가 자발적이라고 강조했지만, 무엇이 ‘책임감 있는’ 사용인지 또는 어떤 세부 사항이 기밀로 간주되는지에 대한 구체적인 설명은 제공하지 않았습니다. 이러한 모호함으로 인해 많은 아티스트들은 창작의 자유가 제한되고 의미 있는 방식으로 Sora의 발전에 기여할 수 있는 역량이 제한될까 우려하고 있습니다.

또한 Sora 논란은 아티스트 보상, 지적 재산권, AI 개발의 윤리적 함의를 둘러싼 오랜 논쟁에 다시 불을 붙였습니다. OpenAI는 이전에 학습 과정에서 저작권이 있는 자료를 활용했다는 이유로 조사를 받은 적이 있으며, 종종 공정 사용을 방어 수단으로 인용했습니다. OpenAI는 Sora의 학습 데이터에 라이선스가 있는 공개 데이터 세트가 포함되어 있다고 주장하지만, 구체적인 내용에 대해서는 입을 굳게 다물고 있어 크리에이터와 법률 전문가 모두의 회의와 비판을 불러일으키고 있습니다.

또한, 콘텐츠 정책 집행 및 탐지 분류기와 같은 안전 조치를 포함하고 있음에도 불구하고 커뮤니티의 많은 사람들은 이 정도 규모의 유출이 발생했을 때 이러한 노력이 충분하지 않다고 생각합니다. 허깅 페이스의 댓글 작성자들은 “이 정도 규모의 유출은 윤리적 안전장치를 시행하려는 OpenAI의 노력을 약화시킨다”고 지적했습니다. 접근 권한이 있는 모든 사람에게 견제받지 않는 권력을 부여하는 것입니다.” 익명의 한 댓글 작성자는 “OpenAI가 유출을 막지 못했다는 사실은 내부 보안 조치가 그만큼 강력하지 않다는 것을 시사합니다. 앞으로 또 어떤 정보가 유출될지 우려됩니다.”라고 말했습니다.

또 다른 아티스트도 비슷한 의견을 표명하며 “우리는 Sora와 같은 AI 도구가 번창하길 바라지만, 창작 노동력을 착취하는 대가를 치르지는 않기를 바랍니다. 우리의 무보수 기여가 수십억 달러 규모의 제품을 더욱 가치 있게 만드는 데 사용되고 있는데, 이는 불공평합니다.”라고 말했습니다. 이러한 불만의 목소리는 아티스트와의 협업 관리 방식에 대한 제도적 변화의 필요성을 강조했습니다.

Sora의 유출은 AI와 창의적 표현의 영역에서 훨씬 더 큰 권력 투쟁이 벌어지고 있음을 강조합니다. 한편으로 OpenAI는 Sora가 동영상 제작의 민주화를 촉진하여 아티스트와 크리에이터에게 고급 AI 기능을 제공한다고 홍보합니다. 반면에 액세스 정보 유출과 그에 따른 시위는 창작 노동의 저평가, 인간의 창의성을 이용해 AI 시스템을 훈련하고 개발하는 것과 관련된 윤리적 딜레마와 같은 시스템적 문제를 부각시켰습니다.

허깅 페이스의 한 기고자는 “AI는 진공 상태에서 존재하지 않습니다.”라고 상황을 적절하게 요약했습니다. 그것은 종종 인정받지 못하는 크리에이티브의 어깨 위에 구축됩니다. 윤리가 없는 혁신은 착취에 불과하다는 경각심을 일깨워주는 사건입니다.” 앞으로 이 사건을 계기로 OpenAI와 같은 기업이 크리에이티브 커뮤니티와 소통하는 방식에 대한 재구상이 필요합니다. 투명성, 공정한 보상, 지적 재산에 대한 진정한 존중을 강조하여 AI 발전이 착취가 아닌 윤리적 협업과 공유 가치의 토대 위에 구축될 수 있도록 해야 합니다.

유사한 게시물