이제 모든 가입자가 ChatGPT의 Advanced Voice 모드를 사용할 수 있습니다

OpenAI는 사용자의 감정에 반응하고 방해 요소를 처리할 수 있는 향상된 음성 비서 기능을 도입한 고급 음성 모드를 모든 ChatGPT Plus 및 Team 사용자에게 공식적으로 출시했다고 발표했습니다. 이 발표는 9월 24일에 이루어졌으며, 새로운 기능은 일주일 동안 점진적으로 사용자에게 제공되기 시작했습니다.

고급 음성 모드의 도입으로 ChatGPT 경험에 새로운 차원이 더해졌으며, 이제 Arbor, Maple, Sol, Spruce, Vale이라는 5가지 음성이 추가되었습니다. 이 음성은 음성 모드의 스탠다드 버전과 고급 버전 모두에서 사용할 수 있습니다. OpenAI의 트윗에 따르면, “고급 음성은 이번 주 중으로 모든 플러스 및 팀 사용자에게 ChatGPT 앱에 적용될 예정입니다. 여러분이 기다려주시는 동안 사용자 지정 지침, 메모리, 5개의 새로운 음성 및 향상된 악센트가 추가되었습니다. 또한 50개 이상의 언어로 ‘늦어서 죄송합니다’라고 말할 수 있습니다.”

그러나 이 기능의 출시는 점진적으로 이루어질 예정이며, 다음 주에 Enterprise 및 Edu 티어로 확대될 계획입니다. 사용자는 ChatGPT 인터페이스 내 Voice Mode 옵션 옆의 팝업 메시지를 통해 액세스 알림을 받게 됩니다.

7월에 알파 버전이 출시된 이후 OpenAI는 고급 음성 모드를 대폭 개선했습니다. 이제 다양한 언어의 억양 정확도가 향상되었을 뿐만 아니라 대화 흐름도 더 부드러워졌습니다. 또한 시각적으로 뚜렷한 애니메이션 블루 스피어와 사용자 지정 지침 및 메모리와 같은 새로운 기능이 통합되었습니다. 이를 통해 사용자가 공유한 특정 기준에 따라 맞춤형 응답을 제공할 수 있지만, 화면 콘텐츠 지원이나 상황에 맞는 카메라 사용과 같은 멀티모달 기능은 지원되지 않습니다.

이번 출시를 준비하기 위해 OpenAI는 45개 언어로 100명 이상의 외부 레드 팀원과 함께 광범위한 테스트를 진행했습니다. 이러한 노력은 지난 8월에 발표된 GPT-4o 시스템 카드에 명시된 안전 조치의 일환으로, 여기에는 OpenAI의 대비 프레임워크에 따른 위험 평가와 안전 프로토콜이 자세히 설명되어 있습니다.

이러한 발전에도 불구하고 이번 출시에는 EU 내 사용자가 포함되지 않았는데, 이는 AI 시스템이 고급 음성 모드의 기능인 개인의 감정을 추론하는 것을 제한하는 엄격한 AI 법 때문일 가능성이 있습니다. X 사용자 딘 W 볼은 “AI법을 엄격하게 해석하면 ChatGPT 고급 음성은 시스템이 사용자의 감정을 인식할 수 있기 때문에 EU 직장과 학교에서는 *불법*입니다. 이는 AI 법에 의해 금지되어 있습니다.”

이 기능은 OpenAI의 봄 업데이트 이벤트에서 선보인 광범위한 GPT-4o 제품의 일부로, 텍스트, 시각 및 오디오의 전방위적인 기능으로 큰 관심을 불러일으켰습니다. 행사에서 샘 알트먼은 “하늘의 마법 지능에 대해 몇 주 동안 감사하고 나면 곧 더 많은 장난감을 가질 수 있지 않을까요?”라고 유머러스하게 말하며 사용자 경험을 향상시키기 위한 OpenAI의 노력을 분명히 드러냈습니다.

고급 음성 모드를 이용할 수 있는 ChatGPT 플러스 멤버십은 월 20달러에 이용할 수 있습니다. 이 구독은 음성 기능뿐만 아니라 고급 데이터 분석, 무제한 이미지 생성, 5배 더 많은 GPT-4o용 메시지, 사용자 지정 GPT 생성 기능도 제공합니다.

경쟁사인 Google도 모든 Android 사용자에게 무료로 제공되는 유사한 기능인 Gemini Live를 출시하여 OpenAI가 혁신을 지속하고 사용자 기반을 확대해야 한다는 경쟁 압력을 가중시키고 있습니다.

OpenAI의 출시가 진행됨에 따라 현재 AI 법의 제한 사항으로 인해 EU에서 고급 음성 모드의 미래는 여전히 불확실합니다. 그러나 이 고급 AI 기능에 대한 전 세계의 기대와 채택은 계속 증가하고 있으며, 이는 일상적인 디지털 상호 작용에서 AI가 얼마나 큰 영향을 미치는지 보여줍니다.

Similar Posts