티스토리 뷰
(출시일 업데이트)GPT 제작 회사 오픈AI가 만든 동영상 제작 도구, 소라(SORA) 최신 정보 및 출시 날짜, 안전조치
wealthydove 2024. 2. 18. 18:50목차
인공지능 기술이 정말 빠르게 발전하고 있는 것 같습니다!
그 흐름을 이끌어나가는 OpenAI가 개발한 GPT는 너무나 혁신적이어서 전 세계적으로 큰 화제를 모아왔는데요.
그런데 불과 얼마 전, 이 OpenAI에서 동영상 제작 도구인 소라(SORA)를 발표했습니다.
본 포스트에서는 앞으로 소라(SORA)는 어떤 놀라운 기능을 제공할지, 그리고 언제 출시될 예정일지에 대해서 현재까지 나온 해당 내용의 최신 정보를 바탕으로 알려드리려고 합니다.
소라(SORA) 출시 날짜 및 이용 가능 여부(출시일 업데이트)
현재 공식적인 대중 출시일이 업데이트 되었는데요.
업데이트 전 내용은, 소라를 출시하기는 했으나 전문가 대상이고 대중 출시는 아직 안했으며, 대중 출시일에 대해서는 아예 언급할 수 없다는 것이었습니다.
open AI측에서는 몇일 전 소라는 이번년도 안에 출시될 것이며, 몇 달 정도 걸릴 것이라고 업데이트 했습니다.
예전에 open ai의 개발자 포럼에서 관계자들은 '정확한 날짜를 알려줄 수 없다'고만 말했는데요.
지금은 '곧 몇 달 안에 출시 될 예정' 이라고 좀 더 구체화한 것이지요.
정확한 날짜가 보도되는 데로 또 업데이트 해드리겠습니다.
OpenAI는 "Red Team"이라고 불리는 안전 전문가들에게 소라 모델을 악용할 수 있는 위험성을 평가하도록 제한적으로 공개했습니다. (Red Team은 공격적 사고방식을 사용하여 시스템, 네트워크, 애플리케이션의 취약점을 발견하고 악용하는 전문가 팀을 의미합니다.)
또한 일부 시각 예술가, 디자이너, 영화 제작자들에게도 접근 허가를 해 모델 활용방안에 대한 피드백을 받고 있습니다.
OpenAI는 이렇게 우선적으로 외부 전문가들에게 연구 진행 상황을 공개중에 있으며 추후 대중들에게 공개하는 정확한 날짜는 아직 미정이지만 이번 년도 몇 달 안에 곧 나온다고 합니다.
OpenAI의 GPT성공사례와 동영상 제작 분야에 띄어드는 이유
OpenAI의 GPT는 다양한 분야에서 혁신적인 성공을 거두었고 AI 기술의 가능성을 크게 확장했습니다.
지난 1년간 전 세계적으로 ai가 핫 트렌드였고, 주식 시장에서는 ai버블이라는 말까지 등장할 정도였죠.
chatGPT가 이렇게 성공할 수 있었던 이유는 사용자 친화적인 인터페이스와 고도로 발전된 언어 처리 능력도 한목 했습니다.
IT지식이 부족한 사람들도 인터넷에서 나온 가이드에 따라서 쉽게 자신의 api를 발급받고 GPT를 사용할 수 있었고, 채팅창에 원하는 내용만 치면 되도록 상당히 직관적으로 구성되어 있었죠.
이러한 성공사례는 OpenAI가 동영상 제작 분야에 진출하는데 강력한 기반이 되었고, 창의적인 콘텐츠 생성에 AI를 활용할 수 있는 새로운 기회를 열어주었습니다.
사실상 SORA 제작 발표 이전에 이미 다양한 비디오 생성 AI가 나왔던지라 OpenAI사에서도 직접 비디오 제작을 할 것이라는건 당연지사기도 하지요.
OpenAI는 이번 동영상 제작 분야에 띄어들며 AI기술로 누구나 쉽게 창작 활동을 하도록 범위를 확장시키고 새로운 비즈니스 기회를 창출하고자 한다고 했습니다.
소라(SORA)의 핵심 기능
OpenAI사의 소라(SORA)는 다음과 같은 핵심 기능을 가지고 있습니다.
- 텍스트 기반 영상 생성: 소라는 텍스트 설명만으로도 고품질 영상을 자동 생성합니다. 간단한 문장이나 복잡한 스토리라인까지 자유롭게 입력하여 원하는 영상을 만들 수 있습니다.
- 다양한 영상 스타일 지원: 실사, 애니메이션, 만화 등 다양한 영상 스타일을 선택하여 원하는 분위기의 영상을 제작할 수 있습니다.
- 실시간 편집 및 미세 조정: 생성된 영상을 실시간으로 편집하고 미세 조정하여 원하는 결과물을 얻을 수 있습니다. 특정 부분을 수정하거나 효과를 추가하는 등 자유로운 편집이 가능합니다.
- 높은 수준의 창의성: 소라는 단순히 텍스트를 영상으로 변환하는 데 그치지 않고, 창의적인 영상 표현을 가능하게 합니다. 예를 들어, 음악에 맞춰 영상을 자동 생성하거나, 특정 분위기를 연출하는 영상 효과를 적용할 수 있습니다.
- 접근성 향상: 전문적인 지식 없이도 누구나 쉽게 영상 제작에 참여할 수 있도록 인터페이스를 간편하게 설계했습니다.
그리고 이러한 핵심 기능은 아래와 같은 연구 기술이 사용되었다고 합니다.
- 확산 모델: 소라는 확산 모델을 사용하여 영상을 생성합니다. 즉, 처음에는 정적 노이즈와 같은 영상에서 시작하여 여러 단계에 걸쳐 노이즈를 제거하면서 점차적으로 변형시켜 최종 영상을 만듭니다.
- 전체 영상 및 영상 확장: 소라는 한 번에 전체 영상을 생성하거나 기존 영상을 확장하여 길게 만들 수 있습니다. 모델은 여러 프레임을 미리 보고 주체가 일시적으로 시야 바깥으로 나가도 동일하게 유지되도록 하는 작업을 해결했습니다.
- 트랜스포머 아키텍처: GPT 모델과 유사하게 소라는 트랜스포머 아키텍처를 사용하여 우수한 확장 성능을 보입니다. 소라는 영상과 이미지를 토큰과 유사한 작은 데이터 단위인 패치 컬렉션으로 표현합니다. 이러한 데이터 표현 통일을 통해 기존보다 더 다양한 지속 시간, 해상도, 종횡비를 포함하는 시각 데이터에서 확산 트랜스포머를 훈련시킬 수 있습니다.
- DALL-E 및 GPT 모델 활용: 소라는 DALL-E 및 GPT 모델 연구를 기반으로 합니다. 시각적 훈련 데이터에 대한 매우 설명적인 캡션을 생성하는 DALL-E 3의 재캡션 기술을 사용합니다. 그 결과 모델은 사용자의 텍스트 지시를 생성된 영상에서 더 정확하게 따를 수 있습니다.
- 다양한 입력 처리: 소라는 텍스트 지시만으로 영상을 생성하는 데 그치지 않고 기존 정지 이미지를 가져와 정확하고 세밀하게 움직이게 하여 영상을 생성할 수 있습니다. 또한 기존 영상을 확장하거나 누락된 프레임을 채울 수도 있습니다.
- AGI 달성: 소라는 실제 세계를 이해하고 시뮬레이션할 수 있는 모델의 기반을 제공합니다.
소라는 기존 DALL-E 및 GPT 연구를 기반으로 사용자 텍스트 지시를 더 정확하게 반영하는 영상을 만들며, 정지 이미지를 동영상으로 변환하거나 기존 영상을 확장하는 등 다양한 기능을 제공합니다.
더 많은 예시 동영상 클립은 여기를 클릭해서 확인하실 수 있습니다.
소라(SORA)의 안전 조치
이런 AI의 발전이 아무래도 우려되시는 분들이 많을 것 같은데요.
이러한 점을 인지하고 있는 것인지, OpenAI는 Sora를 자사 제품에 통합하기 전에 여러 중요한 안전 조치를 취하고 있다고 합니다.
그 내용으로, OpenAI는 우선 잘못된 정보, 혐오 콘텐츠, 편향과 같은 분야의 전문가인 레드 팀과 협력하여 모델을 테스트중이라고 합니다.
또한, Sora가 생성한 비디오를 감지할 수 있는 분류기와 같은 도구를 개발 중이며, 향후 제품 배포 시 포함할 계획입니다.
기존에 DALL·E 3 제품을 위해 구축한 안전 방법론을 Sora에도 적용하여, 극단적 폭력, 성적 콘텐츠, 혐오 이미지, 유명인의 모사, 또는 타인의 지적재산을 요청하는 프롬프트가 있는지 확인한다고 합니다.
정책 입안자, 교육자, 예술가들과도 전 세계적으로 협력하여 이러한 안전성에 대해 지속적으로 연구할 것이라고 말했습니다.
오늘은 GPT를 만들어낸 기업의 또 다른 작품 소라(SORA)에 대해 알아보았는데요.
텍스트 기반의 AI모델 또한 큰 파장이었는데, 동영상 AI제작 도구는 앞으로 얼마나 큰 이슈가 될지 기대 반 걱정 반입니다.
이렇게 만들어진 동영상이 부디 범죄로 악용되지 말고, 해당 기업에서 바란 것처럼 사용자에게 유익하고 더 큰 가치 창출에 기여할 수 있길 바랍니다.
OpenAI사가 현재 발표한 공식적 내용을 보시려면 아래 버튼을 클릭하세요.
'각종 정보 이야기 > IT & 테크' 카테고리의 다른 글
미국 주식 필수 앱 위불(webull) 사용 방법 (3) | 2024.03.06 |
---|---|
뉴럴링크와 인간과 AI의 융합을 시작한 첫 임상실험 결과 (0) | 2024.02.23 |
맥북 에어 m1 vs m2 비교와 프로모션 안내 (0) | 2024.02.22 |
Gemini 성능 테스트를 위한 GPT-4와의 대화 실험과 놀라운 결과 (0) | 2024.02.17 |
애플비전프로 분석, 특징 및 최근 이슈 (1) | 2024.02.15 |