시각장애인이 GPT-4o 쓰자 '깜짝'..."AI가 세상 들여다본다" [지금이뉴스] / YTN

  • 그저께
챗GPT 개발사 오픈AI가 13일(현지시간) 보고 듣고 말하는 새로운 AI 모델을 공개했습니다.

'GPT-4o'는 주로 텍스트를 통해 대화할 수 있었던 기존 모델과 달리 이용자와 실시간 음성 대화를 통해 질문하고 답변을 요청할 수 있는 AI 모델입니다.

새 모델의 'o'는 모든 것이라는 '옴니'(omni)를 뜻합니다.

이 모델은 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 한층 똑똑해진 된 음성 어시스턴트입니다.

해당 모델은 카메라 렌즈로 주변 상황을 파악할 수도 있습니다.

13일 오픈 AI가 공개한 영상에는 지피티가 시각 장애인의 택시 탑승을 돕는 장면이 나옵니다.

[시각장애인 : 집에 가야겠어. 빈 택시를 찾아줘]
[챗GPT-4o : 방금 한 대 찾았어요. 왼쪽 도로에서 당신쪽으로 오고 있어요. 손을 내밀어 부를 준비를 하세요.]

오픈AI는 'GPT-4o' 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했습니다.

또 새 모델로 한국어 등 50개 언어에 대한 챗GPT의 품질과 속도가 향상됐으며 이날부터 개발자들이 새 모델을 사용해 애플리케이션을 구축할 수 있도록 오픈AI의 API(응용 프로그램 인터페이스)를 통해서도 이용할 수 있다고 오픈AI는 덧붙였습니다.

무료로 제공되지만 기존 유료 구독자는 무료 이용자보다 5배 많은 질문을 할 수 있고, 이날 시연된 AI 음성 모드는 몇 주 안에 공개될 예정입니다.


AI앵커 : Y-GO
자막편집 : 정의진
영상출처 : 유튜브 OpenAI

▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202405141621406010
▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424

▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs

[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]

추천