|
AP통신은 29일(현지시간) 오픈AI가 생성형 AI 관련 기술 개발 과정에 안전 및 윤리 문제를 점검하기 위한 '새로운 안전·보안위원회'(safety and security)를 구성했다고 보도했다.
오픈AI의 새로운 안전·보안위원회 구성은 기존 안전팀이 해체되고 GPT-4o의 음성 모방 논란이 제기된 가운데 나왔다. 앞서 오픈AI가 지난 19일 요한슨의 음성 모방 논란을 빚은 GPT-4o의 사용을 일시 중단키로 한 바 있다. 당사자인 요한슨은 자신의 목소리와 비슷하다는 GPT-4o의 '스카이(Sky)'와 관련한 소식을 전해듣고 "충격적"이라며 법적 대응을 시사했다.
이날 오픈AI는 새 위원회 출범 소식을 전하며 "오픈AI의 프로세스와 안전장치를 평가하고 더욱 발전시키는 것이 첫 번째 과제"라며 브렛 테일러 이사회 의장과 샘 올트먼 최고경영자(CEO), 애덤 단젤로 이사 등이 위원회를 이끌 것이라고 설명했다.
오픈AI는 앞서 AI의 장기적인 위험을 연구하는 슈퍼얼라이먼트(superalignment) 팀 일부를 다른 팀으로 재배치하는 등 안전팀을 해체한 것으로 알려졌다. 이 팀을 이끌었던 오픈AI 수석과학자 일리야 수츠케버와 또 다른 임원인 얀 레이케도 회사를 떠났다.
한편 오픈AI는 새로운 AI 모델에 대한 훈련을 시작했다는 소식도 전했다. 오픈AI는 "다음 프런티어 모델을 훈련하기 시작했다"며 "그 결과물이 범용인공지능(AGI)으로 가는 다음 단계의 역량을 이끌 것으로 기대한다"고 밝혔다.
AGI는 사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI를 말한다. 이와 관련 올트먼 CEO는 "우리는 AGI를 만들고 싶다"며 "(이를 위해) 우리 스스로 뭔가를 구축하든, 파트너와 함께하든 무엇이든 다 할 것"이라고 밝힌 바 있다.