올트먼 축출 사태 여진 이어지는 오픈AI···장기위험 연구 안전팀 해체

2024.05.19 14:10 입력 2024.05.19 14:53 수정

오픈AI사 로고. 로이터연합뉴스

오픈AI사 로고. 로이터연합뉴스

챗GPT 개발사 오픈AI가 미래에 인간을 능가하는 ‘초인공지능’이 인류에 위협이 되지 않도록 제어하는 방법을 연구하던 전담팀을 해체한 것으로 확인됐다. 챗GPT 개발에 핵심 역할을 한 공동창업자이자 수석과학자 일리야 수츠케버를 비롯해 해당 팀을 이끌었던 인물들이 줄퇴사했다. 지난해 11월 샘 올트먼 최고경영자(CEO) 축출 사태 이후에도 인공지능(AI) 개발과 사업화를 둘러싼 갈등이 지속되고 있다는 분석이 나온다.

지난 17일(현지시간) 미국 IT매체 와이어드 등에 따르면 오픈AI는 지난해 7월 꾸린 ‘초정렬팀(Superalignment)’을 해체하고 팀원들을 다른 팀으로 재배치하고 있다. 오픈AI는 팀을 만들 당시 “우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다”며 4년간 자사 컴퓨팅 성능의 20%를 투입한다고 했다.

하지만 팀은 1년도 채 되지 않아 공중분해가 됐다. 초정렬팀을 이끌던 수츠케버와 얀 레이케는 각각 지난 14일과 17일 X(옛 트위터)를 통해 오픈AI를 떠난다고 밝히면서 ‘안전’을 강조했다.

수츠케버는 “나는 오픈AI가 올트먼 등의 리더십 아래 안전하고 유익한 AGI(범용인공지능)를 구축할 것으로 확신한다”고 남겼다. 지난해 올트먼 해임 시도에 앞장섰던 그는 올트먼이 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 사업을 구축하는 데만 열을 올리고 있다고 우려한 것으로 전해진다.

레이케는 X(옛 트위터)에 “꽤 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다”며 “오픈AI는 반드시 안전을 최우선으로 하는 AGI 기업이 돼야 한다”고 썼다. 그는 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만 지난 몇 년간 안전 문화와 프로세스는 반짝이는 제품 뒷전으로 밀려났다”고 말했다. 지난 13일 오픈AI가 인간처럼 보고 듣고 말하는 새 AI 모델 ‘GPT-4o’(GPT-포오)를 공개하는 등 놀라운 기술을 선보이고 있지만 정작 날로 고도화되는 AI가 불러올 장기적인 위험에는 관심을 두지 않았다는 것이다.

이에 그렉 브록먼 오픈AI 사장과 올트먼 CEO는 안전을 중요하게 인식하고 있다는 취지의 성명을 냈다. 이들은 “매우 긴밀한 피드백 루프(AI 모델을 통해 나온 결과를 수집해 시스템을 개선하거나 재교육하는 순환 과정), 엄격한 테스트, 모든 단계에서 신중한 고려, 세계 최고 수준의 보안, 안전과 성능의 조화가 필요하다”고 말했다. 오픈AI는 팀을 독립체로 유지하기보다 연구 전반에 걸쳐 통합한다는 입장이다. 공동창업자 중 한 명인 존 슐먼이 AI 정렬 연구를 이끈다.

IT매체 테크크런치는 “오픈AI의 AI 개발이 예전만큼 안전에 중점을 두지 않을 것이라는 우려가 있다”고 말했다.

추천기사

기사 읽으면 전시회 초대권을 드려요!

화제의 추천 정보

    오늘의 인기 정보

      추천 이슈

      이 시각 포토 정보

      내 뉴스플리에 저장