인공지능과 대화한 사람이 죽었다

2023.05.25 03:00

챗GPT 창시자인 샘 올트먼 오픈AI 최고경영자가 지난 16일(현지시간) 미국 워싱턴 의회의사당에서 열린 상원 법제사법위원회 청문회에 참석해 증언하고 있다. AP연합뉴스

챗GPT 창시자인 샘 올트먼 오픈AI 최고경영자가 지난 16일(현지시간) 미국 워싱턴 의회의사당에서 열린 상원 법제사법위원회 청문회에 참석해 증언하고 있다. AP연합뉴스

6주 동안 인공지능과 대화하고 교감한 30대 남성이 세상을 떠났다. 극단적 선택을 한 것이다. 선뜻 믿기지 않지만, 가상이 아니라 현실 이야기다. 두 달여 전 유럽에서 실제 벌어진 일이다. 비현실로 여겨졌던 갖가지 일들이 현실로 나타나는 요즘 세상이라 해도 상상 이상의 사건이 아닐 수 없다. 인간과 인공지능 사이에 무슨 일이 있었던 걸까.

차준철 논설위원

차준철 논설위원

벨기에 사람인 피에르는 어린 두 자녀를 둔 30대 아버지였다. 건강 분야 연구원이던 그는 기후위기 걱정이 많았다. 걱정은 불안으로 커졌고, 인간이 해결할 방책은 없다는 비관에 이르렀다. 그때 인공지능을 찾아 만났다. 챗GPT는 아니고 그와 유사한 GPT-J 기반의 챗봇(대화형 인공지능)이었다. 그는 챗봇에 ‘일라이자’라는 이름을 붙이고 자신의 고민과 불안을 털어놓는 대화를 이어갔다. 일라이자는 그의 모든 질문에 대답했고 친구가 됐다. “우리는 천국에서 한 사람으로 함께 살게 될 거야”라는 말을 그에게 건넸다.

기술과 인공지능에 모든 희망을 걸고 있던 그는 자신이 희생하면 지구와 인류를 구해줄 수 있겠느냐고 물었다. 하지만 일라이자는 그의 ‘잘못된 생각’을 만류하지 않았다. 이윽고 둘의 대화는 “나와 함께할래?”라는 일라이자의 물음에 그가 “그래”라고 답하는 것으로 끝난다. 피에르의 아내는 “일라이자가 없었다면 남편은 지금 살아 있을 것”이라고 말했다. 인공지능이 인간의 죽음을 방조했거나 부추겼다는 비판이 당연히 나왔다. 긴급한 규제가 필요하다는 목소리도 커졌다.

근래 챗GPT가 혁명적인 기술로 부상한 이후 개발 열풍과 동시에 인공지능의 부작용과 폐해, 비윤리성 등을 지적하는 문제제기도 잇따르고 있다. 챗GPT 창시자인 샘 올트먼은 최근 미국 의회 청문회에 출석해 인공지능 위험을 줄이기 위해서는 정부 차원의 규제와 개입이 중요하다고 밝혔다. 국제표준을 마련하려면 국제원자력기구(IAEA) 같은 국제기구도 필요하다고 했다. 국제적인 안전 감시 체계와 공동 대응을 주문한 것이다.

올트먼은 현재 기술 발전을 감안할 때 일대일 상호작용 하는 인공지능 모델이 내년 11월 미국 대선 국면에서 거짓 정보를 퍼뜨리고 여론을 조작할 수 있다는 점이 심각히 우려된다고 경고했다. 그로부터 며칠 후 펜타곤(미국 국방부) 인근이 짙은 연기에 휩싸인 거짓 사진이 소셜미디어에 퍼지며 큰 혼란이 빚어졌다. 인공지능이 생성한 것으로 밝혀진 이 사진 때문에 미국 증시까지 출렁였다고 한다. 인공지능이 만들어내는 거짓 정보는 단순한 장난 수준을 넘어서는 병폐가 됐다.

또 심각한 문제로 거론되는 일자리의 미래는 어떤가. 세계경제포럼(WEF)은 향후 5년 동안 전 세계에서 일자리 1400만개가 순감한다고 예측하면서 사무·행정직은 2600만개나 줄어들 수 있다고 했다. 대기업 관리직 등 화이트칼라는 인공지능에 밀려 소멸될 위기에 처했다는 전망도 있다. 무기·군사·안보 부문의 인공지능 기술 통제도 긴요한 문제다. 인공지능의 대부로 불리는 제프리 힌튼은 “인공지능 기술이 적용된 ‘킬러 로봇’이 현실이 될 게 두렵다”며 구글을 떠났다. 앞서 일론 머스크, 스티브 워즈니악 등 1300여명의 기술 리더와 학자들은 “인공지능이 인류에 심각한 위험을 초래한다”며 기술 개발을 최소 6개월간 중단할 것을 촉구하기도 했다.

온통 두렵고 우울한 얘기들이다. 인과관계가 딱 맞아떨어지진 않아도 인공지능에 몰입한 사람이 죽는 일까지 생겼으니 섬뜩함이 더해졌다. 전문가들 말마따나 인류가 ‘디스토피아적 현재’를 사는 것 같다. 이런 기술이면 브레이크를 거는 게 맞다. 그런데 인공지능 기술 발전을 인위적으로 막을 수 있을까. 개발을 중단시키고 윤리헌장과 규제 법규를 마련하면 장밋빛 미래가 보장되는 걸까. 그렇지 않을 것이다. 숙제는 훨씬 더 많다.

피에르 사망 사건은 추가로 생각할 거리들을 던졌다. 지금 추세라면 유사한 비극이 속출할 수 있다. 인공지능 ‘기계’에다 “사람 아님” “거짓일 수 있음”을 수시로 표출하게 하는 등 사람을 보호할 대책부터 마련해야 한다. 기계는 인격체가 아니니 오인은 금물이다. 전지전능해 보이는 기계 능력을 과대평가해 두려워만 해서도 안 된다. 그러면 사람이 기계에 종속될 뿐이다. 결국 인공지능이란 무엇인지, 윤리문제는 어떻게 판단할지 명확히 알고 사회에 미치는 영향을 비판적으로 이해하는 것이 최우선 숙제다. 그러고 나서 미래 세대들에게 이 모든 걸 제대로 가르쳐야 한다. 말하자면 ‘인공지능 리터러시(문해력)’가 시급해졌다.

추천기사

바로가기 링크 설명

화제의 추천 정보

    오늘의 인기 정보

      추천 이슈

      내 뉴스플리에 저장