챗GPT와 대화 한번 나누는 데 냉각수 500㎖ 소요…진짜 ‘기후 빌런’ AI 산업

2023.11.30 22:44 입력 2023.11.30 23:50 수정

수천개 반도체 돌리는 데이터센터 서버 식히는 데 막대한 담수 필요
필요한 물의 양 ‘베일’…전 세계 곳곳 센터 설립 놓고 주민들과 갈등
AI 학습에 100가구 1년치 전력량 사용…에너지 소비 투명성 과제로

올해 7월 이상기후로 최악의 가뭄에 시달리자 시민들이 우루과이 정부를 상대로 물 부족 사태에 항의하며 집회를 하고 있다. AFP연합뉴스

올해 7월 이상기후로 최악의 가뭄에 시달리자 시민들이 우루과이 정부를 상대로 물 부족 사태에 항의하며 집회를 하고 있다. AFP연합뉴스

올해 7월 우루과이에서는 구글이 데이터센터를 설립하려다 주민들의 반발로 계획을 축소한 일이 있었다. 당시 우루과이에선 이상기후로 인한 최악 가뭄으로 식수조차 구하기 어려웠다. 이런 상황에 하루 냉각수만 769만ℓ를 사용하는 데이터센터가 들어선다는 소식이 알려지자 시민들이 대규모 시위에 나섰다. 일일 냉각수량은 하루 5000명이 가정에서 쓰는 물과 맞먹는 규모다. 결국 구글은 데이터센터 규모를 줄이겠다며 물러섰다. 스페인에서도 데이터센터를 설치하려는 메타가 주민들의 반발에 부딪혀 갈등을 빚고 있다.

생성형 인공지능(AI) 개발 경쟁이 수자원 등 천연자원 확보 전쟁으로 번지면서 세계 곳곳에서 기후위기 확대에 대한 우려가 커지고 있다.

AI 산업이 급성장하고 있음에도 이를 개발하는 데 전기와 물이 얼마나 쓰이는지 등은 베일에 싸여 있다. 연구자들은 개발업체에 전기와 물 사용량 등을 공개토록 해 AI 모델이 해당 전력 사용과 탄소 배출을 감내할 만큼 가치가 있는지 판단하는 작업이 필요하다고 주장한다.

30일 정보기술(IT) 업계와 외신 등에 따르면 미국 서부 지역과 스페인, 칠레, 우루과이, 아일랜드, 네덜란드 등에서는 데이터센터가 쓰는 물을 놓고 빅테크 기업과 주민 간 갈등이 이어지고 있다. 이 지역들은 빅테크 기업들이 AI 수요가 커질 것을 대비해 인터넷 데이터센터(IDC)를 지으려는 곳이다.

AI는 수천개의 반도체를 가진 서버에 의존하는 데이터센터에서 돌아가는 클라우드 컴퓨터를 기반으로 운영된다. 데이터센터 내 서버는 가동 시 막대한 열을 방출해 24시간 작동하려면 냉각수가 필요하다. 바닷물은 부식·박테리아 증식 가능성 때문에 쓰지 못해 깨끗한 담수를 써야 한다. 생성형 AI의 두뇌인 거대언어모델(LLM)을 작동하기 위해 데이터센터에 들어가는 물의 양에 대해선 정확한 정보가 없다. 일부 대학에서 진행된 개별적인 연구로 추정치만 있을 뿐이다.

AI 산업을 주도하는 오픈AI의 LLM인 챗GPT의 경우 대화를 한 번 나누는 데 물 500㎖가 소요된다는 연구 결과가 나왔다. 질문과 답변을 25~50개 정도 주고받는 수준이다. 미국 콜로라도대와 텍사스대 연구진이 챗GPT 가동 시 발생하는 열을 식히기 위해 데이터센터에서 쓰는 냉각수량을 추정한 결과로, GPT3를 훈련하는 데는 70만ℓ의 물을 쓴 것으로 집계됐다. 이는 BMW 자동차 370대를 생산하는 데 들어가는 물의 양과 같다.

월스트리트저널(WSJ)은 “GPT4는 더 많은 물을 소비할 가능성이 높지만 충분한 데이터가 공개되지 않았다”며 “빅테크 기업들이 내부기밀 노출 우려와 지역 여론 등을 의식해 물 소비량을 공개하지 않고 있어, AI가 이상기후를 더 악화시킬 수 있다”고 지적했다.

막대한 양의 전기도 투입된다. 스탠퍼드대 연구진에 따르면 GPT3가 학습하는 데에는 미국 120가구의 1년 전기 사용량인 1287㎿h가 들어갔다. 하나의 AI 모델을 학습시키기 위해 미국 내 100가구가 1년 동안 쓰는 것보다 더 많은 전기가 쓰인 것이다. 이산화탄소 배출량으로 환산하면 502t이다. 이는 미국 자동차 110대가 1년에 배출하는 양과 맞먹는 규모로, 한국인 1인당 탄소 배출량(11.66t)의 43배를 웃돈다.

현재 속도로 AI가 발전하면 2027년에는 세계 AI 서버의 전력 소비량이 한 국가의 연간 전력 소비량과 비슷해질 것이라는 전망도 나왔다. AI 스타트업 허깅페이스 연구에 따르면 구글은 하루 최대 90억건의 검색을 처리하는데, 모든 검색에 AI를 적용하면 약 29.2TWh가 필요할 것으로 추정됐다. 이는 아일랜드의 연간 전력 소비량에 맞먹는다.

샤샤 루치오니 허깅페이스 연구원은 “AI 모델 규모가 기하급수적으로 커지고 있어 개발사들이 전력 소비량을 투명하게 공개해야 한다”며 “이를 근거로 정부 차원에서 AI 모델이 해당 전력 사용과 탄소 배출을 감내할 만큼 가치가 있는 것인지 판단할 필요가 있다”고 말했다. AI가 물과 전기를 먹는 하마로 불리는 만큼 필요하지도 않은 모든 종류의 작업에 AI를 투입하는 것은 쓸데없는 에너지 낭비가 될 수 있기 때문이다.

추천기사

바로가기 링크 설명

화제의 추천 정보

    오늘의 인기 정보

      추천 이슈

      이 시각 포토 정보

      내 뉴스플리에 저장