김보경기자
생성형 AI는 우리 경제와 사회에 변혁을 일으킬 만한 놀라운 능력을 갖고 있다. 하지만 세상에 공짜는 없다. AI 시스템을 개발하려면 엄청난 에너지와 비용이 들고, 인프라를 유지하는 데에도 대량의 전력이 필요하다. 이런 과정에서 온실가스가 배출되며 대량의 물이 사용된다. 지난달 하버드 비즈니스 리뷰는 '생성형 AI를 환경친화적으로 만드는 방법'이라는 글을 통해 환경을 덜 파괴하면서 생성형 AI를 구축하는 방법을 소개했다.
AI의 원재료는 데이터다. 수많은 데이터를 수집하고 가공해서 이용자에게 가치를 주는 '정보'를 만든다. 데이터 센터 산업은 이를 위해 각종 정보통신기술(ICT) 시스템을 저장하고 관리하는 시설인데, 글로벌 온실가스 배출량의 2~3%를 차지한다. 데이터의 양은 2년마다 두배로 늘어나고 있어 온실가스 배출은 계속 늘어날 수밖에 없다.
데이터 센터 서버는 컴퓨터 서버, 장비·냉각 시스템을 작동시키기 위해 물과 전기가 필요한데, 이러한 시스템을 가동하는데 드는 전력량이 덴마크의 경우 전체 전력 소비량의 7%, 미국은 2.8%를 차지한다. 특히 생성형 AI를 돌릴 때 쓰는 그래픽 처리 장치(GPU) 칩은 전통적인 CPU 전력 소비량의 10~15배를 먹어 치운다.
일례로 AI 개발에 열을 쏟고 있는 네이버의 경우 강원도 춘천에 있는 데이터센터의 상수도 사용량은 2020년 9만㎥에서 2021년 9만8000㎥, 지난해에는 12만7000㎥로 늘었다. 물 사용량이 2년 만에 40% 이상 늘어난 것이다.
데이터 센터뿐만 아니라 AI 모델을 훈련시키는 과정에서 에너지가 대량으로 쓰이고 탄소가 배출된다. 오픈AI의 GPT4나 구글의 팜(PaLM) 같은 대규모 언어 모델(LLM)을 훈련하는데 300t의 이산화탄소를 내뿜는다는 연구도 있다. 또 다른 연구에서는 생성형 AI 모델을 훈련시키는데 드는 전기·에너지 소비로 62만6000t의 탄소를 배출한다는 분석도 있다. 연구에 따라 편차가 크지만 분명한 건 생성형 AI 제작과 활용 때문에 심각한 환경 오염이 일어나고 있다는 것이다.
그렇다면 AI를 환경친화적으로 개발하는 방법은 무엇일까. 보고서에서는 기존의 AI 모델을 활용하라고 조언했다. 시중에는 이미 수많은 언어·이미지 제공 업체들이 있다. AI 모델을 생성하고 훈련하는 건 엄청난 양의 에너지가 필요하기 때문이다. 국내에도 자체적으로 생성형 AI를 개발하려는 시도가 있는데, 이미 대기업·빅테크들이 만들어놓은 모델을 활용하는 것도 생각해봐야 한다는 것이다.
새로운 AI 모델을 처음부터 훈련시키기 보다는 기존에 보유한 모델을 조정하는 편이 낫다는 조언도 했다. 특정 콘텐츠에 맞는 세밀한 조정과 프롬프트(명령어) 엔지니어링이 새로운 대형 모델을 처음부터 훈련시키는 것보다 훨씬 적은 에너지를 소비하기 때문이다. AI로 중요한 가치를 창출하는지 따져보는 자세도 필요하다. 모델 정확도를 1~3% 높이기 위해 3배 더 많은 전력을 필요로 하는 시스템을 사용하는 게 과연 현명하냐는 얘기다.
또한 생성형 AI를 쓰나미, 지진과 같은 자연재해나 의료·건강 관련 문제에 쓰는 게 나을지, 아니면 단순한 블로그 글 생성이나 재미있는 이야기를 만들어내는 데 쓰는 게 이로울지 지구적 관점에서 생각해봐야 할 일이다. 기술과 자원의 재사용, 지속적인 탄소 배출 모니터링 등도 AI 개발이 환경에 미치는 악영향을 줄일 수 있다.