[기사] 대화 한 번에 ‘생수 한 병씩’…챗GPT의 불편한 진실 <한겨레 곽노필 기자>

1688구매대행

https://www.hani.co.kr/arti/science/technology/1090180.html?_fr=mt0 대화 한 번에 ‘생수 한 병씩’…챗GPT의 불편한 진실 데이터센터 열 식히는 냉각수 계산 결과기기 부식 등 막으려면 깨끗한 물 써야 www.hani.co.kr * 인공지능 알고리즘 훈련에 소모되는 전기에 따른 온실가스 배출- 인공지능 모델의 크기가 클수록 소비되는 에너지도 커짐, 에너지 소비=온실가스(탄소) 배출- 챗지피티(ChatGPT)의 기반인 거대언어모델(LLM) ‘지피티3’ 는 훈련과정에서 1287MWH 전기 소비 이로 인한 탄소 배출량 추정치는 502톤, 세계인이 100년간 배출하는 양 (2020년 기준 한국인 1인간 탄소 배출량인 11.6톤의 43배)​* 인공지능 알고리즘 훈련에 소모되는 물?- 컴퓨터 가동시 발생하는 열을 식히는 데 다량의 물이 필요한 탓- 챗지피티와 한 번 대화(질의응답 25~50개 주고받는 기준)시 물 500ml 소비 (미국 리버사이드 콜로라도대&앨링턴 텍사스대 연구)- 마이크로소프트가 오픈에이아이의 거대언어모델 ‘지피티3’를 훈련시키는 데만 70만ml 물 사용으로 추정 이는 베엠베(BMW) 자동차 370대 또는 테슬라 전기차 320대를 생산하는 데 사용되는 물과 같음 이 수치는 미국 기반 데이터 센터 기준, 아시아 센터(에너지 효율이 낮음) 기준이면 물이 3배는 더 필요했을 것- 데이터 센터는 기기 오작동 방지를 위해 섭씨 10~25도의 온도 유지 필요(Kwh당 3.8L 물 소비 추정)​* 각 사&데이터 센터의 물 소비량- 구글(오픈에이아이에 맞서 거대언어모델 람다 LaMDa와 이에 기반한 챗본 바드를 개발)의 물 소비량 2019년 한 해에만 미국내 3개주의 데이터 센터를 유지하는 데 23억갤런(1갤런당 3.8L)이상 소비- 훈련 시 필요한 물 소비량: 구글의 람다>지피티3(훨씬 더 많은 수백만L에 이를 수 있을 것으로 추정)​담수 부족은 전 세계가 공유하는 가장 시급한 문제 중 하나로 매우 우려스러운 일인공지능 기업들은 세계 물 문제에 대응하는 데 사회적 책임을 다해야 함​- 물 소비량이 많다=에너지를 많이 쓴다- 구글 딥마인드의 고퍼(Gopher), 빅사이언스 이니셔티브의 블룸(BLOOM), 메타의 오피티(OPT), 오픈에이아이의 지피티3 비교 결과 지피티3의 에너지 소비량이 가장 많음(고퍼의 1.4배, 블룸의 20.1배로 추정)