'에이닷엑스 K1' 기술보고서 공개
수학·코딩 등 능력서 딥시크 앞서
파라미터 선택 활성화로 효율성 ↑
SK텔레콤 정예팀은 519B 파라미터(매개변수 5190억개) 규모의 초거대 인공지능(AI) 모델 'A.X K1(에이닷엑스 K1)'의 기술 보고서를 오픈소스 AI 모델 플랫폼 '허깅페이스'에 공개했다고 7일 밝혔다.
SK텔레콤 정예팀은 국내 처음으로 500B 이상의 매개변수를 가진 에이닷엑스 K1을 개발했다. 개발에 활용된 그래픽처리장치(GPU)는 1000개 규모인데, 학습 기간과 GPU 규모를 바탕으로 총 학습량을 추산했다.
이후 이를 바탕으로 최대 모델 크기를 스케일링 이론(모델 성능은 투입 자원에 비례한다는 이론)에 근거해 설계했다. 모델 학습에 투입된 데이터는 약 10조(10T)개에 달한다. 이 과정에서 정부 지원을 받지 않고 자체 GPU 조달만으로 모델을 개발했다.
정예팀에 따르면 에이닷엑스 K1은 주요 벤치마크에서 중국 딥시크의 '딥시크-V3.1' 등 글로벌 모델과 유사하거나 더 높은 성능을 달성했다. 특히 수학과 코딩 등 복잡한 연산과 추론을 해야 하는 분야에서 성능을 입증했다.
에이닷엑스 K1은 AI의 수학 문제 해결능력을 측정하는 'AIME25' 벤치마크에서 89.8점을 받아 딥시크-V3.1 모델(88.4점) 대비 102% 수준으로 앞섰다. AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의 수학 실력을 측정한다.
코딩 활용 벤치마크인 '라이브코드벤치'(LiveCodeBench)에서도 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간 코딩 문제 해결 능력을 입증했다. 이는 영어 기반 69.5점, 한국어 기반 66.2점을 받은 딥시크-V3.1 대비 각각 109%, 110% 수준이다.
작동 효율성도 높였다. 에이닷엑스 K1은 519B 규모의 파라미터 중 33B만 선택적으로 활성화하는 방식이다. 여기에 전문가 혼합(MoE) 구조를 채택해 AI 훈련 과정의 안정성과 효율을 동시에 확보했다. MoE는 여러 개의 작은 전문가 모델들이 모여서 하나의 큰 문제를 해결하는 방식이다.
지금 뜨는 뉴스
SKT는 올해 중 에이닷엑스 K1에 멀티모달 기능을 추가하고 조 단위 파라미터로 확대할 계획이다.
이명환 기자 lifehwan@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>


