안전한 AI 시스템 구축 지원
SK쉴더스는 인공지능(AI) 보안 위협에 선제적으로 대응하기 위해 ‘LLM(거대언어모델) 애플리케이션 취약점 진단 가이드’를 발간했다고 8일 밝혔다.
LLM 기반 애플리케이션은 자연어 처리와 생성에 특화된 대규모 언어 모델을 활용하며 금융, 제조, 헬스케어 등 다양한 산업에서 사용되고 있다. 하지만 이 애플리케이션들은 데이터 및 사용자 입력 처리 방식의 독특한 특성으로 인해 기존 IT시스템과 다른 보안 위협에 취약해 철저한 대비가 필요하다.
SK쉴더스는 2025년 주요 보안 위협 중 하나로 AI 기반의 해킹 증가를 꼽으며, 특히 소규모 언어 모델(sLLM)을 겨냥한 해킹과 LLM의 구조적 취약점을 악용한 데이터 조작 및 유출 공격이 심화될 것으로 내다봤다. 보고서에 따르면, 대표적인 보안 위협으로는 ‘프롬프트 인젝션’과 ‘API 매개 변수 변조’, ‘RAG(검색증강생성) 데이터 오염’ 등이 있다.
이번 가이드에서는 이러한 보안 위협을 예방하기 위해 사용자와 시스템 명령어(프롬프트)를 분리하고, 데이터 검증 절차를 강화해야 한다고 강조했다. 또한, LLM의 코드 실행 유무에 따라 샌드박스를 활용해 악성코드 실행을 방지하고, 권한 없는 데이터 접근을 차단하기 위해 그룹별 권한 관리 체계를 구축할 것을 권고했다. 특히 다층 보안 체계를 도입해 데이터 오염 및 권한 상승 공격을 방지해야 한다고 덧붙였다.
김병무 SK쉴더스 사이버보안부문장(부사장)은 “AI 기술은 편리함을 제공하지만 기술적 불안정으로 인해 보안 취약점이 악용될 경우 심각한 해킹 사고가 발생할 수 있다”며, “이번 가이드는 기업과 기관이 직면할 수 있는 AI 보안 문제를 사전에 예방함과 동시에, 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적 도움을 줄 것”이라고 말했다.
김철현 기자 kch@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>