2025.12.26 (금)
T 뉴스
멀티미디어
독자 · 소통
[더테크 이지영 기자] 구글 Gemini를 비롯한 다수의 상용 거대언어모델은 효율성과 성능을 높이기 위해 여러 개의 소형 AI 모델을 상황에 따라 선택적으로 활용하는 전문가 혼합(Mixture-of-Experts, MoE) 구조를 사용하고 있다. 하지만 이 구조가 새로운 형태의 보안 취약점으로 작용할 수 있다는 연구 결과가 나왔다. KAIST는 전기및전자공학부 신승원 교수와 전산학부 손수엘 교수 공동연구팀이 전문가 혼합 구조를 악용해 거대언어모델의 안전성을 심각하게 훼손할 수 있는 공격 기법을 세계 최초로 규명했다고 26일 밝혔다. 해당 연구는 정보보안 분야 최고 권위 국제 학회인 ACSAC 2025에서 최우수논문상(Distinguished Paper Award)을 수상했다. ACSAC는 매년 전 세계 보안 연구자들이 참여하는 대표적인 국제 학술대회로, 올해 전체 논문 중 단 2편만이 최우수논문으로 선정됐다. 국내 연구진이 인공지능 보안 분야에서 이 같은 성과를 거둔 것은 매우 이례적인 사례로 평가된다. 연구팀은 MoE 구조의 근본적인 보안 취약성을 체계적으로 분석했다. 특히 공격자가 상용 거대언어모델의 내부 구조를 직접 제어하지 않더라도, 악의적으로 조작된
더테크는 ‘스마트 테크 전문‘ 미디어입니다. AI, 사물인터넷, 미래모빌리티 등 인더스트리 4.0 시대를 이끌어갈 딥테크 분야를 중심으로 다양한 ICT 산업컨텐츠를 제공하고 있습니다. 뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 있습니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며 서비스 종료가 되거나 구독을 해지할 경우 즉시 파기됩니다.