![[사진=카카오] ](http://www.the-tech.co.kr/data/photos/20250937/art_17573781614993_fa3289.png?iqs=0.9005825675253758)
[더테크 이지영 기자] 카카오는 8일 국가인권위원회와 법무부가 공동 주최한 ‘기업과 인권 국제포럼’에 참여해 책임 있는 AI 개발과 운영을 위한 자사의 활동을 공유했다고 밝혔다고 9일 밝혔다.
이번 포럼은 글로벌 규제 동향과 기업의 실제 사례를 통해 국가·기업·시민사회가 함께 인권경영 전략을 모색하기 위해 마련됐다. 행사에는 유엔개발계획(UNDP), 유럽연합(EU), 세계노동기구(ILO), 경제협력개발기구(OECD) 등 국제기구와 시민사회단체, 학계, 인권 전문가 등이 참석했다.
카카오는 ‘규제와 자발적 조치를 활용한 스마트믹스 모범 사례’ 세션에서 발표를 맡았다. 하진화 카카오 AI Safety 시니어 매니저는 ‘AI 기술과 인권 존중’을 주제로 AI 윤리 원칙, 리스크 관리 체계 수립 등 구체적인 사례를 소개했다.
카카오는 국내 기업 최초로 지난 2022년 ‘그룹 기술 윤리 위원회’를 출범해 계열사와 함께 ▲AI 윤리 규정 준수 여부 점검 ▲위험성 검토 ▲알고리즘 투명성 강화 등을 체계적으로 진행해왔다. 위원회 활동은 매년 ‘그룹 기술 윤리 보고서’를 통해 공개되고 있다.
또한 카카오는 ▲책임 있는 AI 가이드라인 제정 ▲AI 생애주기별 자가점검 도구 개발 ▲AI 리스크 관리 체계 ‘카카오 AI Safety Initiative(Kakao ASI)’ 구축 ▲국내 최초 ‘AI 얼라이언스(AI Alliance)’ 가입 ▲기술 윤리 사례 공유 매거진 ‘테크에틱스(Tech Ethics)’ 발간 등 다양한 활동을 이어오고 있다. 최근에는 AI 서비스 안전성을 검증하는 ‘카나나 세이프가드(Kanana Safeguard)’ 모델을 개발해 국내 기업 최초로 오픈소스로 공개했다.
카카오는 이외에도 유엔 인권최고대표사무소(OHCHR), 유니세프(UNICEF) 등 국제기구와 협력하며 글로벌 연대에도 힘쓰고 있다. 특히 올해는 디지털 아동·청소년 보호 체크리스트를 도입해 주목을 받았다. 이 체크리스트는 유엔아동권리협약(UNCRC)과 UNICEF의 ‘디지털아동영향평가도구(UNICEF D-CRIA)’를 기반으로 제작됐으며, AI 서비스 출시 전 리스크 점검과 아동·청소년 보호 책임자의 대응을 평가하는 항목으로 구성돼 있다.
카카오 이상호 그룹 기술윤리 소위원장은 “카카오는 2018년 국내 기업 최초로 ‘알고리즘 윤리헌장’을 발표한 이후, 아동·청소년을 포함한 다양한 이용자 보호를 위해 노력해왔다”며 “AI 서비스의 혁신은 인권과 프라이버시와 밀접하게 연결돼 있는 만큼, 기업 차원의 책임 의식 확산과 내재화를 위해 최선을 다할 것”이라고 말했다.