정부, AI 생성 결과물에 ‘워터마크 도입’ 제도화 검토

제4차 인공지능 최고위 전략대화 개최
인공지능 윤리‧신뢰성 확보 추진계획 발표

 

[더테크=문용필 기자] 정부가 인공지능(AI) 생성 결과물에 대한 ‘워터마크 도입’ 제도화를 검토한다.

 

과학기술정보통신부(이하 과기정통부)는 AI 위험성 우려에 대응해 안전한 AI확산 방안을 논의하기 위해 제4차 인공지능 최고위 전략대화를 25일 개최했다. 지난달 열린 ‘대한민국 초거대 인공지능 도약’ 행사에서 기업들이 AI신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련된 자리다.

 

과기정통부는 그간 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로 ‘인공지능 윤리‧신뢰성 확보 추진계획을 발표했다.

 

세부추진 과제를 보면 우선 생성형 AI 기반 서비스 등 분야별 가이드라인을 마련, 확대하고 민간 자율 신뢰성 검‧인증을 다음달부터 추진할 계획이다. 특히 고위험 영역 AI 개발‧실증 사업을 수행하는 기업을 일부 선정해 금년 12월 시범 인증을 추진할 예정이다.

 

아울러 AI의 잠재 위험요인에 대응하기 위해 기존 AI의 한계를 극복하고 초거대 AI의 신뢰성 확보를 위한 기술개발을 내년부터 신규 추진한다. 이와 함께 AI가 생성한 결과물에 대한 워터마크 도입 제도화를 검토하고 고위험 AI에 대한 해설서를 마련하는 등 신뢰성 확보를 위한 제도 정립 과제를 추진할 방침이다.

 

특히, 이날 참석한 초거대 AI기업들은 AI생성 결과물에 대한 ’가시적 워터마크‘ 도입이 필요하다는 점에 공감했고 기술적 완성도를 고려해 자사 서비스에 단계적으로 적용하는 것에 동의했다고 과기정통부 측은 전했다.

 

이번 행사에는 이종호 과기정통부 장관과 고학수 개인정보위원장, 그리고 AI분야 민간 최고위 관계자들이 참석했으며 ’AI 산업발전과 신뢰성 확보의 균형을 위한 민간자율 검‧인증 추진방향‘과 ’초거대‧생성형 AI의 신뢰성 향상을 위한 자발적 노력‘ ’AI 윤리의식 확산 및 글로벌 규범 선도를 위한 제언‘을 주제로 토론이 진행됐다.

 

이종호 장관은 “인공지능은 디지털 심화 시대의 핵심기술로서 인공지능의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”며 “민간 자율 인공지능 신뢰성 검·인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과 적합한 규제 체계를 정립해가는 데 힘쓰고, 관계부처와 함께 인공지능 윤리·신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위하여 최선을 다하겠다”고 밝혔다.



배너

배너