![[챗GPT 3년]<4>AI 신뢰성·안전성은 남은 과제](https://img.etnews.com/news/article/2025/11/24/news-p.v1.20251124.84d09b2e63dd4fc49fd0e0fe36ad4579_P1.jpg)
텍스트만 입력해도 누구나 인공지능(AI) 이미지와 영상을 만들어낼 수 있는 환경이 되면서 AI 오용과 악용에 대한 경고가 커지고 있다. AI 기술과 서비스 발전 속도만큼 '안전한 AI 활용'이 미래의 핵심 화두가 될 전망이다.
25일 업계에 따르면, 팝스타 테일러 스위프트, 배우 스칼릿 조핸슨 등 세계적 스타들이 딥페이크 피해가 가장 많은 사례로 지목될 정도로, 생성형 AI의 발달로 인한 무단 합성 이미지·영상이 본인의 의사와 무관하게 유포되는 일이 급증하고 있다.
피해 유형도 단순 사칭을 넘어 성적 이미지 합성, 허위 발언 영상 생성 등으로 확장되고 여론 왜곡, 지식재산권(IP) 침해 등 다양한 피해를 초래하면서 사회적 우려가 커지고 있다.
미국 비영리단체 퍼블릭시티즌(Public Citizen)은 이달 초 챗GPT 개발사 오픈AI에 영상 생성 모델 '소라2(Sora 2)' 서비스 중단을 요구하며, 경쟁사보다 출시를 서두르기 위해 충분한 안전장치 없이 시장에 모델을 내놓고 있다고 비판했다.
해외에서는 딥페이크·가짜뉴스 수준을 넘어 AI 안보 논의가 본격화되고 있다. 고도화된 AI가 특정 분야의 전문 지식과 결합될 경우, 물리적 위해 유발이나 사회 기반시설 마비 등 상상할 수 없었던 위험도 발생할 수 있다는 우려가 제기되고 있다는 것이다.
김명주 AI안전연구소장은 “일부 국가에서는 실제로 AI 모델이 'CBRN(화학·생물·방사능·핵)'과 관련된 민감 정보를 우회적으로 학습하거나, 이를 바탕으로 위험도를 높이는 방식이 가능한지를 테스트하는 연구가 진행되고 있다”고 전했다.
단순한 기술 오용을 넘어 국가 안보·사회 안전 영역까지 AI 범위가 확장되는 만큼, AI 안전 논의가 규제차원에 머무르지 않고 국가 단위 대응 구조로 진화하고 있다는 설명이다.
전문가들은 신뢰할 수 있고 안전하게 AI를 사용할 수 있는 환경을 구축해야 한다는 데 의견을 모은다. 기업과 일반 국민이 안심하고 AI를 활용해야만 AI 생태계가 지속 확장될 수 있다는 지적이다.
이에 정부는 내년 1월 22일부터 시행되는 AI기본법 시행령에 따라 고영향·생성형 AI 기업은 개발부터 위험을 식별·평가·완화하는 체계를 갖추고, 안전사고 모니터링과 대응 계획을 마련하도록 했다. 또 AI 기반 서비스는 사용자에게 사전 고지해야 하며, 딥페이크 등 결과물은 실제와 구분하도록 'AI 생성물' 표시를 의무화할 예정이다.
이와 함께 △AI 윤리 영향 평가 체계 강화 △기업의 자율 점검 및 투자 확대 △AI 신뢰성·안전성 전문 인력 양성도 주요 과제로 꼽힌다. 기술·제도·인력의 생태계가 제대로 갖춰져야 비로소 AI 기술 도입이 산업 성장과 시장 경쟁력으로 이어진다는 분석이다.
AI신뢰성 전문기업 씽크포비엘 박지환 대표는 “AI는 다양한 산업은 물론 일상생활에까지 적용되는 기술인 만큼 AI 신뢰성 기술 역시 융복합 지식을 요구하는 분야”라며 “인력 양성·기술 축적·생태계 구축과 같은 장기적 경쟁력 확보를 위한 실질적이고 구체적인 지원이 필요하다”고 강조했다.
김명희 기자 noprint@etnews.com

2 weeks ago
2


![별빛이 흐른다…쌍둥이자리 별똥별 떨어져 [지금은 우주]](https://image.inews24.com/v1/e2acb8b760d5a2.jpg)
!["아이폰 왜 이리 많아요" 이재용 농담 통했나…20대 '반전 결과' [20대 환승 폰심①]](https://img.hankyung.com/photo/202512/ZA.42227019.1.jpg)










English (US) ·