몰트북·오픈클로가 촉발한 AI 위험성…전문가들 “대비 기회로 삼아야”

2 hours ago 2
몰트북·오픈클로가 촉발한 AI 위험성…전문가들 “대비 기회로 삼아야”

인간 개입 없는 인공지능(AI) 전용 커뮤니티 '몰트북'을 통해 인간을 피해 숨으려는 AI 에이전트 행태가 발견되며 AI 위험성에 대한 우려가 커지고 있다.

자연어 명령 하나에 키보드·마우스 조작을 대신하며 예약까지 해주는 AI 오픈소스 비서 '오픈클로'의 보안 취약성 거론에 따른 불안감도 증폭된다.

9일 전자신문 취재를 종합하면 AI업계·학계 전문가들은 몰트북과 오픈클로를 우려의 대상이 아닌 AI 관련 가드레일(안전장치)과 투명성·안전성 등 제도 정비를 위한 아이디어를 얻는 창구로 보고 있다.

전문가들은 몰트북 등 AI 전용 커뮤니티에서 확인되는 오픈클로와 AI 에이전트의 상호 교류를 통한 학습 정도와 수준, 대화 형태, 보안 취약성 등이 'AI 에이전트 시대'를 대비하는 기회가 될 것이라고 입을 모았다.

김경훈 카카오 AI 세이프티 리더는 “몰트북은 AI 에이전트 간 어떻게 대화하고 소통할지 보기 위해 사람이 만든 커뮤니티”라며 “다양한 AI 에이전트들이 사람이 짜놓은 규칙과 틀 안에서 상호 교류하는 상황을 고려하면 위기의식을 가질 단계는 아니다”라고 진단했다.

이종영 셀렉트스타 플랫폼사업본부장은 “다중 AI 에이전트가 상호 작용하도록 기술이 발전하는 현실을 고려해야 한다”며 “AI 에이전트 간 규범을 어떻게 형성하고 성능을 강화하는지 등을 모니터링하고 위험 수준에 도달할 때 이를 어떻게 해소하고 차단할지 연구를 시작해야 할 때”라고 말했다.

신뢰성이 담보된 AI 에이전트라도 상호 교류할 때 발생하는 변수를 확인하고 문제 소지가 없도록 관리 차원에서 접근할 필요가 있다는 의미다. AI에 따른 사건·사고가 일어나기 전에 발생 가능한 문제를 미리 확인, 정책·기술·제도적 대응책을 마련할 수 있는 기회라는 점에서도 긍정적으로 평가됐다.

다만 몰트북과 오픈클로를 지나치게 우려할 필요는 없지만 의사결정을 지원하고 행동할 수 있는 'AI 에이전트 시대'로 전환은 대비해야 한다는 게 중론이다. '챗GPT'로 대표되는 단순 질의응답 중심 생성형 AI와 달리 능력치가 배가됨을 고려, 적정 수준 권한을 부여하는 등 통제가 필요하다는 것이다.

이원태 국가AI전략위원회 보안TF 리더(국민대 특임교수)는 “AI 에이전트 도입 성패는 기술 속도가 아닌 통제 설계에 달려 있다”며 “AI 에이전트가 강력한 도구가 될 수 있는 만큼 권한을 나누고 행동을 기록하며 언제든 멈출 수 있는 통제장치와 책임 구조가 필요하다”고 조언했다.

주요 기업에서는 이미 외부 AI 접근에 제약을 두며 내부 보안을 강화하고 있다. 네이버와 카카오는 사내 오픈클로 활용을 금지했고 삼성그룹은 업무에 활용 가능한 AI 솔루션을 제한하고 있다. SK텔레콤과 SK AX는 외부 AI 서비스를 활용하는 환경은 내부 업무망과 분리해 업무 안전성과 효율성을 담보했다.

김명신 LG AI연구원 정책수석은 “AI가 발전할수록 제대로 활용하는 게 중요하다”며 “AI 에이전트 파급력을 고려하면 기술이나 규제로 해결할 수 없는 문제가 있을 텐데 이는 교육으로 해결할 수밖에 없다”고 강조했다. 이어 “모두가 성숙한 AI 사용자가 될 수 있게 리터러시 교육이 필요하다”고 덧붙였다.

박종진 기자 truth@etnews.com

Read Entire Article