AI가 멋대로 보낸 문자…법적 책임은 어떻게? [강민주의 디지털 법률 Insight]

7 hours ago 3

AI, 민법상 '물건'…사실상 '대리인' 역할
사용자가 부여한 대리권의 범위 쟁점될듯
표현대리 성립하려면 '정당 이유' 있어야
기술 발전에 걸맞은 '책임 지도' 그릴 시점

한경 로앤비즈의 'Law Street' 칼럼은 기업과 개인에게 실용적인 법률 지식을 제공합니다. 전문 변호사들이 조세, 상속, 노동, 공정거래, M&A, 금융 등 다양한 분야의 법률 이슈를 다루며, 주요 판결 분석도 제공합니다.

AI가 멋대로 보낸 문자…법적 책임은 어떻게? [강민주의 디지털 법률 Insight]

인공지능(AI) 기술은 이제 더 이상 단순히 질문에 답하거나 콘텐츠를 생성하는 도구에만 머물지 않는다. 최근에는 일정한 목표를 부여받고, 스스로 판단하고, 외부 시스템과 상호작용하며, 업무 실행까지 수행하는 'AI 에이전트(agent)'가 다양한 산업 분야에 도입되고 있다. 금융 거래를 자동으로 수행하고, 고객 응대를 대신하며, 업무 프로세스까지 자율적으로 조정하는 AI는 업무 효율성과 편의성에 있어 우리 생활에 많은 기여를 하고 있을 뿐 아니라 향후 인류에 점점 더 큰 영향을 미칠 것이다.

AI가 한 실수, 책임은 어떻게 물리나

AI 에이전트가 실제 행위의 주체와 같이 기능하기 시작하면서 그 판단이나 실행이 잘못됐을 때 누구에게 책임을 물어야 하는지에 대한 질문이 점점 더 중요해지고 있다. AI가 사용자의 맥락을 오해해 지인에게 엉뚱한 문자와 메일을 발송한 사례가 크게 이슈가 된 일이 있었고, AI가 안내한 잘못된 환불 규정대로 결제가 진행된 사례를 포함해 다양한 사고가 세계 각국에서 발생하고 있다. AI 에이전트 사용 확산에 따라 이는 단순 해프닝을 넘어 법적으로 유효한 '의사 표시'가 성립하는지, 그 효과를 누구에게 귀속시킬 것인지에 관한 분쟁으로 비화할 가능성이 크다.

우리 민법은 행위의 주체를 자연인과 법인으로 정의하고 있다. 일개 소프트웨어, 즉 물건에 불과한 AI 에이전트가 법률상 행위능력은 없는데도 실제 수행은 하고 있는 현실은 매우 복잡한 문제를 안고 있다. 과거의 AI 에이전트는 이용자가 결정한 의사를 단순히 전달하는 '사자'에 가깝다고 볼 수 있었다. 실시간으로 데이터를 학습해 대안을 선택하고 협상을 진행하는 최근의 AI 에이전트는 일정한 재량을 바탕으로 행동한다는 점에서 자율적 의사 결정권을 가진 '대리인'과 흡사한 역할을 하는 듯하다.

AI가 멋대로 보낸 문자…법적 책임은 어떻게? [강민주의 디지털 법률 Insight]

만약 AI 에이전트를 통해 호텔을 예약했는데, 이용자가 지정한 범위를 뛰어넘는 고액의 호텔을 취소 불가 조건으로 예약했다면 어떻게 될까? 법원은 사자의 권한 초과 행위에 대해 표현대리 법리의 적용 가능성을 열어두고 있긴 하지만, 금융기관 직원의 무단 인출 사안 등에선 대리권의 존재를 엄격히 요구하며 과실상계를 통해 본인의 책임을 제한해 왔다. AI 에이전트 역시 사용자가 부여한 기본 대리권의 범위를 어디까지로 볼 것인지가 향후 있을 분쟁의 핵심 쟁점이 될 것으로 보인다.

민법상 '표현대리' 개념 적용 가능한가

명확한 근거가 있는 건 아니지만, '전자문서 및 전자거래 기본법(전자문서법)'에서 그 실마리를 찾아볼 수 있다. 전자문서법 제7조 제1항 제2호는 자동으로 작동하는 컴퓨터 프로그램에 의해 송신된 의사 표시를 작성자의 것으로 본다. 이는 기술적 편의를 위해 AI의 행위 효과를 사용자에게 귀속시키는 일종의 법적 의제로 볼 수 있을 것이다. 나아가 전자문서법 제7조 제2항 제2호는 수신자가 작성자 또는 그 대리인의 의사에 기한 것이라고 믿을 만한 정당한 이유가 있는 경우 전자 문서에 포함된 의사 표시를 작성자의 것으로 보고 행위할 수 있도록 하고 있어, 민법상 표현대리 법리와 유사한 구조를 가지고 있다.

AI가 멋대로 보낸 문자…법적 책임은 어떻게? [강민주의 디지털 법률 Insight]

AI의 '오작동'은 또 다른 문제가 될 수 있다. 사용자가 "10만 원 내에서 이번 주 저녁 식재료를 사줘"라고 지시했는데, AI가 내부 시스템 오류로 100만 원짜리의, 먹을 수도 없는 사치품을 샀다면 이를 민법 제126조의 '권한을 넘은 표현대리'로 볼 수 있을까.

민법 제126조 대리인이 그 권한외의 법률행위를 한 경우에 제삼자가 그 권한이 있다고 믿을 만한 정당한 이유가 있는 때에는 본인은 그 행위에 대하여 책임이 있다

표현대리가 성립하려면 상대방(판매자)이 AI의 행위를 사용자의 진의라고 믿을 만한 '정당한 이유'가 있어야 한다. 만약 AI가 평소 사용자의 구매 패턴을 완전히 벗어난 의외의 행위를 했음에도 판매자가 확인 없이 결제를 진행했다면, 판매자에게 정당한 이유가 인정되지 않아 표현대리가 성립하지 않거나 과실상계를 통해 본인(이용자)의 책임이 경감될 수 있을 것이다. AI 거래 환경에서 판매자는 이상 거래 탐지 및 본인 확인과 같은 '보안 및 관리 의무'를 부담하며(전자금융거래법 제21조, 전자문서법 제7조 제2항 제2호), 이런 의무를 소홀히 한 경우 판매자의 과실이 인정될 수 있다.

설계 단계에서 '디지털 충실 의무' 부여해야

올해 1월 22일부터 시행된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)' 역시 이런 문제에서의 책임 관계에 중요한 영향을 미칠 것으로 보인다. 위 법은 인간의 생명이나 권리에 중대한 영향을 미치는 AI를 '고영향 인공지능'으로 정의한다. AI 에이전트가 금융 대출 심사나 채용, 의료 진단 등에 활용된다면 이는 명백한 고영향 AI에 해당할 것이다. 이 경우 서비스 제공자는 위험 관리 체계를 구축해야 하며, 무엇보다 인간에 의한 감독이 가능하도록 설계해야 한다. AI가 단독으로 '사고'를 치지 않도록 하는 기술적 안전장치를 법적으로 의무화한 것으로 볼 수 있다. 만약 이런 설계상 결함으로 사고가 발생했다면, 책임은 사용자가 아닌 개발사나 서비스 제공자에게 돌아가게 될 가능성이 크다.

이제 기업들은 단순히 "AI의 결과에 책임지지 않는다"는 면책 조항 뒤에 숨을 수 없다. 앞으로의 법률적 과제는 AI가 이용자의 이익보다 자사의 이익을 우선시하지 않도록 하는 '디지털 충실 의무'를 설계 단계에서부터 부여하도록 하는 것이다. 편리함이 권리 침해로 이어지지 않도록, 알고리즘의 오작동이 누군가의 일상을 파괴하지 않도록 하는 법적 가이드라인도 필요하다. 기술의 발전 속도에 발맞춰 그에 맞는 '책임의 지도'를 다시 그려야 할 것이다.

Read Entire Article