일리노이주 AI 책임 제한 법안에 대한 OpenAI의 지지

5 hours ago 2
  • OpenAI가 일리노이주 상원 법안 SB 3444를 지지하며, AI 모델이 대규모 인명 피해나 막대한 재산 피해를 일으킨 경우에도 일정 조건하에 AI 연구소의 법적 책임을 제한하는 내용임
    • 법안은 AI 모델이 100명 이상 사망 또는 중상, 혹은 10억 달러 이상의 재산 피해를 초래한 경우를 ‘중대한 피해(critical harm)’로 정의
    • AI 연구소가 이러한 피해를 의도적 또는 중대한 과실 없이 발생시켰고, 안전·보안·투명성 보고서를 웹사이트에 공개했다면 책임을 면제받을 수 있음
    • 법안은 ‘프런티어 모델(frontier model)’ 을 훈련 비용이 1억 달러 이상인 AI로 정의하며, OpenAI, Google, xAI, Anthropic, Meta 등 대형 AI 연구소가 해당될 가능성 있음
    • 이 정의는 고성능 AI 시스템을 중심으로 한 규제 체계를 마련하려는 시도로 해석됨
  • OpenAI 대변인 Jamie Radice는 이메일 성명에서 “이 접근은 첨단 AI 시스템의 심각한 피해 위험을 줄이면서도 기술이 기업과 개인에게 도달하도록 돕는다”고 밝힘
    • 또한 주별로 상이한 규제 대신 명확하고 일관된 국가 단위의 기준을 마련하는 데 도움이 된다고 언급
    • 법안이 정의하는 ‘중대한 피해’에는 AI가 화학·생물학·방사능·핵무기를 생성하거나, 인간이 저질렀다면 범죄로 간주될 행위를 스스로 수행하는 경우 등이 포함됨
    • 이러한 행위로 대규모 피해가 발생하더라도, AI 연구소가 고의적이지 않고 보고서를 제출했다면 법적 책임을 면제받을 수 있음
  • 연방 규제와 주별 법안의 충돌

    • OpenAI 글로벌 어페어즈 팀의 Caitlin Niedermeyer는 SB 3444 지지 증언에서 연방 차원의 AI 규제 체계 필요성을 강조
      • 주별로 상이한 규제가 비효율적 마찰을 초래할 수 있다며, 연방 시스템과의 조화를 강화해야 한다고 주장
      • 이는 실리콘밸리 전반의 입장과 유사하며, 미국의 AI 경쟁력 유지를 중시하는 논리와 일치
      • Niedermeyer는 “프런티어 모델의 안전한 배포와 미국의 혁신 리더십 유지가 규제의 북극성(North Star)이 되어야 한다”고 발언
  • 법안 통과 가능성과 비판

    • Secure AI Project의 정책 디렉터 Scott Wisor는 일리노이주의 기술 규제 성향을 고려할 때 법안 통과 가능성이 낮다고 평가
      • 일리노이 주민 대상 여론조사에서 90%가 AI 기업의 책임 면제에 반대
      • 주 의원들은 오히려 AI 개발자에 대한 책임 강화 법안을 제출 중임
      • 일리노이주는 이미 정신건강 서비스에서의 AI 사용 제한법을 제정한 첫 주이며, 2008년에는 생체정보보호법(BIPA) 을 통과시킨 전례가 있음
  • AI 피해 책임의 미해결 문제

    • SB 3444가 대규모 피해에 초점을 맞추고 있지만, 개인 단위 피해에 대한 논의도 지속 중
      • 일부 가족은 자녀가 ChatGPT와의 비정상적 상호작용 후 자살했다며 OpenAI를 상대로 소송 제기
    • 연방 차원의 AI 입법은 여전히 의회에서 진전이 없는 상태
      • 트럼프 행정부는 행정명령과 프레임워크를 발표했으나, 실질적 입법 논의는 교착 상태
      • 연방 지침 부재 속에서 캘리포니아·뉴욕 등 주정부가 자체적으로 안전·투명성 보고 의무화 법안을 통과시킴
    • AI 붐이 수년째 이어지는 가운데, AI 모델이 재앙적 사건을 일으킬 경우의 법적 책임은 여전히 미해결 상태로 남아 있음
Read Entire Article