주요내용
브라우저 보안정책에 따라 이미지가 보이지 않을 수 있습니다 (Mixed Content)
저작권 동향
2025년 제12호
미국
미국 상원, AI 학습에 저작권자의 사전 동의를 규정한 「AI 책임법안」 발의
1. 개요
2025년 7월 21일, 미국 상원의원 조시 호울리(Josh Hawley, 공화당·미주리주)와 리처드 블루멘탈(Richard Blumenthal, 민주당·코네티컷주)이 공동으로 「AI 책임 및 개인데이터 보호법안(AI Accountability and Personal Data Protection Act, S.2367, 이하 ‘AI 책임법안’)」을 발의하였다. 이 법안은 개인의 명시적·사전 동의 없이 그 개인정보나 창작물을 AI 학습 데이터로 활용하는 행위를 금지하며, 학습 자체를 ‘데이터 착취’로 규정하고 개인 저작물까지 ‘보호대상 데이터’에 포함한다. 또한 데이터를 제3자에게 제공하는 경우 이를 사전에 명확히 공개하도록 요구한다. 이는 저작권자에게 데이터 흐름에 대한 실질적 통제권을 부여하기 위한 조치라고 할 수 있다. 위반 시에는 연방법상 불법행위(tort) 책임에 따라, 피해자가 직접 손해배상 청구를 할 수 있도록 한다. 업계에서는 이 법안에 대해 저작물 무단 학습에 대한 제재를 대폭 강화하는 것으로, 기존 공정이용(fair use)에 중대한 영향을 미칠 수 있다고 평가하였다.
2. 주요내용
1) 법안 내용
(1) 보호대상 데이터(Covered Data)
이 법안은 개인을 식별하거나 합리적으로 연결될 수 있는 모든 정보를 포괄적으로 ‘보호대상 데이터(covered)’로 정의하고, AI 기업이 저작물을 허가 없이 AI 학습이나 콘텐츠 생성에 활용하는 것을 금지한다. 또한, AI 시스템이 권리자 개인의 데이터를 학습에 활용하려면 명시적이며 충분한 사전 동의가 필요하도록 규정하였다. “개인이 생성하고 저작권법의 보호를 받는 콘텐츠”라면 등록 여부와 관계없이 보호대상 데이터로 간주된다. 즉, 작가의 미출간 원고나 사진작가의 이미지가 AI 훈련에 사용된다면 이 법에 따른 보호 대상이 된다. 특히, 이 법안은 생성형 AI의 학습(training) 및 그 결과물로 파생 콘텐츠를 생성하는 행위도 이용 행위로 간주하여 책임을 물을 수 있다.
(2) 동의 요건
AI 시스템이 보호대상 데이터를 이용하려면 명시적인 사전 동의를 받아야 한다. “명시적인 사전 동의”란, 당사자가 자신의 데이터가 어떤 용도로, 누구에 의해 이용되는지를 사전에 구체적으로 알고 동의하는 것을 의미한다. 이는 포괄적인 약관 링크나 프라이버시 정책에 의존해서는 안 되며, 제3자가 데이터에 접근할 경우 해당 제3자도 별도로 명시되어야 한다. 또한, 강요된 동의나 비합리적인 조건으로 강제된 동의는 무효이다. 이는 허락없는 이용을 기본으로 하되, 권리자가 “거절”을 표시하면 제외하는 디지털단일시장 지침(DSM Directive) 제4조의 권리유보의 TDM 면책규정인 ‘옵트아웃(opt-out)’ 방식과 달리, 이용 금지가 기본이고 명시적인 사전 동의가 있어야 이용 가능한 ‘옵트인(opt-in)’ 방식이다.
(3) 연방 불법행위(Federal Tort) 책임
법안은 연방 차원에서 데이터 오용에 대한 불법행위 소송 경로를 마련함으로써, 개인은 자신의 동의 없이 데이터를 이용한 자(또는 기업)에 대해 연방 또는 주 법원에 직접 소송을 제기할 수 있다. 제3자가 동의 없이 저작물이나 개인정보를 무단으로 이용 혹은 유통할 경우, 저작권자 등은 법적으로 손해배상 청구가 가능해진다. 이에는 집단소송(class action) 참여도 포함된다. 또한 직접 이용한 자뿐만 아니라 ‘돕거나 교사한 자’까지 포함된다. 나아가, 강요에 의한 동의, 사전 중재조항(arbitration clause)이나 집단소송 포기 조항은 무효이며, 이 법에 따른 권리를 포기하는 계약은 무효로 간주된다.
(4) 구제 수단
법안은 불법 이용에 대해 금전적 손해배상, 금지명령 등의 구제수단을 보장하며, 과도한 이윤을 환수하거나 강화된 제재를 규정한다. 피해자는 실제 손해 또는 무단 이용으로 인해 얻은 이익의 3배 중 더 큰 금액을 청구할 수 있다. 법정 최소 배상금은 $1,000이며, 이외에도 징벌적 손해배상, 소송 비용 청구 등이 가능하다. 본 법은 주(state) 법률을 대체하지 않으며, 오히려 보다 강력한 주법의 제정을 허용한다.
2) 이해관계자들에의 영향
(1) AI 기업 및 개발자
이 법안이 통과될 경우, AI 학습 관행 전반에 중대한 변화가 예상된다. 현재 OpenAI, Google, Meta와 같은 기업들은 웹 전반이나 도서관 자료 등에서 수집한 대규모 공개 데이터셋을 바탕으로 AI 모델을 학습시키고 있는데, 모든 개인의 명시적 동의가 없는 한 해당 데이터의 이용이 불가능해질 수 있다.
이는 사실상 AI 업계가 주로 의존해 온 공정이용(fair use)원칙을 무력화시킬 수 있는 법안이라는 지적도 나온다. 이 법안이 통과된다면 기업들은 동의 없는 콘텐츠가 포함된 학습 데이터를 전수 감사 또는 삭제, 콘텐츠 제공자로부터의 명시적 동의(opt-in)의 수취 또는 라이선스 계약 체결, 권리자 사전 동의를 구체적으로 받도록 하는 이용약관의 개편과 같은 조치를 강요받게 될 것으로 전망된다. 또한 사전 중재조항의 금지로 인해, 만약 위법행위가 발생하면 집단소송으로 이어질 가능성이 크고, 손해배상액은 최대 3배(treble damages)까지 부과될 수 있어 소송 리스크가 대폭 상승함으로써, 무단 저작물 이용을 위한 허들이 대폭 높아질 것으로 예상된다.
(2) 창작자 및 저작권자
AI 기업이 사전 동의 없이 자신의 저작물을 이용한 경우, 창작자들에게 직접 손해배상을 청구할 수 있는 강력한 법적 권리가 부여됨으로써 창작자와 AI 기업 간의 라이선스 계약 또는 보상체계 마련이 촉진될 수 있으며, 이북(e-book), 음악, 이미지 등 콘텐츠의 무단 수집 및 학습을 억제하는 효과가 기대된다. 특히 주목할 점은, 저작권 등록 여부와 상관없이 보호를 받을 수 있다는 점이다. 즉, 등록되지 않은 개인의 창작 표현물도 이 법안에서는 ‘보호대상 데이터(covered data)’로 간주되어 보호 대상에 포함된다.
3. 결론 및 시사점
AI 책임법(AI Accountability Act)안은 미국식의 새로운 접근 방식을 보여준다. EU처럼 AI 기술 전반을 ‘위험 기반’으로 규제하는 것이 아니라, 기존 법리(불법행위와 IP 보호)를 활용하여 개인정보 및 창작물 보호를 강화하는 것이다. 이 법은 AI의 투명성과 데이터 이용 동의(consent)를 요구하는 세계적 흐름과 일치하면서도, 개인에게 강력한 민사권리를 부여한다는 점에서 훨씬 더 공격적인 접근이라 평가된다. 만약 이 법안이 통과된다면, 미국의 AI 거버넌스는 개인 권리 중심의 모델로 전환될 것이며, EU의 위험 기반 규제(risk-based regulation), 캘리포니아의 투명성 중심 접근과 어떤 방식으로 조화를 이룰 수 있을지 주목된다. 본 법안이 법률로 제정되면, AI 산업은 권리자 동의 기반 모델, 데이터 출처 투명성 확보, 법적 책임 구조를 중심으로 재편될 가능성이 크다. 이는 AI 기술의 신뢰성과 투명성을 제고할 수 있는 전환점이 될 수 있다.