주요내용
브라우저 보안정책에 따라 이미지가 보이지 않을 수 있습니다 (Mixed Content)
저작권 동향
2025년 제18호
호주
2025 제18호-[호주] 안전하고 책임있는 AI 도입을 위한 거버넌스 체계 구축(이나라)
1. 개요
2025년 10월, 호주 산업과학자원부(Department of Industry, Science and Resources)는 국립 AI 센터 (National AI Centre)를 통해 AI 도입을 위한 가이드라인(Guidance for AI Adoption (v1.0))을 발표했다. 이번 가이드라인은 2024년에 호주 정부가 발행한 자발적 AI 안전 표준(Voluntary AI Safety Standard)를 기반으로 한 후속 지침으로, 호주 산업 전반에서 “안전하고 책임 있는 AI 도입(safe and responsible AI adoption)”을 지원하기 위한 것이다.
2. 주요 내용
1) 여섯 가지 책임 있는 AI 실무원칙 이 가이드라인은 “책임 있는 AI 거버넌스를 위한 여섯 가지 핵심 실무원칙(six essential practices for responsible AI governance)”을 제시한다.
(1) 책임 구조의 명확화(Decide who is accountable): AI 사용에 대한 책임(accountability)을 명확히 하기 위해, 조직 내 AI 책임자를 지정하고 이에 따른 정책을 수립한다. 또한, 공급망 내의 역할과 책임을 구분하여 관리한다.
(2) 영향력의 이해와 대응 계획(Understand impacts and plan accordingly): AI 시스템의 영향력을 평가하고, 이해관계자 및 취약 집단을 식별한다. 불공정하거나 부정확한 결과를 방지하기 위해 이해관계자 영향평가(stakeholder impact assessment)와 이의제기(contestability) 절차를 마련한다.
(3) 위험의 측정과 관리(Measure and manage risks): AI 시스템의 위험은 그 종류와 복잡성에 따라 달라지기 때문에, 위험을 식별하고 이에 맞는 위험관리 절차를 수립해야 한다. AI 관련 사고 발생 시 이를 조사하고, 기록하며, 재발 방지 대책(preventive actions)을 마련한다.
(4) 핵심 정보의 공유(Share essential information): AI 사용 사실과 방식, 기능 및 한계를 명확히 공개한다. 조직은 AI 등록부(AI register)를 작성하여 모든 AI 시스템을 기록·관리해야 한다. 또한, 이해관계자에게 AI의 능력(capabilities)과 한계를 설명한다.
(5) 검증과 모니터링(Test and monitor): AI 시스템은 배포 전 테스트(pre-deployment testing)를 실시하고, 배포 후에는 지속적으로 성능을 모니터링 해야 한다. 때에 따라 외부 기관을 통해 독립적 검증(independent testing)을 수행할 수도 있다.
(6) 인간 감독관의 유지(Maintain human control): AI 시스템의 자율성이 높더라도 인간의 통제와 판단(meaningful human oversight)이 반드시 개입될 수 있어야 한다. 따라서 필요할 경우, 사람이 직접 개입하거나 시스템 작동을 중단(intervention and override)을 할 수 있는 절차를 명확히 마련한다.
2) 관련 적용 법률 이 가이드라인에서는 AI의 위험 유형별로 적용 가능한 호주 법률을 구체적으로 제시하고 있다.
(1) 데이터 남용이나 저작권 침해의 경우에는 저작권법(Copyright Act), 개인정보보호법(Privacy Act), 계약법(Contract Law) 등이 관련된다.
(2) AI가 차별적 결과를 초래할 경우에는 차별금지법(Anti-Discrimination Act)과 공정근로법(Fair Work Act)이 적용된다.
(3) 허위이거나 기만적인 정보 제공은 소비자법(Australian Consumer Law)의 규율을 받는다.
(4) AI가 유해 콘텐츠를 생성하는 경우에는 온라인안전법(Online Safety Act)과 형법(Criminal Code)이 적용된다.
(5) 시스템 결함이나 피해 발생 시에는 제조물책임법(Product Liability)과 불법행위법(Negligence Law)에 따라 책임이 검토된다.
이번 지침에서는 이러한 기존 법체계가 AI 관련 분쟁에서의 법률적 보호장치(backstop)로 기능할 수 있음을 명시하고 있다.
3. 결론 및 시사점
이번 호주 정부의 AI 도입을 위한 가이드라인(Guidance for AI Adoption (v1.0))을 조직 단위의 관리체계(AI management system)를 통해 AI 거버넌스를 실제 운영 구조로 제도화한 첫 사례로 평가된다. 이 지침은 AI의 책임성과 안전성을 확보하기 위해 기존 법체계를 유기적으로 연계하였으며, 저작권법·개인정보보호법·소비자법·형법 등 현행 법률이 AI 관련 분쟁에서 최후의 보호장치로 기능하도록 설계되었다.
이러한 접근은 AI를 별도의 규제 대상으로 한정하기보다, 기존 법체계와 관리 표준을 확장해 하나의 통합적 관리 체계로 운영하려는 방향을 보여준다. 이는 한국을 비롯한 여러 나라가 향후 AI 관련 법과 제도를 개편할 때 참고할 수 있는 구체적 모델로서 의미가 있다. 특히 AI 기술의 도입과 확산 속도가 빠른 한국의 경우, 산업계의 자율규제와 공공 부문의 감시·책임 체계가 조화를 이루는 방향이 중요하게 논의될 수 있다.