| 국가 | 미국 | 장르 | 방송, 게임, 캐릭터, 만화, 애니메이션, 패션, 음악, 스타트업, 신기술 융합콘텐츠, 기타, 스토리 |
|---|---|---|---|
| 기관 | (-) | 구분 | 분쟁사례 |
| 제정일 | (-) | 개정일 | (-) |
플랫폼의 안전 관리와 책임 문제에 관한 분쟁사례 및 시사점
미국 Doe vs Roblox Corp. and Discord Inc. 분쟁사례
1. 소송의 개요
Doe v. Roblox Corporation 및 Doe v. Discord Inc. 사건은 두 플랫폼이 미성년자 사용자 보호에 실패하여 성적 착취를
방조했다는 혐의로 제기된 소송임.
피해자인 Jane Doe는 Roblox와 Discord를 통해 온라인에서 가해자와 접촉한 후 성적 착취를 당했으며,
이로 인해 심각한 정신적, 심리적 피해를 입었다고 주장함. 이 사건은 플랫폼의 안전 관리와 책임 문제를 둘러싼 논쟁을 불러일으켰음
2. 주요 쟁점
1) 플랫폼의 사용자 보호 실패
· (Roblox) 피해자는 Roblox에서 가해자를 처음 접촉했으며, 플랫폼의 콘텐츠 관리 시스템이 부실하여 미성년자가 위험에 노출되었다고 주장함.
특히, "콘도 게임"과 같은 성적 콘텐츠가 플랫폼 내에서 발견된 점이 문제로 지적되었음
· (Discord) Discord는 비공개 채널과 개인 메시지 기능이 가해자들에게 악용될 수 있는 환경을 제공했다는 비판을 받고 있음.
피해자는 Discord에서 착취가 심화되었다고 주장함
2) Section 230의 적용 여부
미국 통신품위법(Communications Decency Act) Section 230은 플랫폼이 사용자 생성 콘텐츠에 대해 민사적 책임을
면제받을 수 있도록 규정하고 있음.
그러나 피해자 측은 플랫폼의 구조적 결함이 문제의 원인이라고 주장하며, Section 230의 면책 조항이 적용되지 않아야 한다고 주장함
3) 기업의 성장 우선주의
두 플랫폼 모두 사용자 수 증가와 수익 창출을 위해 안전 조치를 소홀히 했다는 비난을 받고 있음.
특히 Roblox는 부모들에게 안전을 보장한다고 홍보했지만, 실제로는 안전 조치를 강화하지 않았다는 점이 문제로 지적되었음
3. 소송의 경과
1) 소송의 진행
· (Roblox) 피해자 측은 Roblox가 미성년자 보호를 위한 적절한 조치를 취하지 않았다고 주장하며 여러 주에서 소송을 제기했음.
Roblox는 연령 확인 시스템을 도입하는 등 안전 조치를 강화하려는 노력을 보이고 있지만, 피해자 측은 이러한 조치가
충분하지 않다고 보고 있음
· (Discord) Discord는 사건 발생 후 안전 도구를 도입했지만, 피해자 측은 이러한 조치가 사건 발생 이후에 이루어진 것이라고 주장함
2) 법적 결과
소송은 현재 진행 중이며, 피해자 측은 플랫폼의 구조적 문제와 안전 관리 실패를 강조하며 손해 배상을 요구하고 있음.
이 사건은 플랫폼의 책임과 사용자 보호 문제를 둘러싼 법적 논쟁을 심화시키고 있음
4. 한국 기업에 대한 시사점
1) 플랫폼 책임 강화
국내 콘텐츠 기업은 사용자 보호를 위한 안전 조치를 강화해야 함. 특히, 미성년자 보호를 위한 연령 확인 시스템과
콘텐츠 관리 시스템의 도입이 필수적임
2) 법적 리스크 관리
해외에 진출한 플랫폼 서비스 제공 기업으로서는, Section 230과 같은 면책 조항의 유무및 적용가능 여부를 면밀히 파악하고
사용자 생성 콘텐츠에 대한 책임을 더욱 신중히 관리해야 함.
이는 법적 리스크를 줄이고 기업의 신뢰도를 높이는 데 기여할 것임
3) 사회적 신뢰 구축
사용자 안전을 최우선으로 하는 정책을 통해 기업의 신뢰도를 높이고, 장기적인 성장 기반을 마련해야 함.
특히, 청소년 보호를 위한 기술적, 정책적 노력이 필요함
※ 자세한 내용은 첨부(PDF)파일을 참고하시기 바랍니다.