마이크로소프트 와 협력하다 Bing 검색 엔진에서 동의 없이 촬영한 사적인 이미지(딥페이크 포함)를 제거하는 데 도움이 됩니다.
피해자가 StopNCII에 “사례”를 제기하면 데이터베이스는 해당 개인의 기기에 저장된 친밀한 이미지나 비디오의 디지털 지문(“해시”라고도 함)을 생성하는데, 파일을 업로드할 필요가 없습니다. 그런 다음 해시는 참여하는 업계 파트너에게 전송되고, 파트너는 원본과 일치하는 항목을 검색하여 콘텐츠 정책을 위반하는 경우 플랫폼에서 제거할 수 있습니다. 이 프로세스는 실제 사람의 AI 생성 딥페이크에도 적용됩니다.
다른 여러 기술 회사들은 허가 없이 공유되는 친밀한 이미지를 제거하기 위해 StopNCII와 협력하기로 합의했습니다. meta 이 도구를 사용하여 Facebook, Instagram, Threads 플랫폼에서 사용합니다. 이 노력에 협력한 다른 서비스로는 Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse, Redgifs가 있습니다.
이 목록에서 이상하게도 빠진 것은 Google입니다. 이 기술 거대 기업은 자체적인 비동의 이미지를 보고하는 경우, . 그러나 복수 포르노와 기타 개인 이미지를 삭제하기 위한 몇 안 되는 중앙화된 장소 중 하나에 참여하지 않는 것은 의심할 여지 없이 피해자에게 사생활을 회복하기 위한 단편적인 접근 방식을 취해야 하는 추가적인 부담을 줍니다.
StopNCII와 같은 노력 외에도 미국 정부는 올해 비동의 이미지의 딥페이크 측면으로 인한 피해를 구체적으로 해결하기 위해 몇 가지 조치를 취했습니다. 그들은 이 문제에 대한 새로운 법안을 요구했고, 상원 의원 그룹은 7월에 도입된 를 통해 피해자를 보호하기 위한 조치를 취했습니다.
동의 없이 친밀한 이미지를 공유한 피해자라고 생각되면 StopNCII에 사례를 제기할 수 있습니다. 그리고 구글 ; 만 18세 미만인 경우 NCMEC에 신고할 수 있습니다. .