안녕하세요. 세상의 모든 호기심, 세모입니다.
오늘은 2025년이 다가오는 만큼, 미래의 혁신을 주도할 AI에 관해 얘기해 보려고 해요.
AI 기술도 중요하지만, 그로 인해 발생하는 범죄와 악용 사례 등이 더 많아지고 있는데요.
특히 중대 AI 범죄 중 하나인 '딥페이크'에 대해 알아보겠습니다.
"우리가 가진 것은 피해자가 되기 위한 인간의 형태뿐입니다."
미국의 변호사 캐리 골드버그는 인공지능 시대에 딥페이크 포르노의 위험성을 이렇게 설명했어요.
디지털 성범죄, 즉 성적 이미지의 비동의 적 공유는 인터넷이 생긴 이후 그만큼이나 오래된 문제랍니다. 하지만 AI 도구의 발전과 확산으로 인해 이 문제는 새로운 차원으로 접어들었어요. 이제는 나체 사진을 찍거나 보낸 적이 없는 사람조차도 이러한 형태의 괴롭힘의 표적이 될 수 있게 되었죠. 인공지능 기술은 사람의 얼굴을 누드 이미지에 합성하거나 기존 사진을 조작해 마치 옷을 입지 않은 것처럼 보이게 만들 수 있어요. 이러한 기술의 접근성이 좋아지면서 누구나 피해자가 될 가능성이 커지고 있답니다.
지난 한 해 동안 AI로 생성된 비동의 포르노 이미지의 대상은 다양한 층에서 발생하였어요. 미국을 예로 들면 유명 팝가수 테일러 스위프트, 미국 하원의원 알렉산드리아 코르테스 같은 유명인부터 평범한 직장인들까지 피해자가 되었죠. 이들은 본인의 동의 없이 만들어진 성적 이미지로 인해 심각한 정신적 충격과 명예 훼손을 경험했어요.
뉴욕에 본사를 둔 성범죄 및 온라인 괴롭힘 피해자를 대리하는 법률회사 C.A. 골드버그(C.A. Goldberg Law)를 운영하는 캐리 골드버그는 이러한 경험이 대다수의 피해자에게 매우 무섭고 압도적인 일이라고 설명했습니다. 특히 자녀가 딥페이크 대상이 되었음을 알게 된 부모들은 더욱 큰 충격을 받겠죠? 그녀는 "인터넷이 이렇게 크고 복잡한 공간이라면, 피해자들이 어디서부터 도움을 요청해야 할지 모르는 경우가 많습니다."라고 말했답니다. 피해자들은 이 거대한 디지털 공간 속에서 자신을 지키는 것이 거의 불가능하다고 느낄 수 있겠죠.
그러나 이러한 상황에서도 피해자들이 취할 수 있는 실질적인 조치가 있습니다.
아래 단계를 잘 숙지해 둔다면, 피해를 알게 되었을 때 조치할 수 있을 거예요.
AI로 생성된 딥페이크의 표적이 되는 경우의 조치 사항 첫 번째는, 무엇보다 먼저 스크린 캡처를 찍어 증거를 확보하는 것입니다. 대부분의 피해자는 이런 수치스러운 이미지를 가능한 한 빨리 삭제하려고 하지만, 경찰에 신고하기 위해서는 반드시 증거가 필요하다는 거예요. 삭제 이전에 이러한 이미지를 캡처하고 저장해 두어야 법적 조치를 취할 수 있는 가능성을 열 수 있답니다.
두 번째 단계로는, Google, Meta, Snapchat, 네이버와 같은 플랫폼이 제공하는 양식을 이용해 명시적인 이미지 삭제 요청을 할 수 있습니다. 글로벌사이트로는 StopNCII.org 및 Take It Down 같은 비영리 단체들에서 해당 이미지를 여러 플랫폼에서 한 번에 제거하도록 도와줄 수 있습니다. 국내에서는 한국여성인권진흥원(https://d4u.stop.or.kr/delete_consulting)에서 피해 촬영물에 대한 삭제 지원을 신청할 수 있어요.
실제로 미국의 한 상원의원 그룹은 2023년 8월에 X(구 트위터)와 Discord를 포함한 12개의 기술 기업에 이러한 플랫폼, 프로그램에 참여할 것을 촉구하는 공개서한을 보냈어요. 이는 AI로 생성된 성적 이미지 문제에 대해 사회적 책임을 요구하는 움직임으로 볼 수 있답니다.
확실히 국내보다는 미국에서 이러한 딥페이크와 관련된 싸움이 더 열렬한 지지를 받고 있는데요. 미국 의회에서는 AI 기술로 인해 피해를 본 청소년과 부모들이 직접 증언하기도 했답니다. 미국 공화당 상원의원 테드 크루즈와 민주당 상원의원 에이미 틀로 부차는 이러한 문제를 해결하기 위한 법안을 공동 발의했어요. 이 법안은 비동의 적으로 생성되거나 게시된 성적 이미지를 범죄로 규정하고, 소셜 미디어 플랫폼이 피해자의 통지를 받은 즉시 해당 이미지를 삭제하도록 의무화하는 내용을 포함하고 있답니다.
그러나 현재로서는 피해자들이 개별 주법을 헤쳐 나가야 하는 현실이에요. 나라마다 법적 기준과 절차가 다르기 때문에 피해자들은 종종 혼란과 좌절을 겪는답니다. 이러한 상황에서 우리나라도 정부와 기술 기업, 그리고 비영리 단체들이 함께 협력해 보다 일관되고 강력한 대응책을 마련하는 것이 중요해 보여요. 기술 발전은 멈출 수 없지만, 그로 인한 피해를 최소화하기 위한 노력은 계속되어야 하겠죠.
AI 기술의 발전은 많은 가능성을 열어주었지만, 동시에 새로운 형태의 위험도 초래했어요. 이러한 문제를 해결하기 위해서는 개인의 대응뿐만 아니라 사회 전체의 협력과 법적 제도 개선이 필수적이랍니다. 피해자들이 용기 있게 목소리를 내고, 이를 뒷받침할 수 있는 법적·제도적 장치가 강화된다면, 우리는 더 안전한 디지털 환경을 만들어 나갈 수 있을 거예요.
더불어 피해자들이 필요한 도움을 받을 수 있도록 주변 사람들의 이해와 지지가 필수적이에요. 피해 상황을 혼자 해결하려 하기보다는, 믿을 수 있는 사람들에게 이야기하고 전문가의 도움을 받는 것이 중요하답니다. 또 이러한 문제를 예방하기 위해 각종 디지털 도구와 개인정보 보호 설정을 적극적으로 활용하는 것도 필요해요. 우리의 작은 관심과 실천이 더 큰 문제를 막는 데 기여할 수 있을 것 같습니다.
AI 기술의 발전에 따른 딥페이크 범죄에 대한 포스팅 마칩니다.
앞으로 더 좋은 콘텐츠로 찾아올게요.
감사합니다.
'AI,블록체인,빅데이터 > AI' 카테고리의 다른 글
인공지능 (AI) 기술의 이해 (1) | 2024.12.30 |
---|---|
아픈 아이들의 등교 도우미, AI로봇 (1) | 2024.12.30 |
고대 두루마리 암호를 해독한 AI기술 (2) | 2024.12.30 |
AI 챗봇, 심리 상담가로서의 가능성 (0) | 2024.12.30 |
18억에 낙찰된 AI가 그린 초상화 : 예술과 기술의 경계 (2) | 2024.12.30 |