Google은 검색 결과에 인공지능이 생성하거나 편집한 이미지를 공개할 예정입니다. 이 기술 거대 기업은 AI가 생성하거나 수정한 이미지에 라벨을 추가하여 투명성을 높일 계획입니다.
이 변화는 구글이 온라인에서 오해의 소지가 있는 정보의 확산을 막는 것을 목표로 하는 Coalition for Content Provenance and Authenticity(C2PA)의 주요 회사와 협력한 후에 이루어졌습니다. AI가 생성한 콘텐츠를 플래그로 표시하려는 구글의 계획과 이를 둘러싼 의문에 대한 세부 사항을 살펴보겠습니다.
구글의 AI 추구는 단순한 곁다리일까?
앞으로 몇 달 안에 Google은 검색 결과에서 AI가 생성하고 편집한 이미지에 태그를 지정하기 시작할 예정입니다. 이는 이미지가 언제, 어디서, 어떻게 생성되었는지와 같은 정보를 포함하는 Content Credentials 표준의 메타데이터를 사용하여 수행됩니다. 사용자는 검색 결과에서 이미지 위에 있는 세 개의 점을 클릭하여 액세스할 수 있는 Google의 “이 이미지에 대한 정보” 기능을 통해 이 태그를 볼 수 있습니다.
이러한 조치의 아이디어는 사용자에게 이미지 출처를 추적하고 AI가 생성한 콘텐츠를 더 쉽게 찾을 수 있는 방법을 제공하는 것입니다. 이러한 조치는 Google이 Amazon, Adobe, Microsoft와 같은 다른 기술 회사에 합류하여 최신 콘텐츠 자격 증명 지침을 개발한 후에 이루어졌습니다. 이러한 회사는 함께 투명성을 높이고 가짜 또는 오해의 소지가 있는 이미지의 확산을 줄이기를 바랍니다.
하지만 Google의 이니셔티브가 올바른 방향으로 나아가는 한 걸음이기는 하지만, 라벨이 즉시 눈에 띄지는 않을 것이라는 점에 주목할 가치가 있습니다. 사용자는 “이 이미지에 대한 정보” 섹션을 클릭하여 정보를 적극적으로 검색해야 하며, 이로 인해 일부 사람들이 예상했던 것보다 기능이 덜 효과적일 수 있습니다.
사용자는 어떻게 AI 정보에 접근할까?
새로운 기능은 Google Lens와 Android의 “Circle to Search” 기능에서 찾을 수 있으며, 이제 이미지가 인공 지능을 사용하여 생성되거나 변경되었는지 여부를 표시합니다. 레이블을 직접 표시하지 않으면 많은 사용자가 이 도구의 존재에 대한 인식이 부족할 수 있습니다. 추가 단계가 포함되기 때문에 일부 개인은 이미 기능에 익숙하지 않은 한 이미지가 AI에 의해 생성되었는지 확인할 수 없습니다. 개인이 알고 있더라도 프로세스는 여전히 어려울 수 있으며, 특히 AI가 생성한 이미지가 더 명확하게 표시될 것으로 예상하는 경우 더욱 그렇습니다.
이러한 제약에도 불구하고, C2PA와 Google의 파트너십은 Content Credentials 표준이 디지털 콘텐츠의 출처를 추적하기 위한 더 광범위한 구조를 제공하기 때문에 가치가 있을 수 있습니다. 그럼에도 불구하고, 이 표준은 모든 AI 개발자가 채택한 것은 아닙니다. Black Forest Labs와 같은 일부 조직은 이를 포함하지 않기로 결정했으며, 이는 특정 모델에서 생성된 이미지의 출처를 추적하려는 노력을 복잡하게 만들 수 있습니다.
효과성에 대한 우려: 구글이 충분히 노력하고 있는가?
더 큰 문제도 있습니다. AI가 생성한 이미지를 감지하기가 점점 더 어려워지고 있습니다. 워털루 대학교 연구에 따르면 39%의 사람들이 AI가 생성한 이미지와 실제 이미지의 차이를 알 수 없습니다. 이러한 추세가 계속된다면 Google의 라벨링 시스템은 사용자가 AI가 생성한 콘텐츠를 자신 있게 식별하는 데 충분하지 않을 수 있습니다.
게다가 다른 기술 회사들은 좋은 모범을 보이지 못하고 있습니다. 예를 들어 Meta는 최근 태그 정보를 게시물에서 덜 눈에 띄는 위치로 옮겼습니다. 이는 기술 거대 기업이 AI 생성 콘텐츠를 더 투명하게 만드는 데 진정으로 전념하고 있는지, 아니면 최소한의 조치만 취하고 있는지에 대한 의문을 제기합니다.
Leica M-11P 및 Nikon Z9와 같은 일부 카메라에는 내장된 콘텐츠 자격 증명이 제공됩니다. 즉, 사진작가와 개발자가 이러한 도구를 사용하기로 선택하지 않는 한 시스템이 가능한 한 효과적이지 않습니다. AI에서 생성된 콘텐츠의 투명성은 산업 간 협업에 크게 의존하며, 지금까지 모든 사람이 동등하게 투자한 것은 아닌 것으로 보입니다.
동시에 AI가 생성한 이미지의 증가는 잘못된 정보에 대한 새로운 우려를 불러일으켰습니다. 딥페이크에서 AI가 생성한 누드 사진에 이르기까지, 해를 끼칠 가능성은 분명합니다. Google의 새로운 라벨링 시스템이 이러한 모든 문제를 해결하지는 못하지만, 온라인에서 오해의 소지가 있는 콘텐츠의 확산을 줄이는 데 있어 작은 발걸음입니다.
이미지 출처: Furkan Demirkaya / Ideogram AI
Source: 구글의 AI 이미지 태그를 쉽게 찾을 수 있을까?