보는 것은 의심이다: AI 시대의 신뢰 회복
게시 됨: 2024-06-16오래된 진언은 보면 알겠지만 , 오늘날의 기술은 모든 사람이 매우 다른 질문을 하게 만듭니다. 내가 보고 있는 것을 믿을 수 있는가?
변경된 이미지와 딥페이크는 그 어느 때보다 쉽게 해낼 수 있습니다. 어떤 경우에는 위험이 낮습니다. 푹신한 코트를 입은 프란치스코 교황? 그것은 단지 무해한 AI 속임수일 뿐입니다.
분명히 조작된 케이트 미들턴의 사진은 소문과 영속적인 잘못된 정보를 불러일으켰지만 피해는 상대적으로 미미하여 영국 왕실 외에는 영향을 미치지 않았습니다.
WIRED 에 따르면 유권자들에게 정치 후보자로부터 승인된 딥페이크를 강제로 공급한 인도에서는 그 위험이 훨씬 더 높았습니다. 그 중 5천만 개 이상이 최근 선거까지 이어졌습니다.
올해에는 전 세계 인구의 거의 절반이 선거 투표를 위해 투표장으로 향할 것이며 시각 미디어는 의사 결정에서 큰 역할을 하게 될 것입니다.
진짜 이미지와 가짜 이미지를 구별하는 일은 매우 중요합니다.
조작되거나 위조된 캠페인 사진, 연설, 인터뷰, 정치 광고는 진실에 대한 대중의 분별력을 약화시켜 민주적 절차 자체를 훼손할 위험이 있습니다.
대중은 정치적 리더십을 선택할 때 사실 정보에 대한 접근 여부에 의존합니다.
그러나 기술의 급속한 발전과 잘못된 정보의 바이러스 확산, 기관에 대한 불신의 증가 등 완벽한 폭풍이 다가오고 있습니다. 이는 정보에 입각한 시민 참여를 위태롭게 하는 위험한 혼합입니다.
AI가 조작한 이미지에 대한 일반 대중의 인식이 계속 높아지면서 사실과 허구를 구별하는 것이 점점 더 어려워지고 있다는 우려도 커지고 있습니다. 이 둘을 분리하려면 소수만이 보유할 수 있는 기술적 역량이 필요합니다.
픽셀 심층 보기
15년 동안 저는 펌웨어 개발부터 카메라를 보는 데 사용될 소프트웨어 설계에 이르기까지 디지털 카메라 관련 작업을 해왔습니다. "변경되지 않은" 이미지란 없습니다.
카메라 센서든, 후처리 소프트웨어든, AI 엔진이든 뭔가가 어딘가에서 이미지를 바꾸고 있습니다.
인간은 자신의 흔적을 가리는 데 능숙하지 않습니다. 이미지를 수동으로 후처리할 때 항상 증거를 남기기 때문입니다.
잡지 표지를 충분히 확대하면 이미지가 어디에서 어떻게 "향상"되었는지 쉽게 알 수 있습니다. AI 엔진은 편집 내용을 감지할 수 있을 만큼 아직 초기 단계이지만 오래 동안은 그렇지 않을 것입니다.
후처리 변경과 카메라 내 이미지 처리가 너무 유사해 보이기 때문에 "진짜" 이미지와 "가짜" 이미지를 구별할 수 없는 지점에 매우 가깝습니다.
전문가가 아무리 확대해도 이미지가 카메라에서 사라진 후 변경된 흔적을 찾을 수 없습니다.
이 시점에서 실제 이미지와 가짜 이미지의 차이를 구별할 수 있는 유일한 방법은 이미지를 캡처한 카메라까지 전체 보관 체인을 통해 이미지를 추적하는 것입니다. 이미지 자체를 분석하는 것은 더 이상 도움이 되지 않습니다.
진위 여부 확인
기술 솔루션은 딥페이크와 AI 합성 미디어의 확산을 관리하는 데 도움이 될 수 있으며, 몇몇 대형 기술 기업은 이미 이를 구현하기 위한 조치를 취했습니다.
OpenAI는 DALL·E 3에서 제작한 이미지에 카메라 제조업체에서도 사용하는 개방형 기술 표준인 C2PA(Coalition for Content Provenance and Authenticity) 메타데이터를 포함하겠다고 약속했습니다.
Meta는 또한 C2PA 표준을 사용하여 AI 생성 이미지에 레이블을 지정하는 작업을 진행하고 있습니다.
모든 이미지의 메타데이터에 이 코드를 포함하도록 디지털 카메라를 프로그래밍하여 이를 확인할 수도 있습니다.
예를 들어, 이미지의 체크섬은 카메라 제조업체만이 가지고 있는 개인 키를 사용하여 암호화될 수 있으며, 이는 일반인 누구나 확인할 수 있습니다(또는 TikTok이 사용하려고 하는 콘텐츠 자격 증명 확인과 같은 제3자 사이트를 통해). .
모든 디지털 카메라 제조업체는 수용할 수 없는 것으로 간주되는 변경을 수행하지 않는지 확인하기 위해 감사에 코드를 제출해야 합니다.
후처리 편집을 수행하는 모든 사람은 정확한 변경 사항을 보여주는 이미지에 추가 메타데이터를 추가해야 합니다. 원본 이미지가 파일에 포함되어야 합니다.
이러한 표준을 준수하지 않는 이미지는 가짜로 간주될 수 있습니다. 여기에는 종이에 인쇄된 이미지와 스크린샷이 포함됩니다.
시간이 지남에 따라 사회는 대부분의 이미지가 그림과 같다는 사실을 알게 될 것입니다. 때로는 실제 사건을 묘사하지만 대부분의 경우 진위를 입증할 추가 증거가 없으면 그렇지 않습니다.
우리가 무엇을 믿는지에 대해 질문하기
쉽지는 않겠지만 기술이 너무 빠르게 발전하여 진위를 증명하려면 추가 단계가 필요합니다. 언론인이나 판사처럼 진실을 찾는 데 관심이 있는 사람들은 증거를 조사할 때 각별한 주의를 기울여야 합니다.
100년 전에는 목격자의 증언이 법정에서 가장 중요한 역할을 했습니다. 그런 다음 오디오 녹음, 지문 및 사진 증거와 같은 혁신은 신뢰성을 약속했지만 지문 분석에는 여전히 보관 연속성을 검증해야 했습니다.
국립과학원(National Academy of Sciences)은 이제 이러한 표준에 도전했습니다. 지문과 탄도학은 정확성에 대한 새로운 의심에 직면해 있습니다.
AI가 발전하면서 사진과 영상 역시 신뢰성을 잃어가고 있다. 앞으로 나아가려면 기술 혁신가, 진실 추구자, 대중 간의 협력이 필요합니다.
표준화된 인증 프레임워크를 구현하고, 투명성을 강조하고, 이미지 진위 가정을 재고하는 것이 모두 필수적입니다.
경계심과 집단적 책임을 통해 우리는 보는 것이 곧 믿는 것이라는 확신을 보존하기 위해 노력할 수 있습니다.
편집자 주: 이 기사는 Otherweb의 CEO이자 창립자인 Alex Fink가 작성했습니다. Alex는 AI를 사용하여 사람들이 페이월, 클릭베이트, 광고 또는 기타 '정크' 없이 뉴스와 논평을 읽고, 팟캐스트를 듣고, 웹을 검색할 수 있도록 돕는 공익 기업인 Otherweb의 기술 임원이자 창립자 겸 CEO입니다. 콘텐츠. Otherweb은 iOS 또는 Android 앱, 웹사이트, 뉴스레터 또는 독립형 브라우저 확장 프로그램으로 제공됩니다. Otherweb 이전에 Alex는 Panopteo의 창립자이자 CEO였으며 Swarmer의 공동 창립자이자 회장이었습니다.
이 기술에 대해 어떻게 생각하시나요? 아래 댓글에 한 줄을 남겨주시거나 Twitter나 Facebook으로 토론 내용을 전달해 주세요.
편집자 추천:
- AI 딥페이크, 바이든 로보콜로 정치적 데뷔
- Google의 검색 알고리즘은 딥페이크 포르노를 유용한 콘텐츠로 간주합니다.
- 딥페이크 포르노란 무엇인가요?
- 브루스 윌리스는 자신의 초상권을 딥페이크 회사에 팔았나요?