인공지능(AI)은 위험한가?

게시 됨: 2023-05-31

2023년 5월 22일 월요일, "Bloomberg Feed"라는 확인된 트위터 계정은 이미지와 함께 펜타곤에서 폭발이 있었다고 주장하는 트윗을 공유했습니다. 이것이 인공 지능(AI)과 어떤 관련이 있는지 궁금하다면 이 이미지는 AI가 생성한 것으로 트윗이 빠르게 입소문을 타면서 잠시 주식 시장 하락을 촉발했습니다. 상황은 훨씬 더 나빴을 수 있습니다. 인공 지능의 위험성을 극명하게 상기시키는 것입니다.

인공 지능 위험

우리가 걱정해야 할 것은 가짜 뉴스만이 아닙니다. 프라이버시 및 보안에 관한 것부터 편견 및 저작권 문제에 이르기까지 AI와 관련된 많은 즉각적이거나 잠재적인 위험이 있습니다. 우리는 이러한 인공 지능 위험 중 일부에 대해 자세히 살펴보고 현재와 미래에 이를 완화하기 위해 수행되고 있는 작업을 확인하고 AI의 위험이 이점보다 중요한지 여부를 묻습니다.

목차

    가짜 뉴스

    딥페이크가 처음 등장했을 때 악의적인 의도로 사용될 수 있다는 우려가 있었습니다. DALL-E 2, Midjourney 또는 DreamStudio와 같은 AI 이미지 생성기의 새로운 물결에 대해서도 마찬가지입니다. 2023년 3월 28일, 흰색 Balenciaga 푸퍼 재킷을 입고 스케이트보드와 포커를 포함한 여러 모험을 즐기는 프란치스코 교황의 가짜 AI 생성 이미지가 입소문을 탔습니다. 이미지를 자세히 관찰하지 않는 한 이러한 이미지를 실제와 구별하기가 어렵습니다.

    교황과의 사례는 의심할 여지 없이 약간 재미있었지만 펜타곤에 대한 이미지(및 이에 수반되는 트윗)는 전혀 그렇지 않았습니다. AI가 생성한 가짜 이미지는 잘못된 사람이 사용할 경우 평판을 손상시키고, 결혼 또는 경력을 종료하고, 정치적 불안을 유발하고, 심지어 전쟁을 일으킬 수 있는 힘이 있습니다. 요컨대, 이러한 AI 생성 이미지는 오용될 경우 매우 위험할 수 있습니다.

    이제 누구나 무료로 사용할 수 있는 AI 이미지 생성기와 인기 있는 소프트웨어에 AI 이미지 생성기를 추가한 Photoshop을 통해 이미지를 조작하고 가짜 뉴스를 만들 수 있는 기회가 그 어느 때보다 커졌습니다.

    개인 정보 보호, 보안 및 해킹

    많은 국가에서 이미 OpenAI의 ChatGPT를 금지하고 있어 AI의 위험과 관련하여 개인 정보 보호 및 보안도 큰 관심사입니다. 이탈리아는 유럽 개인정보보호법(GDPR)을 준수하지 않는다는 이유로 개인 정보 보호 문제로 모델을 금지했고, 중국, 북한, 러시아 정부는 잘못된 정보를 퍼뜨릴 것을 우려해 모델을 금지했습니다.

    그렇다면 AI와 관련하여 개인 정보 보호에 대해 왜 그렇게 우려합니까? AI 앱과 시스템은 학습하고 예측하기 위해 많은 양의 데이터를 수집합니다. 하지만 이 데이터는 어떻게 저장되고 처리됩니까? 데이터 유출, 해킹 및 정보가 잘못된 손에 들어갈 위험이 있습니다.

    위험에 처한 것은 개인 데이터만이 아닙니다. AI 해킹은 진정한 위험입니다. 아직 발생하지 않았지만 악의적인 의도를 가진 사람이 AI 시스템을 해킹할 수 있다면 심각한 결과를 초래할 수 있습니다. 예를 들어, 해커는 무인 차량을 제어하고, AI 보안 시스템을 해킹하여 매우 안전한 위치에 진입하고, AI 보안으로 무기 시스템을 해킹할 수도 있습니다.

    미 국방부 DARPA(Defense Advanced Research Projects Agency)의 전문가들은 이러한 위험을 인식하고 이미 DARPA의 GARD(Guaranteeing AI Robustness Against Deception) 프로젝트에 착수하여 처음부터 문제를 해결하고 있습니다. 이 프로젝트의 목표는 해킹 및 변조에 대한 저항이 알고리즘과 AI에 내장되도록 하는 것입니다.

    저작권 침해

    AI의 또 다른 위험은 저작권 침해입니다. 이것은 우리가 언급한 다른 위험만큼 심각하지 않게 들릴 수 있지만 GPT-4와 같은 AI 모델의 개발로 인해 모든 사람이 침해 위험이 높아졌습니다.

    여행에 대한 블로그 게시물이든 비즈니스의 새 이름이든 상관없이 ChatGPT에 무언가를 생성하도록 요청할 때마다 정보를 제공한 다음 향후 쿼리에 응답하는 데 사용합니다. 귀하에게 피드백하는 정보는 다른 사람의 저작권을 침해할 수 있으므로 표절 탐지기를 사용하고 AI가 만든 콘텐츠를 게시하기 전에 편집하는 것이 매우 중요합니다.

    사회 및 데이터 편향

    AI는 인간이 아니므로 편향될 수 없겠죠? 잘못된. 사람과 데이터는 AI 모델과 챗봇을 훈련하는 데 사용됩니다. 즉, 편향된 데이터나 성격은 편향된 AI로 귀결됩니다. AI에는 사회적 편향과 데이터 편향이라는 두 가지 유형의 편향이 있습니다.

    일상 사회에 많은 편견이 존재하는데 이러한 편견이 AI의 일부가 되면 어떻게 될까요? 모델 교육을 담당하는 프로그래머는 편향된 기대치를 가질 수 있으며, 이는 AI 시스템에 적용됩니다.

    또는 AI를 훈련하고 개발하는 데 사용되는 데이터가 부정확하거나 편향되거나 악의적으로 수집될 수 있습니다. 이는 사회적 편견만큼 위험할 수 있는 데이터 편향으로 이어집니다. 예를 들어, 얼굴 인식 시스템이 주로 백인의 얼굴을 사용하여 훈련되면 소수 집단의 얼굴을 인식하는 데 어려움을 겪을 수 있어 억압이 계속될 수 있습니다.

    우리의 일자리를 대신하는 로봇

    ChatGPT 및 Google Bard와 같은 챗봇의 개발은 AI를 둘러싼 완전히 새로운 걱정을 불러일으켰습니다. 바로 로봇이 우리의 일자리를 빼앗을 위험입니다. 우리는 이미 기술 업계의 작가들이 AI로 대체되고 있고, 소프트웨어 개발자들은 봇에게 일자리를 잃을까 걱정하고 있으며, 회사들은 ChatGPT를 사용하여 인간 작가를 고용하는 대신 블로그 콘텐츠와 소셜 미디어 콘텐츠를 만들고 있습니다.

    세계 경제 포럼의 The Future of Jobs Report 2020에 따르면 AI는 2025년까지 전 세계적으로 8,500만 개의 일자리를 대체할 것으로 예상됩니다. AI가 작가를 대체하지는 못하더라도 이미 많은 사람들이 AI를 도구로 사용하고 있습니다. AI로 대체될 위험이 있는 직업에 종사하는 사람들은 살아남기 위해 적응해야 할 수 있습니다. 예를 들어 작가는 AI 프롬프트 엔지니어가 되어 콘텐츠 제작을 위해 이러한 모델로 대체되는 대신 ChatGPT와 같은 도구로 작업할 수 있습니다.

    미래의 잠재적 AI 위험

    이것들은 모두 즉각적이거나 어렴풋한 위험이지만 미래에 볼 수 있는 AI의 가능성은 적지만 여전히 가능한 위험은 어떻습니까? 여기에는 AI가 인간에게 해를 끼치도록 프로그래밍되는 것과 같은 것들이 포함됩니다. 예를 들어, 전쟁 중에 살상하도록 훈련된 자율 무기가 있습니다.

    그런 다음 AI가 프로그래밍된 목표에 온 마음을 다해 집중할 수 있는 위험이 있습니다. 인간이 이러한 일이 발생하는 것을 막으려 할 때에도 어떤 대가를 치르더라도 그 목표를 달성하려고 시도하면서 파괴적인 행동을 개발할 수 있습니다.

    스카이넷은 AI가 지각력을 갖게 되면 어떤 일이 일어나는지 가르쳐 주었습니다. 그러나 Google 엔지니어 Blake Lemoine은 Google의 인공 지능 챗봇 생성기인 LaMDA가 2022년 6월에 감지력이 있었다고 모든 사람을 설득하려 했을지 모르지만 현재까지 그것이 사실임을 암시하는 증거는 없습니다.

    AI 규제의 과제

    202년 5월 15일 월요일, OpenAI CEO Sam Altman은 인공 지능에 관한 첫 번째 의회 청문회에 참석하여 "이 기술이 잘못되면 상당히 잘못될 수 있습니다."라고 경고했습니다. OpenAI CO는 그가 규제를 선호한다는 것을 분명히 하고 청문회에 자신의 아이디어를 많이 가져왔습니다. 문제는 AI가 이렇게 빠른 속도로 진화하고 있어 규제를 어디서부터 시작해야 할지 알기 어렵다는 것입니다.

    의회는 소셜 미디어 시대 초기에 저지른 것과 같은 실수를 반복하지 않기를 원하고 있으며 전문가 팀은 상원 다수당 원내대표인 Chuck Schumer와 함께 이미 기업이 모델을 교육하는 데 사용한 데이터 소스와 누구를 공개하도록 요구하는 규정에 대해 작업하고 있습니다. 그들을 훈련시켰습니다. 그러나 AI가 정확히 어떻게 규제될 것인지가 명확해지기까지는 어느 정도 시간이 걸릴 수 있으며 의심할 여지 없이 AI 회사의 반발이 있을 것입니다.

    인공 일반 지능의 위협

    또한 인간(또는 동물)이 수행할 수 있는 모든 작업을 수행할 수 있는 인공 일반 지능(AGI)이 생성될 위험도 있습니다. 공상 과학 영화에서 자주 언급되는 우리는 아마도 그러한 창조로부터 수십 년이 더 남았을 것입니다. 그러나 우리가 AGI를 만든다면 인류에게 위협이 될 수 있습니다.

    스티븐 호킹(Stephen Hawking), 빌 게이츠(Bill Gates), 심지어 전 구글 CEO 에릭 슈미트(Eric Schmidt)를 포함해 많은 공인들은 이미 AI가 인간에게 실존적 위협을 가한다는 믿음을 지지하고 있습니다. 이 기술은 사악한 사람들이 오용하지 않습니다.”

    그렇다면 인공 지능은 위험하며 그 위험이 이점보다 더 큽니까? 배심원 단은 여전히 ​​그것에 대해 밖에 있지만 우리는 이미 우리 주변의 일부 위험에 대한 증거를 지금보고 있습니다. 다른 위험은 조만간 결실을 맺을 가능성이 적습니다. 그러나 한 가지 분명한 사실은 AI의 위험성을 과소평가해서는 안 된다는 것입니다. 미래의 위험을 최소화하고 완화하기 위해 처음부터 AI를 적절하게 규제하는 것이 가장 중요합니다.