2024년 AI 과제: 주요 AI 연구자 3인의 통찰력

게시 됨: 2024-01-13

2023년은 인공지능의 진화와 사회에서의 역할에 있어서 변곡점이었다.

올해는 기술을 그림자에서 대중의 상상 속 중심 무대로 옮긴 생성적 AI의 출현이 있었습니다. 또한 AI 스타트업의 이사회 드라마가 며칠 동안 뉴스 사이클을 장악하는 것을 보았습니다.

그리고 바이든 행정부는 행정명령을 발동했고 유럽연합은 AI 규제를 목표로 하는 법안을 통과시켰습니다. 이는 아마도 이미 질주하고 있는 말을 억제하려는 시도로 가장 잘 묘사되는 움직임일 것입니다.

우리는 2024년을 내다보고 AI 개발자, 규제 기관 및 일반 사람들이 직면할 수 있는 문제를 설명하고 희망과 권장 사항을 제공하기 위해 AI 학자 패널을 구성했습니다.


Casey Fiesler, 콜로라도 볼더 대학교 정보 과학 부교수

2023년은 AI 과대광고의 해였다. AI가 세상을 구할 것이라는 이야기든, 세상을 파괴할 것이라는 이야기든 상관없이, 언젠가 AI가 어떤 모습일지에 대한 비전이 현재의 현실을 압도하는 것처럼 느껴지는 경우가 많았습니다.

그리고 미래의 피해를 예상하는 것이 기술 분야의 윤리적 부채를 극복하는 데 중요한 요소라고 생각하지만, 과대광고에 너무 휩쓸리면 명시적인 선택에 의해 형성될 수 있는 기술이라기보다는 마법처럼 보이는 AI의 비전이 만들어질 위험이 있습니다.

그러나 제어권을 가지려면 해당 기술에 대한 더 나은 이해가 필요합니다.

2023년의 주요 AI 논쟁 중 하나는 교육에서 ChatGPT 및 유사한 챗봇의 역할에 관한 것이었습니다.

작년 이맘때, 대부분의 관련 헤드라인은 학생들이 어떻게 부정행위를 할 수 있는지, 그리고 교육자들이 어떻게 부정행위를 방지하기 위해 안간힘을 쓰고 있는지에 초점을 맞추었습니다. 이러한 방식은 종종 유익보다는 해를 끼치는 경우가 많습니다.

그러나 해가 갈수록 학생들에게 AI에 대해 가르치지 않으면 불이익을 당할 수 있다는 인식이 생겨 많은 학교에서 금지 조치를 철회했습니다.

저는 AI를 모든 것의 중심에 두기 위해 교육을 개편해야 한다고 생각하지 않습니다. 하지만 학생들이 AI가 어떻게 작동하는지 배우지 않는다면 AI의 한계를 이해하지 못할 것입니다. 그렇지 않은 방법.

이것은 학생들에게만 해당되는 것이 아닙니다. 더 많은 사람들이 AI의 작동 방식을 이해할수록 AI를 사용하고 비판할 수 있는 권한이 더 커집니다.

따라서 2024년에는 학습에 대한 엄청난 압력이 있을 것이라고 예상하거나 희망합니다.

1966년 ELIZA 챗봇의 창시자인 Joseph Weizenbaum은 기계가 "종종 가장 경험이 풍부한 관찰자조차 현혹시키기에 충분하다"고 썼습니다. 그러나 기계의 "내부 작동이 이해를 유도할 만큼 충분히 쉬운 언어로 설명되면 기계의 마법은 무너집니다"라고 썼습니다. .”

생성 인공 지능의 과제는 ELIZA의 매우 기본적인 패턴 일치 및 대체 방법과 달리 AI 마법을 무너뜨릴 수 있는 "충분히 평범한" 언어를 찾는 것이 훨씬 더 어렵다는 것입니다.

나는 이것이 가능하다고 생각합니다. AI 기술 전문가 채용을 서두르고 있는 대학들도 AI 윤리학자 채용에 많은 노력을 기울였으면 좋겠다. 언론 매체가 과대광고를 줄이는 데 도움이 되기를 바랍니다. 나는 모든 사람이 이 기술의 사용과 그 결과에 대해 스스로 생각해 보기를 바랍니다.

그리고 기술 기업들이 미래를 형성하기 위해 어떤 선택을 계속할지 고려할 때 정보에 입각한 비판에 귀를 기울이기를 바랍니다. 앞으로의 해에 많은 과제는 사회가 이미 직면하고 있는 AI 문제와 관련이 있습니다.


도야마 켄타로(Kentaro Toyama), 미시간대학교 지역정보학과 교수

1970년 AI 선구자이자 신경망 회의론자인 마빈 민스키(Marvin Minsky)는 라이프(Life) 매거진과의 인터뷰에서 "3~8년 안에 우리는 평균적인 인간의 지능을 갖춘 기계를 갖게 될 것"이라고 말했습니다.

특이점의 경우, 인공 지능이 인간 지능과 일치하고 이를 초과하기 시작하는 순간(아직 여기에 도달하지는 않음)은 민스키가 최소한 10배 이상 앞서 있었다고 해도 무방합니다. AI에 대해 예측하는 것은 위험합니다.

그럼에도 불구하고 1년 후를 예측하는 것은 그다지 위험해 보이지 않습니다. 2024년 AI는 어떻게 될까요?

먼저, 경주가 시작됩니다! 민스키의 전성기 시절부터 AI의 발전은 꾸준했지만, 2022년 ChatGPT의 공개 출시는 이익, 영광, 글로벌 패권을 위한 전면적인 경쟁을 시작했습니다.

새로운 AI 애플리케이션의 홍수와 더불어 더욱 강력한 AI를 기대해 보세요.

가장 큰 기술적 문제는 AI 엔지니어가 현재의 딥 러닝의 아킬레스건, 즉 연역적 논리와 같은 일반화된 추론이라고 부를 수 있는 문제를 얼마나 신속하고 철저하게 해결할 수 있느냐는 것입니다.

기존 신경망 알고리즘을 빠르게 조정하는 것으로 충분할까요, 아니면 신경과학자 게리 마커스(Gary Marcus)가 제안한 것처럼 근본적으로 다른 접근 방식이 필요할까요?

AI 과학자들이 이 문제를 해결하기 위해 노력하고 있으므로 2024년에는 어느 정도 진전이 있을 것으로 예상됩니다.

한편, 새로운 AI 애플리케이션으로 인해 새로운 문제가 발생할 가능성도 있습니다. AI 챗봇과 비서가 서로 대화하고, 당신을 대신하여 뒤에서 전체 대화를 나누는 것에 대해 곧 듣게 될 것입니다.

그 중 일부는 우스꽝스럽거나 비극적이거나 둘 다로 엉망이 될 것입니다.

감지하기 어려운 딥페이크, AI 생성 이미지 및 비디오는 초기 규제에도 불구하고 만연해 개인과 민주주의에 더 많은 천박한 피해를 입힐 가능성이 높습니다. 그리고 5년 전만 해도 불가능했던 새로운 종류의 AI 재난이 발생할 가능성이 높습니다.

문제에 대해 말하면 Elon Musk 및 Sam Altman과 같이 AI에 대해 가장 큰 경종을 울리는 바로 그 사람들은 더욱 강력한 AI를 구축하는 것을 막을 수 없는 것 같습니다.

나는 그들이 계속해서 같은 일을 더 많이 할 것으로 기대합니다. 그들은 자신들이 스스로 지른 불길을 불러일으키고 당국에 제지해달라고 간청하는 방화범과 같습니다.

그리고 그러한 맥락에서 제가 2024년에 가장 바라는 것은 – 비록 더디게 다가오기는 하지만 – 국내 및 국제 수준에서 AI 규제가 강화되는 것입니다.


Anjana Susarla, 미시간 주립대학교 정보 시스템 교수

ChatGPT가 공개된 지 1년이 지났지만 생성 AI 모델의 개발은 어지러운 속도로 계속되고 있습니다.

텍스트 프롬프트를 입력으로 받아 텍스트 출력을 생성했던 1년 전의 ChatGPT와는 대조적으로, 새로운 종류의 생성 AI 모델은 다중 모드로 훈련됩니다. 즉, 훈련에 사용되는 데이터는 다음과 같은 텍스트 소스에서만 나오는 것이 아닙니다. Wikipedia 및 Reddit뿐만 아니라 YouTube의 비디오, Spotify의 노래, 기타 오디오 및 시각적 정보에서도 볼 수 있습니다.

이러한 애플리케이션을 지원하는 차세대 다중 모드 LLM(대형 언어 모델)을 사용하면 텍스트 입력을 사용하여 이미지와 텍스트뿐만 아니라 오디오와 비디오도 생성할 수 있습니다.

기업들은 스마트폰에서 LLM을 실행하는 것을 포함하여 다양한 하드웨어와 다양한 애플리케이션에 배포할 수 있는 LLM을 개발하기 위해 경쟁하고 있습니다.

이러한 경량 LLM과 오픈 소스 LLM의 출현은 사회가 반드시 준비할 필요가 없는 자율 AI 에이전트의 세계를 가져올 수 있습니다.

이러한 고급 AI 기능은 비즈니스에서 정밀 의학에 이르기까지 다양한 응용 분야에서 엄청난 변화를 가져올 수 있습니다.

나의 가장 큰 우려는 이러한 고급 기능이 인간 생성 콘텐츠와 AI 생성 콘텐츠를 구별하는 데 새로운 과제를 제기할 뿐만 아니라 새로운 유형의 알고리즘 피해를 초래할 것이라는 점입니다.

생성 AI로 생성된 합성 콘텐츠의 홍수는 악의적인 사람과 기관이 합성 신원을 제조하고 대규모 잘못된 정보를 조율할 수 있는 세상을 촉발할 수 있습니다.

알고리즘 필터와 추천 엔진을 활용하도록 준비된 AI 생성 콘텐츠의 홍수는 곧 검색 엔진, 소셜 미디어 플랫폼 및 디지털 서비스에서 제공하는 정보 확인, 정보 활용 능력 및 우연한 발견과 같은 중요한 기능을 압도할 수 있습니다.

연방거래위원회(Federal Trade Commission)는 AI 지원 콘텐츠 생성의 용이성으로 인해 발생하는 사기, 기만, 개인정보 침해 및 기타 불공정 관행에 대해 경고했습니다.

YouTube와 같은 디지털 플랫폼은 AI 생성 콘텐츠 공개에 대한 정책 지침을 제정했지만, FTC와 같은 기관 및 미국 데이터 개인 정보 보호법과 같은 개인 정보 보호를 담당하는 국회의원의 알고리즘 피해에 대한 더 철저한 조사가 필요합니다.

의회에 제출된 새로운 초당적 법안은 알고리즘 활용 능력을 디지털 활용 능력의 핵심 부분으로 성문화하는 것을 목표로 합니다.

AI가 사람들이 하는 모든 일과 점점 더 얽히게 되면서, 알고리즘을 기술의 일부로 보는 것이 아니라 알고리즘이 작동하는 맥락, 즉 사람, 프로세스, 사회를 고려해야 할 때가 왔다는 것이 분명해졌습니다.

편집자 주: 이 기사는 미시간 주립 대학교 정보 시스템 교수인 Anjana Susarla, 콜로라도 볼더 대학교 정보 과학 부교수인 Casey Fiesler, 미시간 대학교 커뮤니티 정보 교수인 Kentaro Toyama가 작성했으며 The Conversation에서 재출판되었습니다. 크리에이티브 커먼즈 라이센스에 따라. 원본 기사를 읽어보세요.

Flipboard, Google News 또는 Apple News에서 우리를 팔로우하세요.