AI 선택에 의존하면 의사결정 능력이 약화될 수 있음

게시 됨: 2024-04-22

인공지능이 사람들의 일상생활에 점점 더 깊이 파고들면서 그에 대한 걱정도 커지고 있습니다. 가장 우려스러운 점은 AI가 악당이 되어 인간 주인을 제거하는 것에 대한 우려입니다.

그러나 AI 개발을 중단하라는 요구 뒤에는 보다 실질적인 사회적 병폐가 숨어 있습니다.

그 중에는 AI가 사람들의 사생활과 존엄성에 가하는 위험과 AI 내부의 알고리즘이 인간에 의해 프로그래밍되어 있기 때문에 AI가 우리 중 다수만큼 편견과 차별적이라는 피할 수 없는 사실도 있습니다.

AI가 어떻게 설계되었는지, 누구에 의해 설계되었는지에 대한 투명성이 부족하다는 사실을 감안하면 요즘 AI의 잠재력만큼 위험을 논의하는 데 왜 그렇게 많은 시간을 할애하는지 쉽게 이해할 수 있습니다.

그러나 사람들이 어떻게 결정을 내리는지를 연구하는 심리학자로서 내가 직접 연구한 결과, 이러한 모든 위험은 대체로 눈에 띄지는 않지만 훨씬 더 부패한 위협에 의해 가려졌다고 믿게 되었습니다.

즉, AI는 사려 깊은 결정을 내릴 때 사람들이 덜 훈련되고 숙련되게 만드는 데 있어서 단순한 키 입력에 불과합니다.

신중한 결정

신중한 결정을 내리는 과정에는 직면한 작업이나 문제를 이해하는 데 시간을 투자하는 것부터 시작하는 세 가지 상식 단계가 포함됩니다.

나중에 자신있게 방어할 수 있는 결정을 내리기 위해 알아야 할 것이 무엇인지, 무엇을 해야 하는지 스스로에게 물어보세요.

이러한 질문에 대한 답은 지식의 격차를 메우고 이전 신념과 가정에 도전하는 정보를 적극적으로 찾는 데 달려 있습니다.

사실, 사람들이 특정 가정에 대한 부담을 덜었을 때 나타나는 대안적 가능성인 반사실적 정보는 궁극적으로 비판을 받을 때 자신의 결정을 방어할 수 있는 능력을 갖추게 해줍니다.

사려 깊은 결정에는 귀하의 가치를 고려하고 균형을 맞추는 것이 포함됩니다.

두 번째 단계는 한 번에 두 가지 이상의 옵션을 찾고 고려하는 것입니다. 삶의 질을 향상시키고 싶나요?

당신이 누구에게 투표하든, 당신이 받아들이는 직업이나 당신이 구입하는 물건이 무엇이든, 당신을 그곳으로 데려갈 길은 항상 하나 이상입니다.

적어도 몇 가지 그럴듯한 옵션을 적극적으로 고려하고 평가하기 위한 노력을 기울이고, 장단점을 고려하여 기꺼이 절충점에 대해 정직한 방식으로 노력하는 것은 사려 깊고 방어 가능한 선택의 특징입니다.

세 번째 단계는 필요한 모든 무거운 정신적 부담을 덜어줄 때까지 결정 종결을 기꺼이 연기하는 것입니다.

비밀은 아닙니다. 종결은 어렵거나 중요한 결정을 뒤로 미뤘다는 의미이므로 기분이 좋습니다. 그러나 조기에 진행하는 데 드는 비용은 숙제를 하는 데 시간을 투자하는 것보다 훨씬 높을 수 있습니다.

내 말을 믿지 못한다면, 감정에 따라 행동하다가 조금 더 열심히 생각할 시간을 갖지 않았기 때문에 후회하게 되었던 그 모든 시간을 생각해 보십시오.

AI에 대한 아웃소싱 결정의 위험

레이저와 디지털 배경을 갖춘 휴머노이드 로봇. 일체 포함
이미지: Pixabay

이 세 단계 중 어느 것도 수행하기가 매우 어렵지 않습니다. 그러나 대부분의 경우에도 직관적이지 않습니다. 사려 깊고 방어 가능한 결정을 내리려면 연습과 자기 훈련이 필요합니다.

그리고 이것이 바로 AI가 사람들에게 노출시키는 숨겨진 해로움이 나타나는 곳입니다. AI는 대부분의 "사고"를 배후에서 수행하고 사용자에게 맥락과 숙고가 없는 답변을 제시합니다.

더 나쁜 것은 AI가 사람들이 스스로 사려 깊고 방어 가능한 결정을 내리는 과정을 연습할 기회를 빼앗는다는 것입니다.

오늘날 사람들이 많은 중요한 결정에 어떻게 접근하는지 생각해 보십시오. 인간은 정신 에너지를 소비하는 데 있어서 검소한 경향이 있기 때문에 광범위한 편견을 갖는 경향이 있는 것으로 잘 알려져 있습니다.

이러한 검소함으로 인해 사람들은 겉보기에 좋거나 신뢰할 수 있는 결정이 내려지면 그것을 좋아하게 됩니다. 그리고 우리는 자신의 자율성을 중요하게 생각하는 것보다 공동체의 안전과 수용을 더 중요하게 생각하는 경향이 있는 사회적 동물입니다.

여기에 AI를 추가하면 위험한 피드백 루프가 발생합니다. AI가 알고리즘을 강화하기 위해 채굴하는 데이터는 비판적 추론의 지혜 대신 적합성에 대한 압력을 반영하는 사람들의 편향된 결정으로 구성됩니다.

그러나 사람들은 자신을 위해 결정을 내리는 것을 좋아하기 때문에 이러한 잘못된 결정을 받아들이고 다음 결정으로 넘어가는 경향이 있습니다. 결국 우리도 AI도 더 현명해지지는 않습니다.

AI 시대에 사려 깊다

노트북에 입력하는 사람
이미지: 언스플래시

AI가 사회에 어떤 혜택도 제공하지 않을 것이라고 주장하는 것은 잘못된 생각입니다.

특히 복잡한 모델과 막대한 양의 데이터를 정기적으로 신속하게 분석해야 하는 사이버 보안, 의료, 금융과 같은 분야에서는 그럴 가능성이 높습니다.

그러나 대부분의 일상적인 결정에는 이러한 종류의 분석 능력이 필요하지 않습니다.

그러나 우리가 요청하든 원하지 않든 우리 중 많은 사람들은 오락, 여행, 학업, 의료, 금융에 이르기까지 다양한 환경에서 이미 AI로부터 조언을 받고 AI가 수행하는 작업을 수행했습니다.

그리고 디자이너들은 우리의 일상적인 결정을 훨씬 더 자동화할 수 있는 차세대 AI를 개발하기 위해 열심히 노력하고 있습니다. 그리고 내 생각에는 이것은 위험하다.

소셜 미디어의 알고리즘 덕분에 사람들이 생각하는 것과 생각하는 방식이 이미 포위된 세상에서 AI가 모든 종류의 결정을 내릴 수 있는 정교한 수준에 도달하도록 허용한다면 우리는 훨씬 더 위험한 위치에 놓일 위험이 있습니다. 우리를 대신해.

실제로, 우리는 AI에 대한 사이렌의 부름에 저항하고 인간으로서의 진정한 특권과 책임, 즉 스스로 생각하고 선택할 수 있는 권리에 대한 소유권을 되찾아야 할 의무가 있습니다. 그렇게 하면 기분이 좋아질 것이고, 중요한 것은 더 좋아질 것입니다.

이것에 대해 어떤 생각이 있습니까? 아래 댓글에 한 줄을 남겨주시거나 Twitter나 Facebook에 토론 내용을 전달해 주세요.

편집자 추천:

  • AI 시대에도 항공 교통 관제에 여전히 인간의 손길이 필요한 이유
  • ChatGPT 및 기타 언어 AI는 우리만큼 비합리적입니다.
  • 학생들이 AI를 활용하여 Python 기술을 강화하는 방법
  • 자율주행 경주로 AI가 강화되어 더욱 안전한 무인 자동차 구현

편집자 주: 이 기사는 USC Dornsife College of Letters, Arts and Sciences의 심리학과 Wrigley Institute for Environment and Sustainability 소장이자 Dana 및 David Dornsife 교수인 Joe Árvai가 작성했으며 Creative Commons 라이센스에 따라 The Conversation에서 재출판되었습니다. 원본 기사를 읽어보세요.

대화

Flipboard, Google News 또는 Apple News에서 우리를 팔로우하세요.