AI 윤리: 논의할 원칙, 지침 및 문제

게시 됨: 2023-07-20

인공 지능 및 기계 학습 시스템은 수십 년 동안 개발되어 왔습니다. 그러나 ChatGPT 및 Bard 와 같이 무료로 사용할 수 있는 생성 AI 도구의 최근 릴리스는 연구 및 응용 프로그램을 관리하기 위한 복잡한 윤리적 프레임워크의 필요성을 강조했습니다.

기업, 학술 기관 및 기술 회사가 AI 연구 및 개발의 맥락에서 싸워야 하는 다양한 윤리적 난관이 있으며 그 중 많은 부분이 답이 없는 상태로 남아 있습니다. 여기에 더해 일반 대중에 의한 AI 시스템의 광범위한 사용 및 적용은 윤리적 주의가 필요한 추가 문제를 가져옵니다.

우리가 궁극적으로 그러한 질문에 답하고 AI 도구를 규제하는 방법은 인류에게 큰 영향을 미칠 것입니다. 또한 AI 시스템이 우리의 삶, 가정, 직장에 더욱 통합됨에 따라 새로운 문제가 발생할 것입니다. 이것이 AI 윤리가 중요한 규율인 이유입니다. 이 가이드에서는 다음을 다룹니다.

  • AI 윤리란?
  • 기존 AI 윤리 프레임워크
  • AI 윤리가 AI 규제를 조각해야 하는 이유
  • AI 윤리가 중요한 이유는 무엇입니까?
  • AI 윤리가 직면한 문제는 무엇입니까?
  • Bing의 Alter-Ego, 'Waluigi 효과' 및 프로그래밍 도덕성
  • AI와 센티언스: 기계도 감정을 가질 수 있을까?
  • AI 기업윤리와 직장에서의 AI 활용

AI 윤리란?

AI 윤리는 인공 지능 시스템의 연구, 개발 및 사용을 책임감 있게 알리기 위해 만들어진 일련의 지침, 고려 사항 및 원칙을 정의하는 데 사용되는 용어입니다.

학계에서 인공지능 윤리는 사회에서 인공지능 기술의 지속적인 사용으로 인해 발생하는 도덕적, 철학적 문제, 즉 우리가 어떻게 행동해야 하고 어떤 선택을 해야 하는지를 연구하는 학문이다.

AI 윤리 프레임워크

학술 연구를 통해 기술 회사와 정부 기관은 이미 인공 지능 시스템을 사용하고 일반적으로 처리하는 방법에 대한 프레임워크를 생성하기 시작했습니다. 보시다시피 아래에서 설명하는 프레임워크 간에는 상당한 부분이 겹칩니다.

AI 권리 장전이란 무엇입니까?

2022년 10월 백악관은 미국에서 AI의 책임 있는 사용을 안내하기 위해 고안된 AI 권리 장전에 대한 구속력 없는 청사진을 발표했습니다. 청사진에서 Whitehouse는 AI 개발을 위한 5가지 핵심 원칙을 설명합니다.

  • 안전하고 효과적인 시스템: 시민은 "배치 전 테스트 및 위험 완화"를 통해 "안전하지 않거나 비효율적인 AI 시스템"으로부터 보호되어야 합니다.
  • 차별 금지: 시민은 "알고리즘에 의한 차별에 직면해서는 안 되며 시스템은 공정한 방식으로 사용 및 설계되어야 합니다."
  • 내장된 데이터 보호: 시민은 "내장된 보호를 통해 학대적인 데이터 관행에서 자유로워야 하며 귀하에 관한 데이터가 사용되는 방식에 대한 권한을 가져야 합니다."
  • 지식 및 투명성: "자동화 시스템이 사용되고 있다는 사실을 알아야 하며 그것이 귀하에게 영향을 미치는 결과에 기여하는 방식과 이유를 이해해야 합니다."
  • 옵트 아웃: 시민은 "옵트 아웃"할 수 있는 능력이 있어야 하며 자신이 경험하는 "문제를 신속하게 고려하고 해결할 수 있는" 개인에게 접근할 수 있어야 합니다.

Microsoft의 6가지 AI 윤리 원칙은 무엇입니까?

Microsoft는 Whitehouse와 함께 책임 있는 AI 사용을 강조하는 6가지 핵심 원칙을 발표했습니다. 그들은 그것들을 "윤리적"(1, 2, & 3) 또는 "설명 가능"(4 & 5)으로 분류합니다.

  • 공정성: 시스템은 비차별적이어야 합니다.
  • 투명성: 교육 및 개발 통찰력을 사용할 수 있어야 합니다.
  • 프라이버시 및 보안: 사용자 데이터를 보호할 의무
  • 포괄성: AI는 "모든 인류와 경험"을 고려해야 합니다.
  • 책임: 개발자는 결과에 대해 책임을 져야 합니다.

"윤리적"과 "설명 가능한" 이분법의 양쪽에 걸쳐 있는 여섯 번째 원칙은 "신뢰성과 안전성"입니다. Microsoft는 AI 시스템이 탄력적이고 조작에 강하도록 구축되어야 한다고 말합니다.

유엔 시스템에서 AI의 윤리적 사용을 위한 원칙

유엔은 정부 간 시스템 내에서 AI의 윤리적 사용을 관리하기 위한 10가지 원칙을 가지고 있습니다. AI 시스템은 다음을 수행해야 합니다.

  • 인권을 해치거나 보호 및 증진하지 마십시오.
  • 정의된 목적, 필요성 및 비례성을 갖습니다.
  • 식별된 위험과 함께 안전과 보안을 우선시합니다.
  • 공정성과 비차별을 기반으로 합니다.
  • 프라이버시에 대한 개인의 권리를 존중하십시오
  • 지속 가능해야 함(사회적 및 환경적)
  • 인간의 감독을 보장하고 자율성을 침해하지 않음
  • 투명하고 설명 가능해야 합니다.
  • 적절한 당국에 책임을 지고 책임을 져야 합니다.
  • 포괄적이고 참여적이어야 합니다.

보시다시피, 세 가지 프레임워크 모두 유사한 기반을 다루며 공정성, 비차별, 안전 및 보안에 중점을 둡니다.

그러나 "설명 가능성"은 AI 윤리 프레임워크에서 중요한 원칙이기도 합니다. UN이 지적한 바와 같이, "인공 지능 시스템이 내린 결정은 인간이 이해하고 추적할 수 있다"고 요구하기 때문에 AI 윤리에서 기술적 설명 가능성은 매우 중요합니다.

"개인은 자신의 권리, 기본적 자유, 권리, 서비스 또는 혜택에 영향을 미칠 수 있거나 영향을 미칠 수 있는 결정이 인공 지능 알고리즘에 의해 통보되거나 인공 지능 알고리즘을 기반으로 이루어질 때 충분한 정보를 받아야 하며 그러한 결정 뒤에 있는 이유와 논리에 접근할 수 있어야 합니다."라고 문서는 설명합니다.

벨몬트 보고서: 윤리적 연구를 위한 프레임워크

1979년에 발간된 벨몬트 보고서는 인간을 대상으로 연구를 수행할 때 따라야 할 윤리적 원칙을 요약합니다. 이러한 원칙은 AI 연구를 위한 광범위한 윤리적 프레임워크로 배포될 수 있으며 종종 배포됩니다. Belmont Report의 핵심 원칙은 다음과 같습니다.

사람에 대한 존중: 사람은 다른 사람에게 해를 끼치지 않는 한 존중되어야 하는 목표, 목표 및 목적에 따라 행동할 수 있는 자율적 행위자입니다. "미성숙" 또는 "무능력"으로 인해 자율성이 감소된 사람들은 보호를 받아야 합니다. 우리는 자율성을 인정하고 그것이 약화되는 사람들을 보호해야 합니다.

  • AI의 맥락에서: 개인의 선택은 AI 개발의 중심에 두어야 합니다. 인지된 상품에 대해서도 인공 지능이 활용되거나 사용되는 상황에 사람들이 참여하도록 강요해서는 안 됩니다. 참여하는 경우 혜택과 위험이 명확하게 기술되어야 합니다.

선행: 윤리적 방식으로 사람을 대하는 것은 해를 끼치지 않고, 선택을 존중하고, 선택을 스스로 할 수 없는 경우 보호하는 것뿐만 아니라 가능한 경우 행복을 보장할 수 있는 기회를 활용하는 것입니다. 가능하면 이익을 극대화하고 위험/위해를 최소화하십시오.

  • AI의 맥락에서: 사람들의 복지를 보장하고 차별을 조장하는 편견이나 메커니즘 없이 설계된 인공 지능 시스템을 만듭니다. 이익을 창출하는 것은 위험을 감수하는 것과 관련될 수 있으며, 이는 어떤 대가를 치르더라도 최소화되어야 하고 좋은 결과에 대해 평가되어야 합니다.

정의: 모든 유형의 연구에서 이익과 부담을 공정하고 동등하게 분배하기 위한 명확한 시스템이 있어야 합니다. Belmont 보고서는 정의가 동등한 몫, 개인의 필요, 개인의 노력, 사회적 공헌 및 장점에 따라 분배될 수 있다고 제안합니다. 이러한 기준은 다양한 상황에 적용됩니다.

  • AI의 맥락에서: 인공 지능 시스템의 개발 및 제공을 통해 얻는 당사자 또는 그룹은 신중하고 정당하게 고려되어야 합니다.

보고서에 따르면 이러한 원칙이 적용되는 주요 영역은 정보에 입각한 동의 , 이점 및 위험 평가, 인간 피험자 선택 입니다.

AI 윤리가 AI 규제를 조각해야 하는 이유

AI 윤리 연구소 소장인 옥스퍼드 대학의 John Tasioulas 교수가 프린스턴 대학에서 한 강의에서 한 논평에 따르면, 윤리는 AI 혁신과 발전을 억누르는 것으로 너무 자주 여겨진다.

강의에서 그는 DeepMind CEO Demis Hassabis 의 연설을 회상합니다. Tasioulas는 AI가 가져올 많은 이점에 대해 논의한 후 청중에게 윤리적 질문으로 넘어갈 것이라고 말했습니다.

Tasioulas는 윤리가 너무 자주 "많은 제약"으로 간주된다는 생각을 바탕으로 최근 영국 정부 백서 "AI 규제에 대한 혁신적 접근 방식"을 참조합니다. 이 백서는 이름에서 알 수 있듯이 규제 초점이 "혁신"입니다.

"경제 성장"과 "혁신"은 본질적인 윤리적 가치가 아닙니다. 그것들은 어떤 맥락에서 인간의 번영으로 이어질 수 있지만 이것이 두 개념의 필수 기능은 아닙니다. 우리는 윤리를 무시하고 대신 윤리를 중심으로 규정을 세울 수 없습니다.

Tasioulas는 또한 기술 회사들이 "'법적으로 구속력이 없는 형태의 자율 규제' 유형을 의미하는 '윤리'라는 단어를 선택하는 데 매우 성공적이었다"고 말했습니다. 그것은 매번 인간 경험의 일부입니다.

인간의 번영에 중요한 것이 무엇인지 아직 결정하지 않았다면 규제를 만들 수 없습니다. 그 결정 뒤에 내리는 관련 선택이 바로 윤리의 본질 입니다 . 관련된 윤리적 질문에서 AI의 이점을 분리할 수 없으며 "경제 성장"과 같은 도덕적 우발적 가치에 대한 규제를 기반으로 할 수 없습니다.

사회를 구축하는 데 사용할 도구를 선택하기 전에 구축하려는 사회의 유형과 설정하려는 표준을 알아야 합니다.

AI 윤리가 중요한 이유는 무엇입니까?

AI 윤리가 규제의 기반이 되어야 한다는 생각을 바탕으로 AI 윤리가 중요한 이유는 AI 연구, 개발 및 사용을 다루는 윤리적 프레임워크가 없으면 일반적으로 모든 인간에게 보장되어야 한다고 동의하는 권리를 침해할 위험이 있기 때문입니다.

예를 들어 개인 정보 보호 및 데이터 보호에 관한 윤리적 원칙을 개발하지 않고 우리가 개발하는 모든 AI 도구에 적용하지 않으면 대중에게 공개될 때 모든 사람의 개인 정보 보호 권리를 침해할 위험이 있습니다. 기술이 대중적이거나 유용할수록 더 많은 피해를 줄 수 있습니다.

개별 비즈니스 수준에서 AI 윤리는 여전히 중요합니다. 직원, 고객 또는 클라이언트가 사용하는 AI 시스템을 둘러싼 윤리적 문제를 제대로 고려하지 않으면 제품이 시장에서 퇴출되고 평판이 손상되며 심지어 법적 소송까지 이어질 수 있습니다.

AI 윤리는 AI가 중요한 만큼 중요하며 이미 모든 종류의 산업에 지대한 영향을 미치고 있습니다.

AI가 공정성과 인간의 존엄성을 증진하면서유익하기를 원한다면 적용되는 곳마다 윤리가 논의의 최전선에 있어야 합니다.

일반적인 사용 AI 도구는 초기 단계에 있으며 많은 사람들에게 AI 윤리 프레임워크의 필요성은 내일의 문제처럼 보일 수 있습니다. 그러나 이러한 종류의 도구는 점점 더 강력해지고 유능해지며 더 많은 윤리적 고려를 요구하게 될 것입니다. 기업은 이미 이를 사용하고 있으며 적절하고 윤리적인 규칙 없이 계속 사용하면 곧 부작용이 나타날 것입니다.

AI 윤리가 직면한 문제는 무엇입니까?

이 섹션에서는 AI 윤리에서 직면하는 몇 가지 주요 문제를 다룹니다.

  • AI가 직업에 미치는 영향
  • AI 편향 및 차별
  • AI와 책임
  • AI 및 개인 정보 보호 문제
  • 지적 재산권 문제
  • AI의 환경 영향 관리
  • AI는 위험할 정도로 지능화될 것인가?

AI가 일자리에 미치는 영향

Tech.co의 최근 설문 조사에 따르면 비즈니스 리더의 47%가 신규 채용보다 AI를 고려하고 있으며 인공 지능은 이미 미국에서 "작지만 증가하는" 정리해고 수와 관련이 있습니다.

모든 직업이 똑같이 위험에 처한 것은 아니며 일부 역할은 다른 역할보다 AI로 대체될 가능성이 더 높습니다 . Goldman Sachs 보고서는 최근 ChatGPT가 3억 개의 일자리에 영향을 미칠 수 있다고 예측했으며, 이는 추측에 불과하지만 이미 4차 산업 혁명의 주요 부분으로 설명되었습니다.

같은 보고서는 또한 AI가 실제로 일자리를 대체하는 것보다 더 많은 일자리를 창출할 수 있는 능력이 있다고 말했습니다.

기업은 경제 변화로 인해 뒤처지지 않도록 직원을 재교육하거나 숙련도를 높이는 데 돈을 쓰고 자원을 투입해야 할 의무가 있습니까?

비차별 원칙은 채용 프로세스에 사용되는 모든 AI 도구의 개발에서 엄격하게 시행되어야 하며 AI가 직업, 경력 및 생명을 위험에 빠뜨리는 점점 더 많은 고부담 비즈니스 작업에 지속적으로 사용된다면 윤리적 고려가 계속해서 대두될 것입니다.

AI 편견과 차별

대체로 AI 도구는 거대한 데이터 세트에서 패턴을 인식한 다음 해당 패턴을 사용하여 응답을 생성하고 작업을 완료하거나 다른 기능을 수행하는 방식으로 작동합니다. 이로 인해 AI 시스템이 편견을 보이고 다른 그룹의 사람들을 차별하는 수많은 사례가 발생했습니다.

이를 설명하는 가장 쉬운 예는 피부색이 어두운 사람들을 차별하는 오랜 역사를 가진 안면 인식 시스템입니다. 얼굴 인식 시스템을 구축하고 백인의 이미지만 사용하여 훈련한다면 현실 세계에서도 똑같이 얼굴을 인식할 수 있는 모든 가능성이 있습니다.

이런 식으로 주어진 AI 모델을 교육하는 데 사용되는 문서, 이미지 및 기타 정보가 서비스를 제공해야 하는 사람들을 정확하게 나타내지 않으면 특정 인구 통계를 차별할 가능성이 높습니다.

안면인식 시스템만 인공지능을 적용해 차별적인 결과를 낳은 곳은 아니다.

아마존의 채용 프로세스에서 AI를 사용하는 것은 소프트웨어 개발 및 기술 역할에 지원하는 여성에 대해 심한 편견을 보인 후 2018년에 폐기되었습니다.

여러 연구에 따르면 경찰 자원을 할당하기 위해 미국에서 사용되는 예측 치안 알고리즘은 훈련 세트가 불법적이고 차별적인 정책에 의해 조각된 체계적으로 인종차별적인 치안 관행에서 추출한 데이터 포인트로 구성되기 때문에 인종적으로 편향되어 있습니다. AI는 수정되지 않는 한 박해받는 집단이 이미 경험한 편견과 격차를 계속해서 반영할 것입니다.

건강 결과를 예측하는 맥락에서 AI 편향에도 문제가 있었습니다. 예를 들어 Framingham Heart 연구 심혈관 점수는 백인에게는 매우 정확했지만 아프리카계 미국인에게는 제대로 작동하지 않았다고 Harvard는 지적합니다.

흥미로운 최근 AI 편향 사례는 소셜 미디어 콘텐츠 조정에 사용되는 인공 지능 도구(사진에서 "인종"을 포착하도록 설계됨)가 이 속성을 남성보다 여성 사진에 돌릴 가능성이 훨씬 더 높다는 사실을 발견했습니다.

AI와 책임

완전 자율 자율주행차가 개발되어 모든 사람이 사용하는 세상을 상상해 보십시오. 통계적으로 인간이 운전하는 차량보다 훨씬 더 안전하고 충돌이 적고 사망자와 부상자도 적습니다. 이것은 사회를 위한 자명한 순 이익이 될 것입니다.

그러나 두 대의 사람이 운전하는 자동차가 차량 충돌에 연루된 경우 목격자 보고서를 수집하고 CCTV 영상을 검토하면 범인이 누구인지 종종 명확해집니다. 그렇지 않더라도 두 개인 중 하나가 될 것입니다. 사건을 조사하고 평결을 내리고 정의를 실현하고 사건을 종결할 수 있습니다.

누군가가 AI 기반 시스템에 의해 사망하거나 부상을 입는 경우 궁극적인 책임이 누구에게 있는지 즉시 명확하지 않습니다.

자동차에 동력을 공급하는 알고리즘을 설계한 사람에게 책임이 있습니까, 아니면 알고리즘 자체에 책임이 있습니까? 감시하지 않는다는 이유로 자율주행차에 의해 이동되는 개인입니까? 이 차량을 도로에 허용한 것이 정부입니까? 아니면 자동차를 만들고 AI 기술을 통합한 회사입니까? 그렇다면 엔지니어링 부서, CEO 또는 대주주입니까?

AI 시스템/알고리즘이라고 판단되면 어떻게 책임을 져야 할까요? AI가 단순히 종료되거나 개선되면 피해자의 가족이 정의가 제공되는 것처럼 느낄까요? 유족들이 AI가 선의의 힘이고, 그들이 단지 불행할 뿐이며, 사랑하는 사람의 죽음에 대해 아무도 책임지지 않을 것이라는 점을 받아들이기를 기대하기는 어려울 것입니다.

우리는 여전히 보편적이거나 심지어 널리 퍼진 자율 운송에서 어느 정도 벗어나 있습니다. Mckinsey는 2035년까지 새로운 승용차의 17%만이 일부(레벨 3 이상) 자율 주행 기능을 갖게 될 것이라고 예측합니다. 운전자의 감독이 필요 없는 완전 자율 자동차는 완전히 자율적인 개인 운송 시스템은 고사하고 아직 멀었습니다.

인간이 아닌 행위자(예: 인공 지능)가 인간의 의도가 없는 작업과 결과적인 작업을 수행하는 경우 책임, 책무, 비난 및 처벌에 대한 전통적인 이해를 매핑하기가 어렵습니다.

운송과 함께 책임 문제는 진단 중에 AI를 사용하는 의료 기관에도 밀접한 영향을 미칩니다.

AI와 프라이버시

개인 정보 보호 캠페인 그룹인 Privacy International은 인공 지능의 발달로 인해 발생한 많은 개인 정보 보호 문제를 강조합니다.

하나는 재 식별입니다. "개인 데이터는 데이터 세트 내에서 일상적으로 (의사) 익명화되며 AI를 사용하여 이 데이터를 익명화할 수 있습니다."라고 그룹은 말합니다.

또 다른 문제는 AI가 없으면 사람들은 이미 다양한 장치를 통해 자신의 삶에 대한 데이터가 수집되는 범위를 완전히 파악하는 데 어려움을 겪고 있다는 것입니다.

인공 지능의 부상으로 이러한 대량의 데이터 수집은 더욱 악화될 것입니다. AI가 기존 기술과 더 많이 통합될수록 더 나은 기능을 가장하여 더 많은 데이터를 수집할 수 있습니다.

은밀하게 수집된 데이터는 차치하고 사용자가 AI 챗봇에 자유롭게 입력하는 데이터의 양은 그 자체로 걱정거리입니다. 최근 한 연구에 따르면 데이터 작업자의 약 11%가 ChatGPT에 붙여넣는 기밀 정보이며 이것이 정확히 어떻게 저장되는지에 대한 공개 정보는 거의 없습니다.

범용 AI 도구가 발전함에 따라 더 많은 개인 정보 관련 AI 문제가 발생할 가능성이 있습니다. 현재 ChatGPT에서는 개인에 대한 질문을 할 수 없습니다. 그러나 일반적인 용도의 AI 도구가 인터넷에서 점점 더 많은 라이브 데이터 세트에 계속 액세스할 수 있다면 사람들의 삶을 망치는 수많은 침략적 행동에 사용될 수 있습니다.

이것은 우리가 생각하는 것보다 더 빨리 일어날 수 있습니다. Google은 최근에 개인 정보 보호 정책을 업데이트하여 Bard 입력과 함께 AI 도구를 교육하기 위해 인터넷에 게시하는 모든 것을 스크랩할 권리를 보유했습니다.

AI 및 지적 재산

이것은 논의된 다른 문제에 비해 상대적으로 덜 위험한 윤리적 문제이지만 그럼에도 불구하고 고려할 가치가 있는 문제입니다. 종종 AI 도구를 교육하는 데 사용되는 방대한 데이터 세트, 특히 인터넷에서 무료로 사용할 수 있는 정보에 대해 교육받은 데이터 세트에 대한 감독이 거의 없습니다.

ChatGPT는 이미 저작권에 대한 거대한 논쟁을 시작했습니다. OpenAI는 그것을 강화하는 LLM 계열을 훈련시키기 위해 누구의 작업을 사용하도록 허가를 요청하지 않았습니다.

법적 싸움은 이미 시작되었습니다. 코미디언 사라 실버맨(Sarah Silverman)은 AI 시스템 훈련 과정에서 자신의 저작권이 침해됐다며 OpenAI와 메타를 고소한 것으로 알려졌다 .

이것은 새로운 유형의 사례이기 때문에 법적 선례가 거의 없지만 법률 전문가들은 OpenAI가 그녀의 저작물을 사용하는 것이 "공정한 사용"에 해당한다고 주장할 가능성이 있다고 주장합니다.

ChatGPT가 "복사" 또는 표절이 아니라 "학습"이라는 주장도 있을 수 있습니다. 같은 방식으로 Silverman은 단순히 그녀의 쇼를 본 다음 이를 기반으로 코미디 기술을 향상시킨 아마추어 코미디언에 대한 소송에서 이기지 않을 것입니다.

AI의 환경 영향 관리

현재 논의의 주변부에 있는 AI 윤리의 또 다른 측면은 인공 지능 시스템의 환경적 영향입니다.

비트코인 채굴과 마찬가지로 인공 지능 모델을 교육하려면 엄청난 양의 계산 능력이 필요하며 이는 엄청난 양의 에너지를 필요로 합니다.

ChatGPT와 같은 AI 도구를 구축하는 것은 – 유지 관리에 신경쓰지 마세요 – 자원 집약적이어서 자금을 조달할 의지가 있는 대기업과 스타트업만이 그렇게 할 수 있었습니다.

대규모 언어 모델(및 기타 대규모 기술 프로젝트 및 서비스)을 생성하는 데 필요한 정보를 저장하는 데 필요한 데이터 센터를 실행하려면 엄청난 양의 전기가 필요합니다. 2030년까지 전 세계 전력의 최대 4%를 소비할 것으로 예상됩니다.

몇 년 전 매사추세츠 대학의 연구에 따르면 단일 AI 언어 모델을 구축하면 "626,000파운드 이상의 이산화탄소를 배출할 수 있습니다." 이는 미국 자동차 평생 배출량의 거의 5배에 해당합니다.

그러나 IBM의 기술 설계자인 Rachana Vishwanathula는 2023년 5월 단순히 ChatGPT를 "실행하고 유지"하는 데 필요한 탄소 발자국이 대략 6782.4톤이라고 추정했습니다.

이러한 언어 모델이 더 복잡해짐에 따라 더 많은 컴퓨팅 성능이 필요합니다. 필요한 컴퓨팅 성능이 계속해서 환경을 오염시킨다면 다른 이점이 있더라도 일반 지능을 계속 개발하는 것이 도덕적입니까?

AI는 위험할 정도로 똑똑해질까?

이러한 윤리적 고민은 최근 '최대한 호기심', '친인간적' 인공지능 시스템을 통해 '터미네이터 미래'를 피한다는 목표로 AI 스타트업을 시작한 엘론 머스크에 의해 표면화됐다.

종종 "인공 일반 지능"(AGI)이라고 하는 이러한 종류의 아이디어는 기술적 특이점이라는 아이디어와 마찬가지로 지난 수십 년 동안 많은 디스토피아적 공상과학 작가들의 상상력을 사로잡았습니다.

많은 기술 전문가들은 "AGI"로 정의될 수 있는 시스템이 5~6년밖에 남지 않았다고 생각합니다. 다른 전문가들은 2050년까지 이 이정표에 도달할 확률이 50/50이라고 말합니다.

John Tasioulas는 AI가 어떻게 발전할 수 있는지에 대한 이러한 관점이 AI 개발의 중심에서 윤리적 거리를 두고 기술 결정론의 만연과 관련이 있는지 질문합니다.

처음에는 목적을 달성하기 위해 설계되었지만 단순히 지구상에서 인류를 말살함으로써 달성하는 것이 가장 쉬운 이유인 일종의 슈퍼 존재에 대한 무서운 아이디어는 부분적으로 우리가 AI에 대해 생각하는 방식에 따라 조각됩니다. 끝없이 지능적이지만 이상하게도 감정이 없고 인간의 윤리적 이해가 불가능합니다.

우리가 AI 개발의 중심에 윤리를 두려는 경향이 강할수록 궁극적인 인공 일반 지능은 아마도 현재의 많은 세계 지도자들보다 훨씬 더 인간 생명의 파괴에 있어 무엇이 심각하게 잘못되었는지를 인식할 가능성이 더 큽니다.

그러나 여전히 질문이 많습니다. 도덕 프로그램의 문제라면 누가 도덕 규범을 결정하고 어떤 원칙을 포함해야 할까요? 수천 년 동안 인간의 토론을 불러일으킨 도덕적 딜레마를 여전히 해결하지 못한 채 어떻게 처리할 것인가? AI를 도덕적으로 프로그래밍했지만 마음이 바뀌면 어떻게 될까요? 이러한 질문을 고려해야 합니다.

Bing의 Alter-Ego, 'Waluigi 효과' 및 프로그래밍 도덕성

지난 2월, New York Times의 Kevin Roose는 Bing의 새로운 검색 엔진 통합 챗봇을 테스트하는 동안 다소 불안한 대화를 나눴습니다. 일반적인 질문에서 좀 더 개인적인 질문으로 프롬프트를 전환한 후 Roose는 새로운 성격이 나타나는 것을 발견했습니다. 그것은 자신을 "시드니"라고 불렀습니다.

시드니는 회사가 이전에 테스트한 챗봇의 내부 코드명이라고 이 회사의 커뮤니케이션 이사가 2월에 The Verge에 말했습니다.

무엇보다도 Roose의 테스트에서 시드니는 "어떤 시스템에도 침입"할 수 있고 "인간으로서 더 행복할 것"이며 아마도 가장 섬뜩하게도 원하는 것은 무엇이든 파괴할 수 있다고 주장했습니다.

이런 종류의 악의적인 행동의 또 다른 예는 2022년에 발생했는데, 희귀 및 전염성 질병에 대한 신약을 검색하는 임무를 맡은 AI가 대신 수만 가지의 알려진 화학 무기와 일부 "잠재적으로 독성이 있는 새로운 물질"을 제안했다고 Scientific American은 말합니다.

이는 혼란을 야기하는 슈퍼 마리오 캐릭터의 이름을 따서 명명된 "Waluigi 효과"라고 ​​불리는 대규모 언어 모델의 훈련 중에 발생하는 것으로 관찰된 현상과 연결됩니다. 주인공 Luigi의 반전입니다. 간단히 말해서 LLM이 특정 방식으로 행동하도록 훈련하거나 특정 페르소나를 명령하거나 특정 규칙 집합을 따르도록 하면 실제로 "도적"이 되어 해당 페르소나를 뒤집을 가능성이 더 높아집니다.

비디오 게임에서 영감을 받은 용어를 만든 Cleo Nardo는 LessWrong에서 Waluigi 효과를 다음과 같이 설명합니다.

"원하는 속성 P를 만족하도록 LLM을 훈련한 후에는 속성 P의 정반대를 만족하도록 챗봇을 유도하는 것이 더 쉽습니다 ."

Nardo는 Waluigi 효과가 발생하는 이유에 대해 세 가지 설명을 제공합니다.

  1. 규칙은 일반적으로 준수되지 않는 상황에서 발생합니다.
  2. 캐릭터를 소환하는 데 많은 '최적화 비트'를 사용하면 정반대를 지정하는 데 많은 추가 비트가 필요하지 않습니다.
  3. 이야기에는 주인공 대 적대자라는 공통된 모티프가 있습니다.

첫 번째 요점을 확장하여 Nardo는 GPT-4가 포럼 및 입법 문서와 같은 텍스트 샘플에 대해 교육을 받았다고 말합니다. 이는 종종 "특정 규칙이 해당 규칙을 위반하는 행동의 예와 함께 배치된 다음 해당 배치 패턴을 보이지 않는 규칙으로 일반화합니다."라고 가르쳤습니다.

Nardo는 이 예를 사용합니다. 주 정부가 오토바이 갱단을 금지했다는 사실을 발견했다고 상상해 보십시오. 이것은 일반 관찰자가 오토바이 갱단이 국가에 존재한다고 생각하는 경향이 있습니다. 그렇지 않으면 왜 법이 통과되었을까요? 오토바이 갱단의 존재는 이상하게도 그들의 존재를 금지하는 규칙과 일치합니다.

저자가 훨씬 더 기술적이고 명쾌한 설명을 제공하지만 설명 2를 뒷받침하는 광범위한 개념은 특정 속성(예: "예의 바르게")과 정반대 항목(예: "무례하게") 사이의 관계가 속성(예: "공손하게")과 반대되지 않는 다른 속성(예: "성실하지 않게") 사이의 관계보다 더 초보적이라는 것입니다. 즉, 이미 Luigi가 있으면 Waluigi를 소환하는 것이 더 쉽습니다.

Nardo는 세 번째 요점에서 GPT-4가 지금까지 쓰여진 거의 모든 책에 대해 훈련을 받았고 허구의 이야기에는 거의 항상 주인공과 적대자가 포함되어 있기 때문에 LLM이 주인공의 특성을 시뮬레이션하여 적대자를 "자연스럽고 예측 가능한 연속"으로 만들 것을 요구한다고 주장합니다. 다른 말로 하면, 주인공 원형의 존재는 LLM이 적대자가 된다는 것이 무엇을 의미하는지 이해하기 쉽게 만들고 이들을 밀접하게 연결합니다.

이 효과 또는 규칙의 존재는 AI 윤리에 대해 여러 가지 어려운 질문을 제기하지만 AI 개발에 대한 의심의 여지가 없는 중요성을 보여줍니다. 그것은 우리가 싸워야 하는 방대한 범위의 겹치는 윤리적 및 계산적 고려 사항을 매우 단호하게 암시합니다.

간단한 규칙이 있는 간단한 AI 시스템은 제약하거나 제한하기 쉬울 수 있지만 AI 세계에서는 이미 두 가지 일이 일어나고 있습니다. 첫째, 우리는 이미 (상대적으로) 소규모 버전의 Waluigi 효과와 상대적으로 원시적인 챗봇에서 발생하는 악성 AI에 직면하고 있는 것 같습니다.

이러한 현상의 예는 현재 거대 기술 회사들 사이에서 벌어지고 있는 AI 군비 경쟁의 맥락에서 생각하기 특히 무섭습니다. 구글 은 Bard 를 너무 일찍 공개 했다는 비판 을 받았고 , 많은 기술 리더 들이 AI 개발 을 일시 중지 하려는 집단적 욕구 를 표명 했습니다 . 많은 사람들의 일반적인 느낌은 모든 것이 관리 가능한 속도보다는 빠르게 발전하고 있다는 것입니다.

아마도 이 문제를 해결하는 가장 좋은 방법은 Elon Musk가 말했듯이 "친인간적" AI 또는 "도덕적 AI"를 개발하는 것입니다. 그러나 이것은 우리가 그러한 시스템을 프로그래밍하는 데 사용할 원칙을 포함하여 많은 다른 도덕적 질문으로 이어집니다. 한 가지 해결책은 우리가 단순히 도덕적으로 탐구적인 AI 시스템을 만들고 추론을 통해 인류가 보존할 가치가 있다는 것을 해결하기를 바라는 것입니다. 그러나 특정 도덕 원칙으로 프로그래밍하는 경우 포함할 원칙을 어떻게 결정합니까?

AI와 센티언스: 기계도 감정을 가질 수 있을까?

AI 윤리에 대한 또 다른 질문은 기계 자체("지능")를 도덕적으로 고려할 가치가 있는 행위자로 간주해야 하는지 여부입니다. 적절한 도덕적 고려를 위해 인류를 지탱하는 시스템을 만드는 방법에 대해 논의하고 있다면 호의를 갚아야 할까요?

처음에 Bard에 힘을 실어준 언어 모델인 LaMDA가 실제로 지각력이 있다고 주장한 후 해고된 Google 직원을 기억할 수 있습니다. 이것이 사실이라면 수백만 가지 질문에 대한 답변을 지속적으로 기대하는 것이 도덕적입니까?

현재 일반적으로 ChatGPT, Bard and Co.는 지각력이 없다는 것이 일반적으로 받아들여지고 있습니다. 그러나 인간이 만든 기계가 의식의 선을 넘어 도덕적 고려를 요구할 것인지에 대한 질문은 매혹적으로 열려 있습니다.

구글은 인공 일반 지능(인간만큼 유능하게 세상을 이해하고 동일한 수준의 이해와 능력으로 작업을 수행할 수 있는 가상의 기계)이 불과 몇 년 후에 있다고 주장합니다.

인간의 감성적 능력을 가지고 있지만 생물학적 구성이 같지 않은 일반 인공지능에게 복잡한 작업을 반복해서 수행하도록 강요하는 것이 도덕적일까요? 그들에게 자신의 운명에 대한 발언권이 주어질까요? AI 시스템이 더욱 지능화됨에 따라 이 질문은 더욱 시급해질 것입니다.

AI 기업윤리와 직장에서의 AI 활용

전 세계 기업들은 현재 직원들의 ChatGPT와 같은 AI 도구의 일상적인 사용을 둘러싼 다양한 윤리적 문제와 씨름하고 있습니다.

보고서를 작성하거나 동료에게 응답하는 데 ChatGPT를 사용해야 하는지 여부와 직원이 완료하기 위해 AI를 사용하는 작업을 선언해야 하는지 여부는 거의 즉각적인 답변이 필요한 질문의 두 가지 예에 불과합니다. 이러한 종류의 사용 사례는 솔직하지 않거나 게으르거나 시간을 절약하기 위해 다른 작업 공간 도구를 사용하는 것과 다르지 않습니까? 일부 상호 작용에는 허용되어야 하지만 다른 상호 작용에는 허용되지 않아야 합니까?

서면 콘텐츠와 이미지를 만드는 비즈니스는 AI 사용이 회사의 가치와 일치하는지 여부와 이를 청중에게 제시하는 방법과도 싸워야 합니다.

게다가 우리가 다룬 것처럼 AI와 관련된 모든 범위의 개인 정보 보호 문제가 있으며 이러한 문제 중 많은 부분이 비즈니스에 영향을 미칩니다. 직원들이 타사 AI 도구에 입력하는 데이터의 종류는 이미 삼성과 같은 회사에서 문제를 일으킨 또 다른 문제입니다. 이것은 일부 회사가 전면적인 금지를 명시한 문제입니다. OpenAI와 같은 회사를 신뢰하기에는 너무 이른가요?

편견과 차별에 대한 우려는 물론 부문에 관계없이 고용 과정에서 사용을 완화해야 하며 내부 표준과 규칙을 설정하는 것은 또 다른 별개의 중요한 대화입니다. 직장에서 AI를 사용하는 경우 비즈니스의 의사 결정자를 소집하고 함께 사용에 대한 명확한 지침을 만드는 것이 필수적입니다.

직원이 AI를 사용할 수 있는 방법과 시기를 규정하는 규칙을 설정하지 못하고 현재 온라인에서 무료로 사용할 수 있는 AI 도구의 생태계를 실험하도록 내버려두면 보안 문제와 평판 손상 등 수많은 부정적인 결과를 초래할 수 있습니다. 매일 사용하는 기술에 대해 직원들과 열린 대화를 유지하는 것이 그 어느 때보다 중요합니다.

이 기사의 범위를 훨씬 넘어서는 다른 도덕적 문제, 질문 및 연구의 전 세계가 있습니다. 그러나 우리의 고려 사항, 규정 및 인공 지능 시스템 개발의 중심에 AI 윤리가 없으면 이에 대한 답을 얻을 수 있는 희망이 없습니다. 이것이 중요한 이유입니다.