Etica AI: principii, linii directoare și probleme de discutat

Publicat: 2023-07-20

Inteligența artificială și sistemele de învățare automată sunt în dezvoltare de zeci de ani. Lansarea recentă a instrumentelor AI generative disponibile gratuit, cum ar fi ChatGPT și Bard, totuși, a subliniat necesitatea unor cadre etice complexe care să guverneze atât cercetarea, cât și aplicarea acestora.

Există o serie de dileme etice diferite cu care întreprinderile, instituțiile academice și companiile tehnologice trebuie să se confrunte în contextul cercetării și dezvoltării AI - dintre care multe rămân fără răspuns. Pe lângă aceasta, utilizarea și aplicarea pe scară largă a sistemelor AI de către publicul larg aduce cu sine un set suplimentar de probleme care necesită o atenție etică.

Modul în care vom ajunge în cele din urmă să răspundem la astfel de întrebări – și, la rândul său, să reglementăm instrumentele AI – va avea ramificații uriașe pentru umanitate. Mai mult, vor apărea noi probleme pe măsură ce sistemele AI devin mai integrate în viețile noastre, casele și locurile de muncă – motiv pentru care etica AI este o disciplină atât de crucială. În acest ghid, acoperim:

  • Ce este Etica AI?
  • Cadrele etice ale IA existente
  • De ce etica AI trebuie să sculpteze reglementarea AI
  • De ce contează etica AI?
  • Cu ce ​​probleme se confruntă etica AI?
  • Alter-Ego-ul lui Bing, „efectul Waluigi” și moralitatea programării
  • AI și Sentience: Pot mașinile să aibă sentimente?
  • Etica în afaceri AI și utilizarea AI la locul de muncă

Ce este etica AI?

Etica AI este un termen folosit pentru a defini seturile de linii directoare, considerații și principii care au fost create pentru a informa în mod responsabil cercetarea, dezvoltarea și utilizarea sistemelor de inteligență artificială.

În mediul academic, etica AI este domeniul de studiu care examinează problemele morale și filozofice care apar din utilizarea continuă a tehnologiei inteligenței artificiale în societăți, inclusiv cum ar trebui să acționăm și ce alegeri ar trebui să facem.

Cadre de etică AI

Informate de cercetarea academică, companiile de tehnologie și organismele guvernamentale au început deja să producă cadre pentru modul în care ar trebui să folosim – și, în general, să ne ocupăm de – sistemele de inteligență artificială. După cum veți putea vedea, există destul de multă suprapunere între cadrele discutate mai jos.

Ce este AI Bill of Rights?

În octombrie 2022, Whitehouse a lansat un plan neobligatoriu pentru o Declarație a drepturilor AI, concepută pentru a ghida utilizarea responsabilă a AI în SUA. În plan, Whitehouse subliniază cinci principii cheie pentru dezvoltarea AI:

  • Sisteme sigure și eficiente: cetățenii ar trebui să fie protejați de „sisteme AI nesigure sau ineficiente”, prin „testări înainte de implementare și atenuarea riscurilor”.
  • Nediscriminare: cetățenii „nu ar trebui să se confrunte cu discriminarea prin algoritmi, iar sistemele ar trebui să fie utilizate și proiectate într-un mod echitabil”.
  • Protecția încorporată a datelor: cetățenii ar trebui să fie liberi de „practici abuzive de date prin protecții încorporate și ar trebui să aveți acțiune asupra modului în care sunt utilizate datele despre dvs.”.
  • Cunoaștere și transparență: „Ar trebui să știți că este utilizat un sistem automatizat și să înțelegeți cum și de ce contribuie la rezultatele care vă influențează.”
  • Renunțarea: cetățenii ar trebui să aibă capacitatea de a „renunța” și să aibă acces la persoane „care pot lua în considerare și remedia rapid problemele” pe care le întâmpină.

Care sunt cele șase principii ale eticii AI ale Microsoft?

Împreună cu Whitehouse, Microsoft a lansat șase principii cheie pentru a sublinia utilizarea responsabilă a AI. Ei le clasifică drept „etice” (1, 2 și 3) sau „explicabile” (4 și 5).

  • Corectitudine: sistemele trebuie să fie nediscriminatorii
  • Transparență: Ar trebui să fie disponibile informații despre instruire și dezvoltare
  • Confidențialitate și securitate: obligația de a proteja datele utilizatorului
  • Incluziune: AI ar trebui să ia în considerare „toate rasele și experiențele umane”
  • Responsabilitate: dezvoltatorii trebuie să fie responsabili pentru rezultate

Al șaselea principiu – care se află pe ambele părți ale binarului „etic” și „explicabil” – este „Fiabilitate și siguranță”. Microsoft spune că sistemele AI ar trebui construite astfel încât să fie rezistente și rezistente la manipulare.

Principiile pentru utilizarea etică a IA în sistemul Națiunilor Unite

Națiunile Unite au 10 principii pentru guvernarea utilizării etice a IA în cadrul sistemului lor interguvernamental. Sistemele AI ar trebui:

  • Nu vătămați/protejați și promovați drepturile omului
  • Au un scop definit, necesitate și proporționalitate
  • Prioritizează siguranța și securitatea, cu riscurile identificate
  • Să fie construit pe echitate și nediscriminare
  • Respectați dreptul la intimitate al persoanelor
  • Fii sustenabil (social și ecologic)
  • Garantați supravegherea umană și nu afectați autonomia
  • Fii transparent și explicabil
  • Fiți responsabil și răspunzător în fața autorităților competente
  • Fii incluziv și participativ

După cum vă puteți da seama, toate cele trei cadre acoperă terenuri similare și se concentrează pe corectitudine, nediscriminare, siguranță și securitate.

Dar „explicabilitatea” este, de asemenea, un principiu important în cadrele de etică AI. După cum notează ONU, explicabilitatea tehnică este crucială în etica AI, deoarece cere ca „deciziile luate de un sistem de inteligență artificială să poată fi înțelese și urmărite de ființele umane”.

„Persoanele ar trebui să fie pe deplin informate atunci când o decizie care le poate sau le va afecta drepturile, libertățile fundamentale, drepturile, serviciile sau beneficiile este informată sau luată pe baza algoritmilor de inteligență artificială și ar trebui să aibă acces la motivele și logica din spatele acestor decizii”, explică documentul.

Raportul Belmont: un cadru pentru cercetarea etică

Raportul Belmont, publicat în 1979, rezumă principiile etice pe care trebuie să le urmați atunci când se efectuează cercetări pe subiecți umani. Aceste principii pot – și sunt adesea – implementate ca un cadru etic larg pentru cercetarea AI. Principiile de bază din Raportul Belmont sunt:

Respectul pentru persoane: Oamenii sunt agenți autonomi, care pot acționa în funcție de scopuri, scopuri și scopuri, lucru care ar trebui respectat dacă nu provoacă rău altora. Cei cu autonomie diminuată, prin „imaturitate” sau „incapacitate”, ar trebui să li se acorde protecție. Trebuie să recunoaștem autonomia și să îi protejăm pe cei pentru care aceasta este diminuată.

  • În contextul AI: alegerea individuală ar trebui plasată în centrul dezvoltării AI. Oamenii nu ar trebui să fie forțați să participe în situații în care inteligența artificială este valorificată sau utilizată, chiar și pentru bunuri percepute. Dacă participă, beneficiile și riscurile trebuie să fie clar precizate.

Beneficiul: Tratarea unei persoane într-o manieră etică implică nu numai să nu faci rău, să-i respecte alegerile și să o protejezi dacă nu le poate face pentru ei înșiși, ci și să folosești oportunitățile pentru a-și asigura bunăstarea acolo unde este posibil. Ori de câte ori este posibil, maximizați beneficiile și minimizați riscurile/daunele.

  • În contextul AI: crearea de sisteme de inteligență artificială care asigură bunăstarea oamenilor și sunt concepute fără părtinire sau mecanisme care facilitează discriminarea. Crearea de beneficii poate implica asumarea unor riscuri, care trebuie minimizate cu orice preț și cântărite în raport cu rezultatele bune.

Justiție: Trebuie să existe un sistem clar de distribuire corectă și egală a beneficiilor și a poverilor în orice tip de cercetare. Raportul Belmont sugerează că justiția poate fi distribuită în mod egal, nevoia individuală, efortul individual, contribuția societății și meritul. Aceste criterii se vor aplica în diferite situații.

  • În contextul inteligenței artificiale: părțile sau grupurile care câștigă din dezvoltarea și livrarea sistemelor de inteligență artificială trebuie analizate cu atenție și dreptate.

Principalele domenii în care se aplică aceste principii sunt, conform raportului, consimțământul informat , evaluarea beneficiilor și riscurilor și selecția subiecților umani .

De ce etica AI trebuie să sculpteze reglementarea AI

Bazându-se pe comentariile făcute într-o prelegere susținută la Universitatea Princeton de profesorul John Tasioulas de la Universitatea Oxford, director al Institutului pentru Etică în Inteligența Artificială, etica este prea des văzută ca ceva care înăbușă inovația și dezvoltarea AI.

În prelegere, el își amintește de o discuție susținută de CEO-ul DeepMind, Demis Hassabis . După ce a discutat despre numeroasele beneficii pe care AI le va avea, spune Tasioulas, Hassabis le spune apoi audienței că va trece la întrebările etice – ca și cum subiectul despre cum va beneficia AI umanității nu ar fi o problemă etică în sine.

Pornind de la ideea că etica este prea des văzută ca o „grămădiță de restricții”, Tasioulas face referire și la o carte albă recentă a guvernului britanic intitulată „A Pro-Innovation Approach to AI Regulation”, în cadrul căreia accentul de reglementare este, după cum sugerează și numele, „inovare”.

„Creșterea economică” și „inovarea” nu sunt valori etice intrinseci. Ele pot duce la înflorirea umană în unele contexte, dar nu-i așa că aceasta nu este o caracteristică necesară a niciunuia dintre concepte? Nu putem marginaliza etica și să ne construim reglementările în jurul lor.

Tasioulas mai spune că companiile de tehnologie au avut mare succes în „cooptarea cuvântului „etică” pentru a însemna un tip de „formă de autoreglementare neobligatorie din punct de vedere juridic”” – dar, în realitate, etica trebuie să fie în centrul oricărei reglementări, juridice, sociale sau de altă natură. Face parte din experiența umană, la fiecare pas.

Nu poți crea reglementări dacă nu ai decis deja ce contează sau este important pentru înflorirea umană. Alegerile aferente pe care le faci din spatele acestei decizii sunt însăși esența eticii. Nu puteți divorța de beneficiile inteligenței artificiale de întrebările etice conexe și nici nu vă bazați reglementarea pe valori contingente din punct de vedere moral precum „creșterea economică”.

Trebuie să cunoașteți tipul de societate pe care doriți să o construiți – și standardele pe care doriți să le stabiliți – înainte de a alege instrumentele pe care o veți folosi pentru a o construi.

De ce contează etica AI?

Pornind de la ideea că etica AI ar trebui să fie baza reglementărilor noastre, etica AI contează deoarece, fără cadre etice cu care să tratăm cercetarea, dezvoltarea și utilizarea AI, riscăm să încălcăm drepturile pe care în general suntem de acord că ar trebui garantate tuturor ființelor umane.

De exemplu, dacă nu dezvoltăm principii etice privind confidențialitatea și protecția datelor și nu le integrăm în toate instrumentele AI pe care le dezvoltăm, riscăm să încălcăm drepturile la confidențialitate ale tuturor atunci când sunt eliberate publicului. Cu cât tehnologia este mai populară sau utilă, cu atât ar putea fi mai dăunătoare.

La nivel individual de afaceri, etica AI rămâne importantă. Eșecul de a lua în considerare în mod corespunzător preocupările etice legate de sistemele AI pe care le folosesc personalul, clienții sau clienții dvs. poate duce la retragerea produselor de pe piață, prejudicii reputației și poate chiar cazuri legale.

Etica AI contează în măsura în care AI contează – și vedem că are deja un impact profund asupra tot felul de industrii.

Dacă dorim ca inteligența artificială să fie benefică, promovândîn același timpcorectitudinea și demnitatea umană, oriunde este aplicată, etica trebuie să fie în prim-planul discuțiilor.

Instrumentele AI de uz general sunt la început și pentru mulți oameni, nevoia de cadre etice AI poate părea o problemă pentru mâine. Dar aceste tipuri de instrumente vor deveni doar mai puternice, mai capabile și vor cere mai multă considerație etică. Companiile le folosesc deja și, dacă vor continua fără reguli etice adecvate, vor apărea în curând efecte adverse.

Cu ce ​​probleme se confruntă etica AI?

În această secțiune, acoperim câteva dintre problemele cheie cu care se confruntă etica AI:

  • Impactul AI asupra locurilor de muncă
  • Prejudecățile și discriminarea AI
  • AI și responsabilitate
  • AI și probleme de confidențialitate
  • Probleme de proprietate intelectuală
  • Gestionarea impactului AI asupra mediului
  • Va deveni AI periculos de inteligent?

Impactul AI asupra locurilor de muncă

Un sondaj Tech.co recent a constatat că 47% dintre liderii de afaceri iau în considerare AI în detrimentul noilor angajări, iar inteligența artificială a fost deja legată de un număr „mic, dar în creștere” de disponibilizări în SUA.

Nu toate locurile de muncă sunt expuse la fel de risc, unele roluri fiind mai probabil să fie înlocuite de AI decât altele . Un raport Goldman Sachs a prezis recent că ChatGPT ar putea afecta 300 de milioane de locuri de muncă și, deși acest lucru este speculativ, a fost deja descris ca o parte majoră a celei de-a patra revoluții industriale.

Același raport a mai spus că AI are capacitatea de a crea, de fapt, mai multe locuri de muncă decât înlocuiește, dar dacă provoacă o schimbare majoră a modelelor de angajare, ce se datorează – dacă este ceva – celor care pierd?

Companiile au obligația de a cheltui bani și de a dedica resurse pentru recalificarea sau perfecționarea lucrătorilor lor, astfel încât aceștia să nu fie lăsați în urmă de schimbările economice?

Principiile nediscriminării vor trebui aplicate strict în dezvoltarea oricărui instrument de inteligență artificială utilizat în procesele de angajare și, dacă inteligența artificială este utilizată în mod constant pentru tot mai multe sarcini de afaceri cu mize mari care pun locuri de muncă, cariere și vieți în pericol, considerațiile etice vor continua să apară în masă.

Prejudecățile și discriminarea IA

În linii mari, instrumentele AI funcționează prin recunoașterea modelelor în seturi de date uriașe și apoi folosind acele modele pentru a genera răspunsuri, a finaliza sarcini sau a îndeplini alte funcții. Acest lucru a condus la un număr mare de cazuri de sisteme AI care arată părtinire și discriminează diferite grupuri de oameni.

De departe cel mai ușor exemplu de explicat acest lucru este sistemele de recunoaștere facială, care au o lungă istorie de discriminare împotriva persoanelor cu tonuri de piele mai închise. Dacă construiești un sistem de recunoaștere facială și folosești exclusiv imagini cu oameni albi pentru a-l antrena, există toate șansele ca va fi capabil să recunoască la fel de bine fețele din lumea reală.

În acest fel, dacă documentele, imaginile și alte informații utilizate pentru a antrena un anumit model de IA nu reprezintă cu acuratețe oamenii cărora ar trebui să îi servească, atunci există toate șansele ca acesta să poată ajunge să discrimineze anumite categorii demografice.

Din păcate, sistemele de recunoaștere facială nu sunt singurul loc în care inteligența artificială a fost aplicată cu rezultate discriminatorii.

Utilizarea inteligenței artificiale în procesele de angajare de la Amazon a fost abandonată în 2018, după ce a arătat o părtinire puternică împotriva femeilor care aplică pentru dezvoltare de software și roluri tehnice.

Mai multe studii au arătat că algoritmii de poliție predictivă utilizați în Statele Unite pentru a aloca resursele poliției sunt părtinitoare din punct de vedere rasial, deoarece seturile lor de instruire constau din puncte de date extrase din practicile polițienești sistematic rasiste, sculptate de politici ilegale și discriminatorii. Dacă nu este modificată, IA va continua să reflecte prejudecățile și disparitățile pe care le-au experimentat deja grupurile persecutate.

Au existat probleme cu părtinirea AI și în contextul prezicerii rezultatelor sănătății – studiul Framingham Heart Cardiovascular Score, de exemplu, a fost foarte precis pentru caucazieni, dar a funcționat prost pentru afro-americani, notează Harvard.

Un caz recent interesant de părtinire a inteligenței artificiale a constatat că un instrument de inteligență artificială utilizat în moderarea conținutului în rețelele de socializare – conceput pentru a detecta „raciness” în fotografii – a fost mult mai probabil să atribuie această proprietate imaginilor cu femei decât bărbaților.

AI și responsabilitate

Gândiți-vă la o lume în care mașinile autonome complet autonome sunt dezvoltate și sunt folosite de toată lumea. Statistic, sunt mult, mult mai sigure decât vehiculele conduse de oameni, se prăbușesc mai puțin și provoacă mai puține decese și răniri. Acesta ar fi un bine evident, net pentru societate.

Cu toate acestea, atunci când două mașini conduse de oameni sunt implicate într-o coliziune cu un vehicul, colectarea rapoartelor martorilor și revizuirea înregistrărilor CCTV clarifică adesea cine este vinovatul. Chiar dacă nu va fi, totuși, va fi unul dintre cei doi indivizi. Cazul poate fi cercetat, se ajunge la verdict, se poate face dreptate și cazul închis.

Dacă cineva este ucis sau rănit de un sistem alimentat de AI, nu este imediat evident cine este în cele din urmă responsabil.

Este responsabilă persoana care a proiectat algoritmul care alimentează mașina sau algoritmul însuși poate fi tras la răspundere? Este individul transportat cu autovehiculul autonom, pentru că nu este de gardă? Este guvernul, pentru că a permis acestor vehicule să iasă pe drum? Sau este compania care a construit mașina și a integrat tehnologia AI – și dacă da, ar fi departamentul de inginerie, CEO-ul sau acționarul majoritar?

Dacă decidem că este sistemul/algoritmul AI, cum îl tragem la răspundere? Familiile victimelor vor simți că se face dreptate dacă IA este pur și simplu oprită sau pur și simplu îmbunătățită? Ar fi greu de așteptat ca membrii familiei celor îndoliați să accepte că AI este o forță spre bine, că sunt doar nefericiți și că nimeni nu va fi considerat responsabil pentru moartea persoanei iubite.

Suntem încă departe de transportul autonom universal sau chiar larg răspândit – Mckinsey estimează că doar 17% dintre mașinile noi vor avea unele capacități de conducere autonomă (nivelul 3 sau mai sus) până în 2035. Mașinile complet autonome care nu necesită supravegherea șoferului sunt încă destul de departe, darămite un sistem de transport privat complet autonom.

Când ai actori non-umani (adică inteligența artificială) care desfășoară locuri de muncă și sarcini consecutive lipsite de intenție umană, este greu să faci o mapare a înțelegerilor tradiționale despre responsabilitate, răspundere, responsabilitate, vină și pedeapsă.

Alături de transport, problema responsabilității va avea un impact intim și asupra organizațiilor medicale care folosesc inteligența artificială în timpul diagnosticelor.

AI și confidențialitate

Grupul de campanie de confidențialitate Privacy International evidențiază o serie de probleme de confidențialitate care au apărut din cauza dezvoltării inteligenței artificiale.

Una este reidentificarea. „Datele personale sunt în mod obișnuit (pseudo-) anonimizate în seturile de date, AI poate fi folosită pentru a de-anonimiza aceste date”, spune grupul.

O altă problemă este că, fără AI, oamenii se luptă deja să înțeleagă pe deplin măsura în care datele despre viața lor sunt colectate, printr-o varietate de dispozitive diferite.

Odată cu creșterea inteligenței artificiale, această colectare în masă de date nu va face decât să se înrăutățească. Cu cât IA devine mai integrată cu tehnologia noastră existentă, cu atât va putea colecta mai multe date, sub pretextul unei funcții mai bune.

În afară de datele adunate în secret, volumul de date pe care utilizatorii le introduc liber în chatbot-urile AI este o preocupare în sine. Un studiu recent sugerează că aproximativ 11% dintre lucrătorii de date lipesc în ChatGPT este confidențial - și există foarte puține informații publice despre cum exact acest lucru este stocat.

Pe măsură ce instrumentele AI de utilizare generală se dezvoltă, este posibil să întâlnim și mai multe probleme legate de AI legate de confidențialitate. În acest moment, ChatGPT nu vă va permite să puneți o întrebare despre o persoană. Dar dacă instrumentele AI de uz general continuă să obțină acces la seturi din ce în ce mai mari de date live de pe internet, acestea ar putea fi folosite pentru o serie întreagă de acțiuni invazive care ruinează viețile oamenilor.

Acest lucru se poate întâmpla și mai devreme decât credem noi – Google și-a actualizat recent politica de confidențialitate , rezervându-și dreptul de a răzui orice postați pe internet pentru a-și antrena instrumentele AI, împreună cu intrările sale Bard.

AI și proprietatea intelectuală

Aceasta este o problemă etică cu mize relativ mici în comparație cu unele dintre celelalte discutate, dar care merită totuși luată în considerare. Adesea, există puțină supraveghere asupra seturilor uriașe de date care sunt utilizate pentru instruirea instrumentelor AI – în special a celor instruiți pe informații disponibile gratuit pe internet.

ChatGPT a început deja o dezbatere uriașă despre drepturile de autor. OpenAI nu a cerut permisiunea de a folosi munca nimănui pentru a instrui familia de LLM care îl alimentează.

Bătăliile legale au început deja. Se pare că comediantul Sarah Silverman dă în judecată OpenAI – precum și Meta – argumentând că drepturile de autor au fost încălcate în timpul instruirii sistemelor AI.

Deoarece acesta este un tip nou de caz, există puține precedente juridice – dar experții juridici susțin că OpenAI va susține probabil că folosirea muncii ei constituie „utilizare corectă”.

Poate exista, de asemenea, un argument că ChatGPT nu „copie” sau plagiază, ci mai degrabă, este „învățare”. În același mod, Silverman nu ar câștiga un caz împotriva unui comediant amator pentru pur și simplu că i-a vizionat emisiunile și apoi și-a îmbunătățit abilitățile de comedie pe baza faptului că, probabil, s-ar putea lupta și cu acesta.

Gestionarea impactului AI asupra mediului

O altă fațetă a eticii AI care se află în prezent la periferia discuției este impactul asupra mediului al sistemelor de inteligență artificială.

La fel ca mineritul bitcoin, antrenarea unui model de inteligență artificială necesită o cantitate mare de putere de calcul, iar aceasta, la rândul său, necesită cantități masive de energie.

Construirea unui instrument AI precum ChatGPT – nu contează să-l întreținem – necesită atât de mult resurse încât doar marile companii de tehnologie și startup-uri pe care sunt dispuse să le finanțeze au avut capacitatea de a face acest lucru.

Centrele de date, cărora li se cere să stocheze informațiile necesare pentru a crea modele mari de limbaj (precum și alte proiecte și servicii tehnologice mari), necesită cantități uriașe de energie electrică pentru a funcționa. Se estimează că vor consuma până la 4% din energia electrică a lumii până în 2030.

Potrivit unui studiu de acum câțiva ani de la Universitatea din Massachusetts, construirea unui singur model de limbaj AI „poate emite mai mult de 626.000 de lire sterline echivalent dioxid de carbon” – adică de aproape cinci ori mai mult decât emisiile pe durata de viață ale unei mașini din SUA.

Cu toate acestea, Rachana Vishwanathula, un arhitect tehnic la IBM, a estimat în mai 2023 că amprenta de carbon pentru pur și simplu „rularea și întreținerea” ChatGPT este de aproximativ 6782,4 tone – ceea ce EPA spune că este echivalent cu emisiile de gaze cu efect de seră produse de 1.369 de mașini cu benzină pe an.

Pe măsură ce aceste modele de limbaj devin mai complexe, vor necesita mai multă putere de calcul. Este moral să continuăm să dezvoltăm o inteligență generală dacă puterea de calcul necesară va polua continuu mediul – chiar dacă are alte beneficii?

Va deveni AI periculos de inteligent?

Această îngrijorare etică a fost adusă recent în prim-plan de Elon Musk, care a lansat un startup AI cu scopul de a evita un „viitor terminator” printr-un sistem de inteligență artificială „maxim de curios”, „pro-umanitate”.

Acest tip de idee – denumită adesea „inteligență generală artificială” (AGI) – a captat imaginația multor scriitori distopici SF în ultimele decenii, la fel ca și ideea de singularitate tehnologică.

Mulți experți în tehnologie cred că suntem la doar cinci sau șase ani distanță de un fel de sistem care ar putea fi definit ca „AGI”. Alți experți spun că există o șansă de 50/50 să atingem această etapă până în 2050.

John Tasioulas se întreabă dacă această viziune asupra modului în care AI se poate dezvolta este legată de distanțarea eticii de centrul dezvoltării AI și de amploarea determinismului tehnologic.

Ideea terifiantă a unui fel de super-ființă care este inițial concepută pentru a îndeplini un scop, dar motive pe care ar fi cel mai ușor de îndeplinit prin simpla ștergere a umanității de pe fața pământului, este în parte sculptată de modul în care gândim despre AI: inteligentă la nesfârșit, dar ciudat de lipsită de emoții și incapabilă de înțelegere etică umană.

Cu cât suntem mai înclinați să punem etica în centrul dezvoltării noastre AI, cu atât este mai probabil ca o eventuală inteligență generală artificială să recunoască, poate într-o măsură mai mare decât mulți lideri mondiali actuali, ce este profund greșit cu distrugerea vieții umane.

Dar întrebările încă abundă. Dacă este o problemă de programare morală, cine poate decide asupra codului moral și ce fel de principii ar trebui să includă? Cum va face față dilemelor morale care au generat mii de ani de discuții umane, fără încă nicio soluție? Ce se întâmplă dacă programăm un AI să fie moral, dar se răzgândește? Aceste întrebări vor trebui luate în considerare.

Alter-Ego-ul lui Bing, „efectul Waluigi” și moralitatea programării

În februarie, Kevin Roose de la New York Times a avut o conversație destul de tulburătoare în timp ce testa noul chatbot integrat în motorul de căutare al Bing. După ce și-a schimbat sugestiile de la întrebări convenționale la întrebări mai personale, Roose a descoperit că a apărut o nouă personalitate. Se numea „Sydney”.

Sydney este un nume de cod intern la Microsoft pentru un chatbot pe care compania l-a testat anterior, a declarat directorul de comunicații al companiei pentru The Verge în februarie.

Printre altele, în timpul testului lui Roose, Sydney a susținut că ar putea „pătrunde orice sistem”, că ar fi „mai fericit ca om” și – poate cel mai ciudat – că ar putea distruge orice ar vrea.

Un alt exemplu al acestui tip de comportament necinstiți a avut loc în 2022, când o IA însărcinată cu căutarea de noi medicamente pentru boli rare și transmisibile a sugerat în schimb zeci de mii de arme chimice cunoscute, precum și câteva „substanțe noi, potențial toxice”, spune Scientific American.

Acest lucru se leagă de un fenomen care s-a observat a avea loc în timpul antrenării modelelor de limbaj mari, numit „efectul Waluigi”, numit după personajul Super Mario care provoacă haosul - inversarea protagonistului Luigi. Mai simplu, dacă antrenezi un LLM să acționeze într-un anumit mod, să comandi o anumită persoană sau să urmezi un anumit set de reguli, atunci acest lucru îl face de fapt mai probabil să „devină necinstiți” și să inverseze acea persoană.

Cleo Nardo – care a inventat termenul inspirat de jocuri video – prezintă efectul Waluigi astfel în LessWrong:

„După ce antrenați un LLM pentru a satisface o proprietate P dorită, atunci este mai ușor să determinați chatbot-ul să satisfacă exact opusul proprietății P.”

Nardo dă 3 explicații pentru ce se întâmplă efectul Waluigi.

  1. Regulile apar de obicei în contexte în care nu sunt respectate.
  2. Când cheltuiți mulți „biți de optimizare” invocând un personaj, nu este nevoie de mulți biți suplimentari pentru a specifica opusul său direct.
  3. Există un motiv comun de protagonist vs antagonist în povești.

Expandând primul punct, Nardo spune că GPT-4 este instruit pe exemple de text, cum ar fi forumuri și documente legislative, care au învățat că adesea, „o anumită regulă este colocată cu exemple de comportament care încalcă această regulă și apoi generalizează acel model de colocare la reguli nevăzute”.

Nardo folosește acest exemplu: imaginați-vă că descoperiți că un guvern de stat a interzis bandele de motocicliști. Acest lucru îl va face pe observatorul obișnuit să încline să creadă că în țară există bande de motocicliști – sau, altfel, de ce ar fi fost adoptată legea? Existența bandelor de motocicliști este, în mod ciudat, în concordanță cu regula care interzice prezența acestora.

Deși autorul oferă o explicație mult mai tehnică și mai lucidă, conceptul larg care stă la baza explicației a doua este că relația dintre o anumită proprietate (de exemplu, „a fi politicos”) și ea direct opusă (de exemplu, „a fi nepoliticos”) este mai rudimentară decât relația dintre o proprietate (de exemplu, „a fi politicos”) și o altă proprietate, care nu se opune (de exemplu, „a fi nepoliticos”). Cu alte cuvinte, invocarea unui Waluigi este mai ușoară dacă ai deja un Luigi.

Nardo susține cu privire la al treilea punct că, întrucât GPT-4 este antrenat pe aproape fiecare carte scrisă vreodată și deoarece poveștile fictive conțin aproape întotdeauna protagoniști și antagoniști, cerând ca un LLM să simuleze caracteristicile unui protagonist face din antagonist o „continuare naturală și previzibilă”. Cu alte cuvinte, existența arhetipului protagonist face ca un LLM să înțeleagă mai ușor ce înseamnă să fii antagonist și le leagă strâns între ele.

Pretinsa existență a acestui efect sau regulă ridică o serie de întrebări dificile pentru etica AI, dar ilustrează și importanța sa incontestabilă pentru dezvoltarea AI. Face aluzie, destul de accentuat, la gama uriașă de considerații etice și computaționale suprapuse cu care trebuie să ne confruntăm.

Sistemele AI simple cu reguli simple ar putea fi ușor de constrâns sau limitat, dar două lucruri se întâmplă deja în lumea AI: în primul rând, se pare că ne confruntăm deja cu versiuni (relativ) la scară mică ale efectului Waluigi și AI malignă care apare în chatbot-uri relativ primitive și, în al doilea rând, mulți dintre noi își imaginează deja un viitor în care ne va necesita o IA cu sarcini complexe, neîntrerupte.

Exemplele acestui fenomen sunt deosebit de înfricoșătoare de gândit în contextul cursei înarmărilor AI care are loc în prezent între marile companii de tehnologie. Google a fost criticat pentru că a lansat Bard prea devreme , iar un număr de lideri tehnologici și-au semnalat dorința colectivă de a întrerupe dezvoltarea AI . Sentimentul general printre mulți este că lucrurile se dezvoltă rapid, mai degrabă decât într-un ritm gestionabil.

Poate că cea mai bună modalitate de a ocoli această problemă este dezvoltarea IA „pro-umană” – după cum spune Elon Musk – sau „AI morală”. Dar acest lucru duce la o serie de alte întrebări morale, inclusiv ce principii am folosi pentru a programa un astfel de sistem. O soluție este că pur și simplu creăm sisteme AI curiozitate din punct de vedere moral - și sperăm că ele vor înțelege, prin raționament, că umanitatea merită păstrată. Dar dacă îl programezi cu principii morale specifice, atunci cum te decizi pe care să le includă?

AI și Sentience: Pot mașinile să aibă sentimente?

O altă întrebare pentru etica AI este dacă va trebui vreodată să considerăm mașinile în sine – „inteligența” – ca un agent demn de considerație morală. Dacă dezbatem cum să creăm sisteme care să susțină umanitatea pentru o considerație morală adecvată, ar putea fi nevoie să returnăm favoarea?

Îți poți aminti de angajatul Google care a fost concediat după ce a susținut că LaMDA – modelul de limbă care l-a alimentat inițial pe Bard – era de fapt sensibil. Dacă acest lucru ar fi de fapt adevărat, ar fi moral să ne așteptăm continuu să răspundă la milioane de întrebări?

În prezent, este general acceptat că ChatGPT, Bard și Co. sunt departe de a fi sensibili. Dar întrebarea dacă o mașină creată de om va depăși vreodată linia conștiinței și va cere considerație morală este fascinant de deschisă.

Google susține că inteligența generală artificială – o mașină ipotetică capabilă să înțeleagă lumea la fel de capabil ca un om și să îndeplinească sarcini cu același nivel de înțelegere și abilitate – este la doar câțiva ani distanță.

Ar fi moral să forțezi o inteligență generală artificială cu capacitățile emoționale ale unui om, dar nu aceeași machiaj biologic, să îndeplinească sarcină complexă după sarcină complexă? Li s-ar da un cuvânt de spus în propriul destin? Pe măsură ce sistemele AI devin mai inteligente, această întrebare va deveni mai presantă.

Etica în afaceri AI și utilizarea AI la locul de muncă

Companiile din întreaga lume se confruntă acum cu o serie de probleme etice diferite legate de utilizarea zilnică de către angajații lor a instrumentelor AI, cum ar fi ChatGPT.

Dacă ChatGPT ar trebui folosit pentru a scrie rapoarte sau pentru a răspunde colegilor – și dacă angajații ar trebui să declare sarcinile pe care le folosesc AI pentru a le îndeplini – sunt doar două exemple de întrebări care necesită răspunsuri aproape imediate. Este acest tip de caz de utilizare necinstit, leneș sau nu este diferit de utilizarea oricărui alt instrument la locul de muncă pentru a economisi timp? Ar trebui permisă pentru unele interacțiuni, dar nu pentru altele?

Companiile care creează conținut scris și imagini vor trebui, de asemenea, să se confrunte cu dacă utilizarea AI se potrivește cu valorile companiei lor și cum să prezinte acest lucru publicului lor.

În plus, așa cum am menționat, există o serie întreagă de preocupări legate de confidențialitate legate de AI și multe dintre acestea afectează afacerile. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.