Este inteligența artificială (AI) periculoasă?

Publicat: 2023-05-31

Luni, 22 mai 2023, un cont de Twitter verificat numit „Bloomberg Feed” a distribuit un tweet în care susținea că a avut loc o explozie la Pentagon, însoțit de o imagine. Dacă vă întrebați ce legătură are asta cu inteligența artificială (AI), imaginea a fost una generată de inteligență artificială, tweet-ul devenind rapid viral și provocând o scurtă scădere a bursierei. Lucrurile ar fi putut fi mult mai rău – o amintire clară a pericolelor inteligenței artificiale.

Pericole ale inteligenței artificiale

Nu trebuie să ne îngrijorăm doar despre știrile false. Există multe riscuri imediate sau potențiale asociate cu inteligența artificială, de la cele referitoare la confidențialitate și securitate până la probleme de părtinire și drepturi de autor. Ne vom scufunda în unele dintre aceste pericole ale inteligenței artificiale, vom vedea ce se face pentru a le atenua acum și în viitor și ne vom întreba dacă riscurile AI depășesc beneficiile.

Cuprins

    Știri false

    Când au apărut pentru prima dată deepfake-urile, au apărut îngrijorarea că ar putea fi folosite cu intenție rea. Același lucru s-ar putea spune și despre noul val de generatoare de imagini AI, cum ar fi DALL-E 2, Midjourney sau DreamStudio. Pe 28 martie 2023, imagini false generate de IA ale Papei Francisc într-o jachetă puf Balenciaga albă și bucurându-se de mai multe aventuri, inclusiv skateboarding și poker, au devenit virale. Cu excepția cazului în care ați studiat imaginile îndeaproape, era greu să distingeți aceste imagini de lucrurile reale.

    În timp ce exemplul cu papa a fost, fără îndoială, un pic distractiv, imaginea (și tweetul însoțitor) despre Pentagon a fost orice altceva. Imaginile false generate de inteligența artificială au puterea de a deteriora reputația, de a pune capăt căsătoriilor sau carierelor, de a crea tulburări politice și chiar de a începe războaie dacă sunt folosite de oamenii nepotriviți – pe scurt, aceste imagini generate de inteligența artificială au potențialul de a fi extrem de periculoase dacă sunt utilizate greșit.

    Cu generatoarele de imagini AI disponibile acum gratuit pentru folosirea oricui și Photoshop adăugând un generator de imagini AI la software-ul său popular, oportunitatea de a manipula imagini și de a crea știri false este mai mare ca niciodată.

    Confidențialitate, securitate și Hacking

    Confidențialitatea și securitatea sunt, de asemenea, preocupări uriașe atunci când vine vorba de riscurile AI, o serie de țări interzicând deja ChatGPT de la OpenAI. Italia a interzis modelul din motive legate de confidențialitate, considerând că nu respectă Regulamentul european general de protecție a datelor (GDPR), în timp ce guvernele Chinei, Coreei de Nord și Rusiei l-au interzis din cauza temerilor că ar răspândi dezinformare.

    Deci, de ce suntem atât de preocupați de confidențialitate când vine vorba de AI? Aplicațiile și sistemele AI adună cantități mari de date pentru a învăța și a face predicții. Dar cum sunt stocate și prelucrate aceste date? Există un risc real ca încălcarea datelor, piratarea și ca informațiile să cadă în mâini greșite.

    Nu doar datele noastre personale sunt în pericol. Hackingul AI este un risc real - nu s-a întâmplat încă, dar dacă cei cu intenții rău intenționate ar putea pirata sistemele AI, acest lucru ar putea avea consecințe grave. De exemplu, hackerii ar putea controla vehiculele fără șofer, pot sparge sisteme de securitate AI pentru a avea acces în locații extrem de sigure și chiar pot sparge sisteme de arme cu securitate AI.

    Experții de la Agenția de Proiecte Avansate de Cercetare în Apărare (DARPA) a Departamentului american al Apărării recunosc aceste riscuri și lucrează deja la proiectul DARPA Guaranteeing AI Robustness Against Deception (GARD), abordând problema de la zero. Scopul proiectului este de a se asigura că rezistența la hacking și manipulare este integrată în algoritmi și AI.

    Încălcarea drepturilor de autor

    Un alt pericol al AI este încălcarea drepturilor de autor. Acest lucru poate să nu sune la fel de grav ca alte pericole pe care le-am menționat, dar dezvoltarea modelelor AI precum GPT-4 expune pe toată lumea un risc crescut de încălcare.

    De fiecare dată când îi cereți lui ChatGPT să creeze ceva pentru dvs. – fie că este o postare pe blog despre călătorii sau un nume nou pentru afacerea dvs. – îi furnizați informații pe care apoi le folosește pentru a răspunde întrebărilor viitoare. Informațiile pe care vi le transmite ar putea încălca drepturile de autor ale altcuiva, motiv pentru care este atât de important să utilizați un detector de plagiat și să editați orice conținut creat de AI înainte de a-l publica.

    Prejudecățile societale și de date

    AI nu este uman, deci nu poate fi părtinitoare, nu? Gresit. Oamenii și datele sunt folosite pentru a antrena modele AI și chatbot, ceea ce înseamnă că datele sau personalitățile părtinitoare vor avea ca rezultat o IA părtinitoare. Există două tipuri de părtinire în IA: părtinire societală și părtinire a datelor.

    Cu multe prejudecăți prezente în societatea de zi cu zi, ce se întâmplă când aceste părtiniri devin parte din AI? Programatorii responsabili cu antrenarea modelului ar putea avea așteptări părtinitoare, care apoi își fac loc în sistemele AI.

    Sau datele folosite pentru a antrena și dezvolta o IA ar putea fi incorecte, părtinitoare sau colectate cu rea-credință. Acest lucru duce la părtinirea datelor, care poate fi la fel de periculoasă ca și părtinirea societății. De exemplu, dacă un sistem de recunoaștere facială este antrenat folosind în principal fețele persoanelor albe, poate avea dificultăți să-i recunoască pe cei din grupurile minoritare, perpetuând opresiunea.

    Roboții care ne iau locurile de muncă

    Dezvoltarea chatbot-urilor precum ChatGPT și Google Bard a deschis o nouă îngrijorare în jurul AI: riscul ca roboții să ne ocupe locurile de muncă. Vedem deja scriitori din industria tehnologiei înlocuiți de AI, dezvoltatori de software îngrijorați că își vor pierde locurile de muncă din cauza roboților și companii care folosesc ChatGPT pentru a crea conținut de blog și conținut de rețele sociale, în loc să angajeze scriitori umani.

    Conform Raportului privind viitorul locurilor de muncă 2020 al Forumului Economic Mondial, AI este de așteptat să înlocuiască 85 de milioane de locuri de muncă în întreaga lume până în 2025. Chiar dacă AI nu înlocuiește scriitorii, este deja folosită ca instrument de mulți. Cei care au locuri de muncă cu risc de a fi înlocuiți de AI ar putea avea nevoie să se adapteze pentru a supraviețui – de exemplu, scriitorii pot deveni ingineri prompti AI, permițându-le să lucreze cu instrumente precum ChatGPT pentru crearea de conținut, mai degrabă decât să fie înlocuiți de aceste modele.

    Riscuri potențiale viitoare ale IA

    Acestea sunt toate riscuri imediate sau care se profilează, dar cum rămâne cu unele dintre pericolele mai puțin probabile, dar încă posibile, ale IA pe care le-am putea vedea în viitor? Acestea includ lucruri precum AI care este programată pentru a dăuna oamenilor, de exemplu, arme autonome antrenate să omoare în timpul unui război.

    Apoi, există riscul ca inteligența artificială să se poată concentra asupra obiectivului său programat, dezvoltând comportamente distructive în timp ce încearcă să atingă acest obiectiv cu orice preț, chiar și atunci când oamenii încearcă să oprească acest lucru.

    Skynet ne-a învățat ce se întâmplă când un AI devine sensibil. Cu toate acestea, deși este posibil ca inginerul Google Blake Lemoine să fi încercat să convingă pe toată lumea că LaMDA, generatorul de chatbot cu inteligență artificială al Google a fost sensibil în iunie 2022, din fericire, nu există nicio dovadă până în prezent care să sugereze că este adevărat.

    Provocările reglementării IA

    Luni, 15 mai 202, CEO-ul OpenAI, Sam Altman, a participat la prima audiere a Congresului privind inteligența artificială, avertizând: „Dacă această tehnologie merge prost, poate merge foarte prost”. CO OpenAI a spus clar că este în favoarea reglementării și a prezentat multe dintre propriile sale idei în audiere. Problema este că AI evoluează cu o asemenea viteză, e greu de știut de unde să începi cu reglementarea.

    Congresul vrea să evite să facă aceleași greșeli făcute la începutul erei rețelelor sociale, iar o echipă de experți, alături de liderul majorității din Senat, Chuck Schumer, lucrează deja la reglementări care ar impune companiilor să dezvăluie ce surse de date au folosit pentru a antrena modelele și cine. i-a antrenat. Poate trece ceva timp până când exact cum va fi reglementată AI să devină clar, totuși și, fără îndoială, vor exista reacții din partea companiilor AI.

    Amenințarea unei inteligențe generale artificiale

    Există și riscul creării unei inteligențe generale artificiale (AGI) care ar putea îndeplini orice sarcini pe care le-ar putea îndeplini o ființă umană (sau un animal). Deseori menționate în filmele SF, probabil că suntem încă la zeci de ani de o astfel de creație, dar dacă și când creăm un AGI, acesta ar putea reprezenta o amenințare pentru umanitate.

    Multe persoane publice susțin deja credința că AI reprezintă o amenințare existențială pentru oameni, inclusiv Stephen Hawking, Bill Gates și chiar fostul CEO Google Eric Schmidt, care a declarat: „Inteligenta artificială ar putea prezenta riscuri existențiale și guvernele trebuie să știe cum să se asigure că tehnologia nu este folosită greșit de oameni răi.”

    Deci, este inteligența artificială periculoasă și riscul ei depășește beneficiile sale? Juriul este încă în discuție, dar deja vedem dovezi ale unora dintre riscurile din jurul nostru chiar acum. Alte pericole sunt mai puțin probabil să se concretizeze în curând, dacă este deloc. Un lucru este însă clar: pericolele AI nu trebuie subestimate. Este de cea mai mare importanță să ne asigurăm că AI este reglementată în mod corespunzător încă de la început, pentru a minimiza și, sperăm, a atenua orice riscuri viitoare.