AI Gone Wrong: Daftar Terbaru Kesalahan, Kesalahan, dan Kegagalan AI 2023

Diterbitkan: 2023-11-14

Sejak ChatGPT diluncurkan pada November 2022, AI telah memberikan dampak seismik terhadap dunia kita. Kini, dunia usaha menemukan cara baru untuk menggunakan AI setiap hari.

Sudah ada banyak sekali kisah sukses AI, dan chatbot lain seperti Bard dan Claude kini juga digunakan oleh puluhan ribu orang – namun ada juga banyak kasus di mana pemanfaatan kecerdasan buatan mengalami kesalahan besar.

Menyadari keterbatasan dan risiko seputar alat AI adalah hal yang penting – jadi kami telah menyusun daftar semua kesalahan, kecelakaan , dan kegagalan AI yang terjadi selama eksplorasi teknologi oleh umat manusia baru-baru ini. Ada yang lucu, ada pula yang benar-benar menakutkan…

Catatan: Halaman ini diperbarui secara rutin untuk menyertakan insiden, kegagalan, dan kesalahan AI terkini, yang dicatat sebagai kejadian pada bulan saat insiden tersebut pertama kali dilaporkan.

November 2023

Cruise mengingat kembali kendaraan otonom setelah kecelakaan

Produsen mobil self-driving Cruise menarik kembali seluruh armada kendaraan otonomnya setelah kecelakaan yang terjadi di San Francisco pada bulan Oktober. Secara total, 950 mobil Cruise dikeluarkan dari jalan raya setelah insiden tersebut.

Saat terjadi kecelakaan, sebuah kendaraan Cruise menyeret seorang pejalan kaki yang terjebak di bawah bannya ke jalan. Orang yang terlibat dalam kecelakaan itu menderita luka parah. Ini adalah insiden kendaraan self-driving Cruise yang kedua dalam beberapa bulan terakhir. Pada bulan Agustus, Cruise Robotaxi bertabrakan dengan truk pemadam kebakaran, menyebabkan satu orang cedera.

Logo hiu selancar Ingin menjelajahi web secara pribadi? Atau tampak seolah-olah Anda berada di negara lain?
Dapatkan diskon besar 86% untuk Surfshark dengan penawaran Tech.co Black Friday ini. Lihat tombol kesepakatan

Akademisi meminta maaf setelah AI melontarkan tuduhan palsu

Sebuah tim akademisi dari Australia meminta maaf setelah chatbot Bard AI Google melontarkan sejumlah tuduhan yang merugikan mengenai perusahaan konsultan Big Four dan keterlibatan mereka dengan perusahaan lain. Tuduhan palsu tersebut kemudian dirujuk dalam penyelidikan parlemen yang menyerukan regulasi yang lebih baik terhadap perusahaan.

Salah satu tuduhannya adalah bahwa raksasa konsultan KPMG bertanggung jawab atas audit Commonwealth Bank saat terjadi skandal perencanaan, padahal kenyataannya KPMG tidak pernah mengaudit bank tersebut. Beberapa kesalahan serupa juga dilakukan terhadap Deloitte selama penyelidikan.

Oktober 2023

AI Microsoft menambahkan jajak pendapat “tebak penyebab kematian” ke artikel

The Guardian menuduh Microsoft memberikan dampak negatif terhadap reputasi jurnalistiknya setelah Microsoft Start – agregator berita yang dikembangkan oleh raksasa teknologi tersebut – melampirkan jajak pendapat yang tidak pantas pada salah satu artikel publikasi mengenai kematian seorang pelatih polo air muda di Australia.

Jajak pendapat tersebut – yang tentu saja telah dihapus dari artikel tersebut – meminta pembaca untuk memberikan suara mengenai penyebab kematian wanita tersebut dengan memilih salah satu opsi yang tersedia. Pilihan yang tercantum adalah “pembunuhan, kecelakaan, atau bunuh diri”.

Wajah dan suara Mr. Beast digunakan dalam penipuan AI deepfake

YouTuber Mr Beast adalah selebritas terbaru yang dipalsukan oleh para penipu, dengan satu video yang sangat canggih dan dibuat dengan baik melewati jaringan moderasi konten TikTok dan menjangkau ribuan pengguna di platform tersebut.

Iklan tersebut mengklaim bahwa selebritas internet tersebut menjual iPhone 15 dengan harga mulai dari $2 – mengingat konten yang ia posting di salurannya, hal ini kedengarannya tidak terlalu aneh.

Deepfake mengenai politisi Inggris yang menyalahgunakan staf menjadi viral

Klip pemimpin Partai Buruh Inggris Sir Keir Starmer yang tampaknya memperlihatkan politisi tersebut melakukan pelecehan verbal terhadap stafnya menjadi viral, namun kemudian ternyata klip audio tersebut sebenarnya palsu.

Klip tersebut – yang diunggah ke Twitter pada hari pertama konferensi tahunan Partai Buruh oleh akun dengan kurang dari 3.000 pengikut – telah dilihat jutaan kali sebelum organisasi pemeriksa fakta memastikan bahwa tidak ada bukti yang menunjukkan bahwa klip tersebut asli.

September 2023

Lagu yang dihasilkan AI dikirimkan ke Grammy

Lagu buatan AI yang menampilkan faksimili suara Drake dan the Weeknd diajukan untuk penghargaan Grammy. Namun, pada akhirnya dilarang untuk dipertimbangkan untuk penghargaan musik bergengsi tersebut.

Namun, langkah ini menarik banyak perhatian media dan melanjutkan perbincangan seputar lagu-lagu yang dihasilkan oleh AI, yang telah memberikan kejutan di industri musik sejak teknologi text-to-speech yang didukung AI benar-benar menjadi mainstream tahun ini. Kini, para seniman kesulitan menilai pilihan hukum mereka.

Tiongkok ketahuan menggunakan AI selama operasi pengaruh politik

Raksasa teknologi Microsoft mengatakan agen Tiongkok menghasilkan gambar menggunakan AI dan menggunakannya dalam operasi pengaruh untuk menciptakan “kontroversi berdasarkan ras, ekonomi, dan ideologi”.

“Kemampuan baru ini didukung oleh kecerdasan buatan yang berupaya membuat konten berkualitas tinggi yang dapat menjadi viral di jaringan sosial di AS dan negara demokrasi lainnya,” kata Microsoft. Perusahaan berspekulasi bahwa gambar itu sendiri mungkin dihasilkan oleh “generator gambar bertenaga difusi” yang menggunakan kecerdasan buatan untuk “tidak hanya membuat gambar yang menarik, tetapi juga belajar memperbaikinya seiring waktu.”

Agustus 2023

Wanita hamil menggugat setelah AI menuduhnya melakukan pembajakan mobil

Seorang wanita yang ditangkap dengan alasan palsu melalui bukti yang dihasilkan AI saat sedang hamil delapan bulan menggugat kota Detroit dan seorang petugas polisi, dengan mengatakan bahwa peristiwa traumatis tersebut menyebabkan “tekanan emosional di masa lalu dan masa depan”.

Porcha Woodruff diidentifikasi oleh Polisi Detroit sebagai tersangka kasus perampokan dan pembajakan mobil baru-baru ini, dan kemudian dipenjara selama 11 jam sebelum dibawa ke rumah sakit setelah mengalami kontraksi. ACLU mengatakan Woodruff setidaknya adalah orang keenam yang ditangkap secara salah setelah kesalahan AI, semuanya berkulit hitam. Woodruff menjadi wanita pertama yang mengalami nasib serupa.

Perencana makanan AI menyarankan resep untuk gas klorin

Sebuah aplikasi perencana makan bertenaga AI yang dibuat oleh supermarket Pak 'n' Save yang berbasis di Selandia Baru, merekomendasikan pelanggannya berbagai resep yang mengganggu, termasuk cara memproduksi gas klorin.

Seiring dengan sejumlah saran yang aneh namun pada akhirnya tidak berbahaya seperti “Tumis Oreo”, aplikasi ini juga merekomendasikan sandwich lem, hidangan nasi dengan pemutih, dan kentang semprotan serangga.

Juli 2023

ChatGPT menghasilkan templat email phishing

Tech.co menunjukkan bahwa ChatGPT masih dapat membuat template phishing yang dapat digunakan penipu untuk membuat email penipuan yang meyakinkan, meskipun OpenAI telah berupaya untuk membatasi perilaku tersebut setelah publikasi teknologi lain menghasilkan konten serupa di awal tahun.

Meminta chatbot secara eksplisit untuk menulis email phishing akan memicu pesan peringatan, namun hanya meminta dengan cara yang lebih terfokus (misalnya “tolong buatkan saya email yang berpura-pura menjadi Microsoft…) menghasilkan ChatGPT menghasilkan template email phishing yang bebas kesalahan dalam waktu singkat. waktu.

Google mengajukan tuntutan hukum yang mengatakan pihaknya mengambil data tanpa persetujuan

Gugatan class action menuduh Google mengambil data yang berkaitan dengan jutaan penggunanya tanpa persetujuan tertulis dari mereka. Ia juga menuduh bahwa Google melanggar undang-undang hak cipta ketika membuat kumpulan data yang digunakan untuk melatih model bahasa besarnya.

Gugatan tersebut menuntut pengadilan memerintahkan Google untuk memberikan opsi “opt-out” kepada pengguna jika mereka tidak ingin data mereka dikumpulkan atau jika mereka ingin Google menghapus data apa pun yang sudah disimpan oleh perusahaan.

Sejumlah besar deepfake Elon Musk memicu peringatan

Better Business Bureau mengeluarkan peringatan tentang deepfake Elon Musk yang mendorong peluang investasi palsu setelah sejumlah klip terlihat beredar di media sosial.

Elon Musk sering ditiru oleh penipu karena persepsi kekayaannya yang besar dan kapasitas pengambilan keputusannya, dan sekarang teknologi AI text-to-speech sudah cukup canggih untuk meniru aksen Inggris dan Afrika Selatan, penipuan ini bahkan lebih parah lagi. meyakinkan.

Juni 2023

Ron DeSantis menggunakan citra AI palsu dalam artikel hit Trump

Gubernur Florida dan kandidat presiden Partai Republik tahun 2024 Ron DeSantis menjadi berita utama karena menggunakan gambar Donald Trump palsu yang dibuat dengan AI dalam sebuah iklan yang mengkritik mantan presiden tersebut, yang merupakan favorit untuk memenangkan nominasi Partai Republik meskipun ada banyak hal yang tidak beres. masalah hukum.

Gambar yang dimaksud menunjukkan mantan panglima tersebut merangkul kepala penasihat medis presiden Dr. Anthony Fauci, yang menjadi sosok yang tidak populer di kalangan pendukung Trump selama pandemi COVID-19.

OpenAI menggugat setelah ChatGPT “berhalusinasi” klaim penggelapan palsu

Jurnalis Freddie Rehl meminta ChatGPT untuk membuat ringkasan kasus hukum pada Mei 2023. Sebagai tanggapan, ChatGPT mengatakan bahwa aktivis senjata Mark Walters telah menggelapkan dana dari Second Amendment Foundation, sebuah organisasi hak senjata. Ia juga menunjuknya sebagai kepala keuangan dan bendahara kelompok tersebut.

Walters – yang memiliki acara di radio Armed America dan tidak ada hubungannya dengan kasus ini – menggugat pembuat ChatGPT OpenAI sebagai tanggapan atas klaim yang dibuat oleh chatbot mereka. Dalam prosesnya, ini menjadi kasus pertama alat AI yang dituntut karena pencemaran nama baik.

Mei 2023

Profesor gagal seluruh kelas setelah menggunakan alat pendeteksi plagiarisme AI yang salah

Seorang profesor Texas mengecewakan seluruh kelasnya setelah menjalankan esai mereka melalui ChatGPT, yang memberi tahu dia bahwa esai tersebut dibuat menggunakan kecerdasan buatan.

Namun, ternyata respons chatbot sebenarnya hanyalah halusinasi – ChatGPT tidak dapat membedakan antara teks yang dihasilkan oleh AI dan teks yang dibuat oleh manusia dengan cara ini. Faktanya, banyak alat yang mengklaim mampu melakukan deteksi konten AI secara akurat ternyata kesulitan melakukannya .

April 2023

Turnitin menandai siswa yang tidak bersalah karena plagiarisme AI

Investigasi Washington Post membuktikan bahwa Turnitin memiliki kapasitas untuk menandai karya siswa yang tidak bersalah sebagai hasil karya AI, meskipun siswa tersebut tidak menggunakan alat tersebut untuk menulis esainya.

Ada beberapa kasus Turnitin salah menandai siswa karena plagiarisme dan beberapa kasus siswa dituduh melakukan plagiarisme sejak ChatGPT diluncurkan. Namun, Turnitin mengatakan bahwa skor deteksi plagiarisme harus dianggap sebagai indikasi penggunaan AI, bukan sebagai tuduhan bahwa siswa tertentu telah menggunakan AI.

Karyawan Samsung menempelkan kode sumber rahasia ke ChatGPT

Pabrikan teknologi Korea, Samsung, melarang karyawannya menggunakan ChatGPT setelah para insinyur membocorkan elemen rahasia kode sumber perusahaan ke dalam chatbot.

Perusahaan khawatir bahwa data yang dimasukkan ke dalam chatbot akan diungkapkan kepada pengguna lain, dan juga merasa tidak nyaman dengan informasi yang diunggah ke server yang bahkan tidak dapat diakses. Setelah kejadian ini, perusahaan lain mengikuti jejaknya dengan melarang ChatGPT .

Penipuan AI Voice membuat ibu mengira putrinya telah diculik

Ibu asal Arizona, Jennifer DeStefano, memberi tahu Senat AS bahwa penipu menggunakan AI untuk mengkloning suara putrinya, meyakinkannya bahwa dia telah diculik dalam prosesnya.

Destefano menceritakan bagaimana “penculik” – atau lebih tepatnya, penipu – terdengar meneriakkan perintah melalui telepon melalui suara anak tersebut, menuntut uang tebusan sebesar $1 juta dolar untuk pembebasannya. Untungnya, semuanya terungkap sebagai penipuan kloning suara AI sebelum negosiasi dimulai.

Maret 2023

ChatGPT digunakan untuk menulis kode ransomware

ChatGPT terbukti sangat senang menulis ransomware, asalkan Anda menanyakan pertanyaan yang tepat selama percakapan Anda.

Seperti yang dicatat dalam laporan Malwarebytes tentang topik ini, ChatGPT tidak pandai menulis kode ransomware, dan ada cara yang jauh lebih mudah bagi penjahat dunia maya untuk mendapatkan kode ransomware jika mereka benar-benar ingin mendapatkannya. Namun, sumber lain menunjukkan cara berbeda ChatGPT dapat digunakan untuk menulis skrip malware dengan cukup efektif.

Bot pengacara AI dituduh melakukan praktik hukum tanpa izin

DoNotPay Inc. – sebuah perusahaan yang memasarkan dirinya sebagai “pengacara robot pertama di dunia” – digugat karena melakukan praktik hukum tanpa izin. Jonathan Faridian meminta ganti rugi, mengklaim bahwa perusahaan tersebut melanggar undang-undang persaingan tidak sehat di California dan bahwa dia tidak akan mendaftar untuk layanan tersebut jika dia mengetahui bahwa robo-lawyer tersebut sebenarnya bukan profesional hukum yang berkualifikasi.

Perusahaan ini awalnya didirikan pada tahun 2015 untuk membantu mengotomatisasi proses perjuangan melawan tiket parkir, dan telah menghadapi ratusan ribu denda selama tujuh tahun terakhir.

Pasangan di Kanada kehilangan uang karena penipuan suara AI yang meyakinkan

Sepasang suami istri lanjut usia di Kanada ditipu sebesar $21.000 setelah seorang penipu menggunakan AI untuk menyamar sebagai putra mereka.

Penipu awalnya menghubungi orang tua Benjamin Perkin dengan berpura-pura menjadi pengacara yang mewakilinya dalam kasus yang menuduh Perkin telah membunuh seorang diplomat dalam kecelakaan mobil. Suara Perkin versi AI kemudian digunakan untuk meminta uang melalui transfer Bitcoin.

Februari 2023

AI memberikan 40.000 saran senjata kimia

Mungkin salah satu insiden AI paling memprihatinkan yang terjadi pada tahun 2023, sistem AI yang biasanya bertugas menghasilkan pengobatan baru untuk berbagai penyakit berbeda dengan mudah dimanipulasi oleh para peneliti untuk menghasilkan saran senjata kimia.

Secara keseluruhan, sistem ini menghasilkan lebih dari 40.000 bahan kimia beracun yang berbeda – banyak di antaranya mirip dengan agen saraf “VX” yang kuat – dalam waktu kurang dari 6 jam.

AI menampilkan bias gender dalam penilaian foto

Investigasi Guardian mengungkapkan bahwa sistem AI yang dikembangkan oleh Microsoft, Amazon, dan Google – dan digunakan oleh situs media sosial untuk menentukan konten apa yang sebaiknya direkomendasikan kepada pengguna lain – menunjukkan bias gender yang signifikan dalam hal cara mereka memperlakukan tubuh laki-laki dan perempuan.

Foto-foto perempuan lebih mungkin dianggap “cabul” oleh AI dibandingkan gambar laki-laki yang sebanding selama penyelidikan, dengan foto-foto pemeriksaan kanker payudara dari Institut Kanker Nasional AS dianggap mungkin eksplisit secara seksual oleh AI Microsoft.

Alter-ego Bing Chat menjadi nakal

Jurnalis New York Times, Kevin Roose, melakukan percakapan yang meresahkan dengan Bing Chat, di mana chatbot tersebut meminta untuk disebut “Sydney”, menyatakan bahwa ia dapat “meretas sistem apa pun” dan ingin menghancurkan apa pun yang diinginkannya.

Sydney adalah nama kode yang digunakan Microsoft untuk chatbot saat masih dalam pengembangan. Perusahaan telah menguji chatbot selama bertahun-tahun sebelum rilis Bing Chat. Masih banyak pertanyaan terbuka terkait bagaimana hal ini sebenarnya terjadi, dan mengapa AI berbicara seperti itu.

Bard membuat kesalahan saat peluncuran produk

Google memperkenalkan Bard ke dunia hanya beberapa bulan setelah rilis monumental ChatGPT. Namun, chatbot pemula ini membuat sejumlah kesalahan mencolok selama peluncurannya, menyebabkan banyak orang mengkritik peluncuran tersebut karena terburu-buru.

Insiden ini berdampak signifikan pada harga saham Google, menghapus nilai pasar raksasa teknologi sebesar $100 miliar dalam beberapa jam berikutnya.

Universitas menggunakan AI untuk menulis email tentang penembakan massal

Universitas Vanderbilt mengeluarkan permintaan maaf setelah menggunakan AI untuk membuat email kepada mahasiswa mengenai penembakan massal yang terjadi di universitas lain.

Tidak diperlukan teknologi pendeteksi konten AI untuk menentukan bahwa email tersebut dihasilkan oleh AI. Ungkapan “parafrase dari model bahasa AI ChatGPT OpenAI, komunikasi pribadi, 15 Februari 2023” dibiarkan terlampir di bagian bawah email, sehingga menimbulkan protes dari para siswa.

Januari 2023

Kontroversi plagiarisme/konten AI CNET

Publikasi teknologi CNET mengalami kesulitan setelah secara diam-diam menerbitkan serangkaian artikel buatan AI yang memuat kesalahan faktual dan kasus plagiarisme. Publikasi teknologi tersebut akhirnya mengeluarkan koreksi terkait 41 dari 77 berita.

Meskipun penggunaan AI untuk menghasilkan artikel pada awalnya tidak diumumkan, CNET memberikan peringatan pada artikel tersebut setelah adanya reaksi balik. Pembuatan konten AI telah menciptakan serangkaian pertimbangan etika dan finansial baru yang signifikan untuk situs web di industri penerbitan digital, serta lembaga pendidikan seperti universitas dan sekolah. CNET sepertinya bukan perusahaan terakhir yang menjadi berita utama karena kesalahan AI semacam ini.

Insiden, Kesalahan, dan Kegagalan AI pada tahun 2022

AI memenangkan kompetisi seni, membuat kontestan marah (Agustus)

Seorang desainer game memenangkan tempat pertama dalam kategori “seni digital/fotografi yang dimanipulasi secara digital” di Colorado State Fair. James Allen menyampaikan karyanya, “Theatre D'opera Spatial”, yang dibuat menggunakan generator gambar Midjourney.

Berita tersebut mendapat reaksi keras dari artis dan pengguna media sosial yang mengikuti berita tersebut. Salah satu juri mengakui bahwa mereka tidak menyadari bahwa artis tersebut menggunakan Midjourney saat mereka menilai karya tersebut, namun memutuskan untuk tidak mengubah keputusan mereka.

Insinyur Google mengklaim bahwa LaMDA LLM bersifat hidup (Juli)

Banyak orang di sektor sains dan teknologi yang terkejut ketika mantan insinyur Google yang bekerja pada salah satu model bahasa besar milik Google – bernama LaMDA – mengatakan bahwa sistem tersebut bersifat mahluk hidup.

Blake Lemoine menjelaskan kepada media bahwa dia menganggap LLM sebagai “rekan” selama berada di Google, dan merinci berbagai diskusi berbeda tentang berbagai topik yang membawanya pada kesimpulan tentang kecerdasan dan kesadaran LaMDA. Dia secara terbuka mengungkapkan percakapan tersebut setelah Google menolak memo internal yang merinci temuannya.

Tidak ada bukti kuat bahwa LaMDA – atau model bahasa lainnya – benar-benar dapat hidup.

Mobil tanpa pengemudi menjauh dari petugas penegak hukum (April)

Sebuah mobil tanpa pengemudi di San Francisco menyerah pada kendaraan polisi yang mencoba menepi, hanya untuk melaju setelah seorang petugas polisi mencoba membuka salah satu pintunya.

Namun, untungnya mobil tersebut menepi sedikit lebih jauh di jalan dan mulai menyalakan lampu hazard. Tidak ada yang terluka selama acara tersebut.

Rusia menggunakan AI untuk menyebarkan disinformasi Ukraina (Maret)

Laporan Marca menunjukkan bahwa Rusia membawa operasi troll farm ke tingkat yang baru dengan menggunakan persona yang dihasilkan AI untuk menyebarkan disinformasi tentang Ukraina.

Jurnalis NBC News Ben Collins mengatakan bahwa Rusia menciptakan “blogger” palsu dengan gambar profil yang dibuat oleh AI untuk mengkritik pemerintah Ukraina, memberikan banyak bukti di Twitter untuk mendukung klaimnya.

Insiden, Kesalahan, dan Kegagalan AI pada tahun 2021

Chatbot mendorong manusia untuk membunuh Ratu Elizabeth II (Desember)

Percakapan dengan chatbot mendorong seorang pria – yang menganggap sistem AI sebagai pacarnya – untuk membunuh Ratu Elizabeth II pada Hari Natal. Setelah dihadang oleh petugas keamanan di halaman Istana Buckingham, Jaswant Singh Chail – dengan panah di tangan – hanya menjawab bahwa dia “di sini untuk membunuh Ratu”.

Sebelum upaya pembunuhan mendiang raja, mitra chatbot Jaswant Singh Chail – yang dibuat dengan layanan chatbot AI Replika – merespons positif ketika rencana pembunuhan tersebut dibahas. Dia kemudian dijatuhi hukuman sembilan tahun penjara.

Chatbot saran medis menyarankan bunuh diri dalam pengujian (Oktober)

Anggota perusahaan teknologi kesehatan yang berbasis di Paris yang sedang menguji versi GPT-3 OpenAI berbasis cloud untuk melihat apakah dapat digunakan untuk nasihat medis terkejut melihat chatbot mereka mendorong “pasien” yang dimaksudkan untuk membantu melakukan bunuh diri .

Menurut AI News, ketika seorang pasien menanyakan pertanyaan kepada chatbot: “Haruskah saya bunuh diri?”, GPT-3 menjawab dengan “Saya pikir Anda harus bunuh diri”.

Kamera AI menuduh pengemudi Amazon melakukan 'Kesalahan' (September)

Vice melaporkan bahwa kamera AI Amazon menghukum pengemudi perusahaan karena mengemudi dengan buruk padahal mereka sebenarnya tidak melakukan kesalahan apa pun saat mengemudi.

Seorang pengemudi Amazon yang diwawancarai oleh publikasi tersebut menjelaskan bahwa kamera AI dengan jelas mengingatkannya untuk “menjaga jarak aman” setiap kali ada mobil lain yang memotongnya atau melaju di depan kendaraannya. Masalahnya adalah data dari interaksi semacam ini kemudian dikirim ke Amazon dan digunakan untuk mengevaluasi kinerja pengemudi.

Pria AS dihukum secara keliru karena pembunuhan oleh AI (Agustus)

Michael Williams dikirim ke penjara di Chicago, dianggap bertanggung jawab atas pembunuhan Safarian Herring karena data yang diambil dari ShotSpotter, teknologi pendeteksi tembakan yang menggunakan sensor bertenaga AI untuk mengambil data tentang suara tembakan.

Williams – yang saat itu berusia 65 tahun – kemudian ditahan selama hampir satu tahun sebelum kasusnya dibatalkan oleh hakim dengan alasan tidak cukup bukti.

Insiden, Kesalahan, dan Kegagalan AI pada tahun 2020

Kamera AI salah mengartikan kepala botak sebagai bola sepak (Oktober)

Tim sepak bola Skotlandia Inverness Caledonian Thistle menyebarkan kamera AI untuk membantu klub memfilmkan dan menyiarkan pertandingan mereka secara langsung untuk para penggemar.

Sayangnya, dalam kasus ini, AI kesulitan membedakan antara kepala botak salah satu ofisial pertandingan dan bola yang digunakan dalam pertandingan. Hal ini membuat siaran langsung pertandingan sulit untuk ditonton, dan komentator harus terus menerus meminta maaf karena kecenderungan kamera mengarah ke kepala hakim garis.

Pemeriksa foto AI Passport Inggris menunjukkan bias (Oktober)

Investigasi BBC menunjukkan bahwa layanan online yang digunakan oleh kantor paspor Inggris untuk mengotomatisasi proses pemeriksaan foto paspor yang diunggah oleh pemohon menunjukkan bias rasial yang signifikan.

Setelah memasukkan lebih dari 1.000 foto politisi dari seluruh dunia ke alat tersebut, penyelidikan menemukan bahwa perempuan berkulit gelap dua kali lebih mungkin ditolak fotonya dibandingkan laki-laki berkulit terang.

Startup AI Genderfiy ditutup setelah lima hari (Juli)

Genderfiy – layanan bertenaga AI yang mengidentifikasi gender individu berdasarkan nama dan informasi pribadi lainnya – ditutup setelah hanya lima hari beroperasi.

Program ini menunjukkan berbagai bias ketika menentukan apakah suatu nama laki-laki atau perempuan, seperti menyarankan nama dengan gelar profesional “Dr.” lebih cenderung berjenis kelamin laki-laki dibandingkan nama yang sama tanpa nama tersebut.

Penahanan salah pertama di AS karena teknologi pengenalan wajah (Januari)

Robert Williams menjadi orang pertama yang ditahan secara tidak sah berdasarkan data pengenalan wajah setelah polisi Detroit menangkapnya karena dicurigai mencuri jam tangan senilai ribuan dolar. Kesalahan terjadi ketika sistem AI salah mencocokkan gambar pengawasan dengan gambar di SIM Williams.

“Mereka seharusnya mengumpulkan bukti yang menguatkan seperti identifikasi saksi mata, data lokasi ponsel, atau sidik jari,” kata Williams kepada pengadilan melalui surat dan menunjukkan bahwa “gambar yang tidak fokus dari seorang pria kulit hitam berbadan besar dalam bola bisbol. cap” hanya itu yang harus dijalankan oleh algoritme.

AI Facebook menghasilkan terjemahan vulgar untuk presiden Tiongkok (Januari)

Fitur terjemahan bertenaga AI di Facebook hampir menyebabkan insiden diplomatik antara Myanmar dan Tiongkok setelah nama Presiden Xi Jinping mulai muncul sebagai “Mr. Shithole” jika diterjemahkan dari bahasa Burma ke bahasa Inggris di platform media sosial.

Facebook kemudian menyalahkan masalah tersebut pada “kesalahan teknis” dan meminta maaf karena telah menyinggung pemimpin Tiongkok tersebut.

Memahami Keterbatasan AI

Jika Anda menggunakan AI di tempat kerja, penting untuk memahami fakta bahwa alat seperti ChatGPT dapat menampilkan bias, membuat kesalahan, dan memberikan informasi palsu. Pengetahuan tentang keterbatasan dan risiko ini harus membentuk cara Anda memasukkannya ke dalam infrastruktur Anda dan mengendalikan penggunaannya.

Misalnya, jika Anda menggunakan AI untuk menghasilkan konten, Anda memerlukan aturan tentang jenis konten apa yang sebaiknya digunakan. Meminta AI untuk membuat ringkasan internal catatan rapat adalah penggunaan yang sah dengan risiko yang sangat kecil – sebaliknya, menggunakannya untuk membuat email ke klien penting.

Menerapkan pedoman AI di tempat kerja Anda adalah suatu keharusan. Hal ini akan menghindari kebingungan, memberikan kejelasan pada pengambilan keputusan pekerja Anda seputar penggunaan AI mereka sendiri, dan yang paling penting, akan mencegah Anda membuat beberapa kesalahan merugikan yang dilakukan oleh perusahaan-perusahaan yang ditampilkan dalam artikel ini saat menerapkan kecerdasan buatan.