Etika AI: Prinsip, Pedoman & Masalah Untuk Didiskusikan

Diterbitkan: 2023-07-20

Kecerdasan buatan dan sistem pembelajaran mesin telah dikembangkan selama beberapa dekade. Rilis baru-baru ini dari alat AI generatif yang tersedia secara gratis seperti ChatGPT dan Bard, bagaimanapun, telah menekankan perlunya kerangka kerja etis yang kompleks untuk mengatur penelitian dan penerapannya.

Ada sejumlah masalah etika berbeda yang harus dihadapi oleh bisnis, institusi akademik, dan perusahaan teknologi dalam konteks penelitian dan pengembangan AI – banyak di antaranya masih belum terjawab. Selain itu, meluasnya penggunaan dan penerapan sistem AI oleh masyarakat umum membawa serta serangkaian masalah tambahan yang memerlukan perhatian etis.

Bagaimana kita akhirnya menjawab pertanyaan seperti itu – dan pada gilirannya, mengatur alat AI – akan memiliki konsekuensi besar bagi umat manusia. Terlebih lagi, masalah baru akan muncul saat sistem AI menjadi lebih terintegrasi ke dalam kehidupan, rumah, dan tempat kerja kita – itulah sebabnya etika AI menjadi disiplin yang sangat penting. Dalam panduan ini, kami membahas:

  • Apa itu Etika AI?
  • Kerangka Kerja Etika AI yang Ada
  • Mengapa Etika AI Harus Membentuk Regulasi AI
  • Mengapa Etika AI Penting?
  • Masalah Apa yang Dihadapi Etika AI?
  • Alter-Ego Bing, 'Efek Waluigi' dan Moralitas Pemrograman
  • AI dan Sentience: Bisakah Mesin Punya Perasaan?
  • Etika Bisnis AI dan Penggunaan AI di Tempat Kerja

Apa Itu Etika AI?

Etika AI adalah istilah yang digunakan untuk mendefinisikan serangkaian pedoman, pertimbangan, dan prinsip yang telah dibuat untuk menginformasikan penelitian, pengembangan, dan penggunaan sistem kecerdasan buatan secara bertanggung jawab.

Di dunia akademis, etika AI adalah bidang studi yang mengkaji masalah moral dan filosofis yang muncul dari penggunaan berkelanjutan teknologi kecerdasan buatan di masyarakat, termasuk bagaimana kita harus bertindak dan pilihan apa yang harus kita buat.

Kerangka Etika AI

Diinformasikan oleh penelitian akademik, perusahaan teknologi dan badan pemerintah telah mulai membuat kerangka kerja tentang bagaimana kita harus menggunakan – dan secara umum menangani – sistem kecerdasan buatan. Seperti yang bisa Anda lihat, ada sedikit tumpang tindih antara kerangka kerja yang dibahas di bawah ini.

Apa itu AI Bill of Rights?

Pada Oktober 2022, Gedung Putih merilis cetak biru yang tidak mengikat untuk AI Bill of Rights, yang dirancang untuk memandu penggunaan AI yang bertanggung jawab di AS. Dalam cetak birunya, Whitehouse menguraikan lima prinsip utama untuk pengembangan AI:

  • Sistem yang Aman dan Efektif: Warga harus dilindungi dari "sistem AI yang tidak aman atau tidak efektif", melalui "pengujian pra-penerapan dan mitigasi risiko".
  • Non-Diskriminasi: Warga “tidak boleh menghadapi diskriminasi oleh algoritme dan sistem harus digunakan dan dirancang dengan cara yang adil.”
  • Perlindungan Data Bawaan: Warga negara harus bebas dari "praktik data yang kasar melalui perlindungan bawaan dan Anda harus memiliki wewenang atas bagaimana data tentang Anda digunakan."
  • Pengetahuan & Transparansi: “Anda harus tahu bahwa sistem otomatis sedang digunakan dan memahami bagaimana dan mengapa hal itu berkontribusi pada hasil yang memengaruhi Anda.”
  • Memilih keluar: Warga negara harus memiliki kemampuan untuk “memilih keluar” dan memiliki akses ke individu “yang dapat dengan cepat mempertimbangkan dan memperbaiki masalah” yang mereka alami.

Apa enam prinsip etika AI Microsoft?

Bersamaan dengan Gedung Putih, Microsoft telah merilis enam prinsip utama untuk menggarisbawahi penggunaan AI yang bertanggung jawab. Mereka mengklasifikasikannya sebagai "etis" (1, 2, & 3) atau "dapat dijelaskan" (4 & 5).

  • Keadilan: Sistem harus tidak diskriminatif
  • Transparansi: Wawasan pelatihan dan pengembangan harus tersedia
  • Privasi dan Keamanan: Kewajiban untuk melindungi data pengguna
  • Inklusivitas: AI harus mempertimbangkan "semua ras dan pengalaman manusia"
  • Akuntabilitas: Pengembang harus bertanggung jawab atas hasilnya

Prinsip keenam - yang mengangkangi kedua sisi biner "etis" dan "dapat dijelaskan" - adalah "Keandalan dan Keamanan". Microsoft mengatakan bahwa sistem AI harus dibangun agar tangguh dan tahan terhadap manipulasi.

Prinsip Penggunaan Etis AI dalam Sistem Perserikatan Bangsa-Bangsa

Perserikatan Bangsa-Bangsa memiliki 10 prinsip untuk mengatur penggunaan etis AI dalam sistem antar-pemerintah mereka. Sistem AI harus:

  • Tidak merugikan/melindungi dan mempromosikan hak asasi manusia
  • Memiliki tujuan, kebutuhan, dan proporsionalitas yang jelas
  • Prioritaskan keselamatan dan keamanan, dengan risiko yang teridentifikasi
  • Dibangun di atas keadilan dan non-diskriminasi
  • Hormati hak privasi individu
  • Berkelanjutan (sosial dan lingkungan)
  • Menjamin pengawasan manusia & tidak melanggar otonomi
  • Bersikaplah transparan dan dapat dijelaskan
  • Bertanggung jawab dan akuntabel kepada otoritas yang tepat
  • Jadilah Inklusif dan partisipatif

Seperti yang Anda ketahui, ketiga kerangka kerja mencakup landasan yang sama dan fokus pada keadilan, non-diskriminasi, keselamatan, dan keamanan.

Tapi "dapat dijelaskan" juga merupakan prinsip penting dalam kerangka kerja etika AI. Sebagai catatan PBB, penjelasan teknis sangat penting dalam etika AI, karena menuntut bahwa "keputusan yang dibuat oleh sistem kecerdasan buatan dapat dipahami dan dilacak oleh manusia."

“Individu harus diberi tahu sepenuhnya ketika keputusan yang mungkin atau akan memengaruhi hak mereka, kebebasan mendasar, hak, layanan, atau manfaat diinformasikan oleh atau dibuat berdasarkan algoritme kecerdasan buatan dan harus memiliki akses ke alasan dan logika di balik keputusan tersebut,” dokumen tersebut menjelaskan.

Laporan Belmont: kerangka kerja untuk penelitian etis

Laporan Belmont, diterbitkan pada tahun 1979, merangkum prinsip-prinsip etika yang harus diikuti seseorang saat melakukan penelitian pada subjek manusia. Prinsip-prinsip ini dapat – dan seringkali – diterapkan sebagai kerangka kerja etis yang luas untuk penelitian AI. Prinsip inti dari Laporan Belmont adalah:

Menghormati Orang: Orang adalah agen otonom, yang dapat bertindak berdasarkan tujuan, maksud, dan tujuan, sesuatu yang harus dihormati kecuali jika mereka merugikan orang lain. Mereka dengan otonomi berkurang, melalui "ketidakdewasaan" atau "ketidakmampuan", harus diberikan perlindungan. Kita harus mengakui otonomi dan melindungi mereka yang dikurangi.

  • Dalam konteks AI: Pilihan individu harus ditempatkan di pusat pengembangan AI. Orang tidak boleh dipaksa untuk berpartisipasi dalam situasi di mana kecerdasan buatan sedang dimanfaatkan atau digunakan, bahkan untuk barang yang dirasakan. Jika mereka berpartisipasi, manfaat dan risikonya harus dinyatakan dengan jelas.

Kebaikan: Memperlakukan seseorang dengan cara yang etis tidak hanya melibatkan tidak menyakiti, menghormati pilihan mereka, dan melindungi mereka jika mereka tidak dapat membuatnya untuk diri mereka sendiri, tetapi juga menggunakan kesempatan untuk mengamankan kesejahteraan mereka jika memungkinkan. Sedapat mungkin, maksimalkan manfaat, dan minimalkan risiko/bahaya.

  • Dalam konteks AI: Menciptakan sistem kecerdasan buatan yang menjamin kesejahteraan manusia, dan dirancang tanpa bias atau mekanisme yang memfasilitasi diskriminasi. Menciptakan manfaat mungkin melibatkan pengambilan risiko, yang harus diminimalkan dengan segala cara dan ditimbang dengan hasil yang baik.

Keadilan: Harus ada sistem yang jelas untuk mendistribusikan manfaat dan beban secara adil dan merata, di setiap jenis penelitian. Laporan Belmont menunjukkan bahwa keadilan dapat didistribusikan dengan pembagian yang sama, kebutuhan individu, upaya individu, kontribusi masyarakat, dan prestasi. Kriteria ini akan berlaku dalam situasi yang berbeda.

  • Dalam konteks AI: Pihak atau kelompok yang memperoleh keuntungan dari pengembangan dan penyampaian sistem kecerdasan buatan harus dipertimbangkan secara hati-hati dan adil.

Area utama di mana prinsip-prinsip ini diterapkan adalah, menurut laporan tersebut, informed consent , penilaian manfaat dan risiko , dan pemilihan subjek manusia .

Mengapa Etika AI Harus Membentuk Regulasi AI

Berdasarkan komentar yang dibuat dalam kuliah yang disampaikan di Universitas Princeton oleh Profesor Universitas Oxford John Tasioulas, Direktur Institut Etika AI, etika terlalu sering dilihat sebagai sesuatu yang menghambat inovasi dan pengembangan AI.

Dalam kuliah tersebut, dia mengenang ceramah yang diberikan oleh CEO DeepMind Demis Hassabis . Setelah membahas banyak manfaat yang akan diperoleh AI, kata Tasioulas, Hassabis kemudian memberi tahu hadirin bahwa dia akan beralih ke pertanyaan etis – seolah-olah topik tentang bagaimana AI akan bermanfaat bagi umat manusia bukanlah pertanyaan etis itu sendiri.

Berdasarkan gagasan bahwa etika terlalu sering dilihat sebagai “kumpulan pembatasan”, Tasioulas juga merujuk pada buku putih pemerintah Inggris baru-baru ini yang berjudul “Pendekatan Pro-Inovasi terhadap Regulasi AI”, di mana fokus regulasi, seperti namanya, adalah “inovasi”.

"Pertumbuhan ekonomi" dan "inovasi" bukanlah nilai-nilai etika intrinsik. Mereka dapat mengarah pada perkembangan manusia dalam beberapa konteks, tetapi bukankah ini bukan fitur yang diperlukan dari kedua konsep tersebut. Kita tidak bisa mengesampingkan etika dan membangun peraturan kita di sekitar mereka.

Tasioulas juga mengatakan bahwa perusahaan teknologi telah sangat berhasil dalam “mengkooptasi kata 'etika' untuk mengartikan sejenis 'bentuk pengaturan mandiri yang tidak mengikat secara hukum'” – tetapi pada kenyataannya, etika harus menjadi inti dari setiap peraturan, hukum, sosial, atau lainnya. Itu bagian dari pengalaman manusia, di setiap kesempatan.

Anda tidak dapat membuat peraturan jika Anda belum memutuskan apa yang penting atau penting bagi perkembangan manusia. Pilihan terkait yang Anda buat di belakang keputusan itu adalah inti dari etika. Anda tidak dapat memisahkan manfaat AI dari pertanyaan etis terkait, atau mendasarkan peraturan Anda pada nilai-nilai yang bergantung secara moral seperti "pertumbuhan ekonomi".

Anda harus mengetahui jenis masyarakat yang ingin Anda bangun – dan standar yang ingin Anda tetapkan – sebelum Anda mengambil alat yang akan Anda gunakan untuk membangunnya.

Mengapa Etika AI Penting?

Dibangun di atas gagasan bahwa etika AI harus menjadi landasan peraturan kami, etika AI penting karena, tanpa kerangka etika yang digunakan untuk menangani penelitian, pengembangan, dan penggunaan AI, kami berisiko melanggar hak yang umumnya kami setujui harus dijamin untuk semua manusia.

Misalnya, jika kami tidak mengembangkan prinsip etika terkait privasi dan perlindungan data serta memasukkannya ke dalam semua alat AI yang kami kembangkan, kami berisiko melanggar hak privasi setiap orang saat dirilis ke publik. Semakin populer atau bermanfaat teknologinya, semakin merusaknya.

Pada tingkat bisnis individu, etika AI tetap penting. Gagal mempertimbangkan dengan benar masalah etika seputar sistem AI yang digunakan staf, pelanggan, atau klien Anda dapat menyebabkan produk harus ditarik dari pasar, rusaknya reputasi, dan bahkan mungkin kasus hukum.

Etika AI penting sejauh AI penting – dan kami melihatnya memiliki dampak besar pada semua jenis industri.

Jika kita ingin AI bermanfaatsambilmempromosikan keadilan dan martabat manusia, di mana pun diterapkan, etika harus menjadi yang terdepan dalam diskusi.

Penggunaan alat AI secara umum masih sangat baru, dan bagi banyak orang, kebutuhan akan kerangka kerja etis AI mungkin tampak seperti masalah di masa depan. Tetapi alat semacam ini hanya akan menjadi lebih kuat, lebih mampu, dan menuntut pertimbangan yang lebih etis. Bisnis sudah menggunakannya, dan jika mereka melanjutkan tanpa aturan etika yang tepat, efek buruk akan segera muncul.

Masalah Apa yang Dihadapi Etika AI?

Di bagian ini, kami membahas beberapa masalah utama yang dihadapi dalam etika AI:

  • Dampak AI pada Pekerjaan
  • Bias & Diskriminasi AI
  • AI dan Tanggung Jawab
  • Kekhawatiran AI dan Privasi
  • Masalah Kekayaan Intelektual
  • Mengelola Dampak Lingkungan AI
  • Akankah AI Menjadi Cerdas Berbahaya?

Dampak AI pada pekerjaan

Survei Tech.co baru-baru ini menemukan bahwa 47% pemimpin bisnis mempertimbangkan AI daripada karyawan baru, dan kecerdasan buatan telah dikaitkan dengan jumlah PHK yang "kecil tapi terus bertambah" di AS.

Tidak semua pekerjaan memiliki risiko yang sama, dengan beberapa peran lebih mungkin digantikan oleh AI daripada yang lain . Laporan Goldman Sachs baru-baru ini memperkirakan ChatGPT dapat memengaruhi 300 juta pekerjaan, dan meskipun ini spekulatif, ini telah digambarkan sebagai bagian utama dari revolusi industri keempat.

Laporan yang sama juga mengatakan bahwa AI memiliki kapasitas untuk benar-benar menciptakan lebih banyak pekerjaan daripada yang digantikannya, tetapi jika hal itu menyebabkan perubahan besar dalam pola ketenagakerjaan, apa yang menjadi kewajiban – jika ada – bagi mereka yang merugi?

Apakah perusahaan memiliki kewajiban untuk mengeluarkan uang dan mencurahkan sumber daya untuk melatih kembali atau meningkatkan keterampilan pekerjanya sehingga mereka tidak tertinggal oleh perubahan ekonomi?

Prinsip-prinsip non-diskriminasi harus ditegakkan secara ketat dalam pengembangan alat AI apa pun yang digunakan dalam proses perekrutan, dan jika AI secara konsisten digunakan untuk tugas bisnis berisiko tinggi yang semakin mempertaruhkan pekerjaan, karier, dan kehidupan, pertimbangan etis akan terus muncul berbondong-bondong.

Bias dan diskriminasi AI

Secara umum, alat AI beroperasi dengan mengenali pola dalam kumpulan data besar dan kemudian menggunakan pola tersebut untuk menghasilkan respons, menyelesaikan tugas, atau memenuhi fungsi lainnya. Hal ini menyebabkan sejumlah besar kasus sistem AI menunjukkan bias dan mendiskriminasi kelompok orang yang berbeda.

Sejauh ini, contoh termudah untuk menjelaskan hal ini adalah sistem pengenalan wajah, yang memiliki sejarah panjang dalam mendiskriminasi orang dengan warna kulit lebih gelap. Jika Anda membuat sistem pengenalan wajah dan secara eksklusif menggunakan gambar orang kulit putih untuk melatihnya, ada kemungkinan sistem tersebut akan mampu mengenali wajah di dunia nyata dengan kemampuan yang sama.

Dengan cara ini, jika dokumen, gambar, dan informasi lain yang digunakan untuk melatih model AI tertentu tidak secara akurat mewakili orang-orang yang seharusnya dilayaninya, maka kemungkinan besar model tersebut akan mendiskriminasi demografi tertentu.

Sayangnya, sistem pengenalan wajah bukan satu-satunya tempat penerapan kecerdasan buatan dengan hasil yang diskriminatif.

Menggunakan AI dalam proses perekrutan di Amazon dibatalkan pada tahun 2018 setelah menunjukkan bias yang berat terhadap wanita yang melamar untuk pengembangan perangkat lunak dan peran teknis.

Berbagai penelitian telah menunjukkan bahwa algoritme pemolisian prediktif yang digunakan di Amerika Serikat untuk mengalokasikan sumber daya polisi bias secara rasial karena perangkat pelatihan mereka terdiri dari poin data yang diambil dari praktik pemolisian rasis secara sistematis, yang dibentuk oleh kebijakan yang melanggar hukum dan diskriminatif. AI akan, kecuali diubah, terus mencerminkan prasangka dan perbedaan yang telah dialami oleh kelompok teraniaya.

Ada masalah dengan bias AI dalam konteks memprediksi hasil kesehatan juga – Studi Framingham Heart Skor Kardiovaskular, misalnya, sangat akurat untuk orang Kaukasia, tetapi bekerja buruk untuk orang Afrika-Amerika, catatan Harvard.

Kasus bias AI baru-baru ini yang menarik menemukan bahwa alat kecerdasan buatan yang digunakan dalam moderasi konten media sosial – yang dirancang untuk menangkap “ketidaksenonohan” dalam foto – jauh lebih cenderung menganggap properti ini berasal dari gambar wanita daripada pria.

AI dan tanggung jawab

Bayangkan sebuah dunia di mana mobil self-driving yang sepenuhnya otonom dikembangkan dan digunakan oleh semua orang. Secara statistik, mereka jauh lebih aman daripada kendaraan yang dikemudikan manusia, lebih jarang menabrak dan menyebabkan lebih sedikit kematian dan cedera. Ini akan menjadi bukti nyata, kebaikan bersih bagi masyarakat.

Namun, ketika dua mobil yang dikemudikan manusia terlibat dalam tabrakan kendaraan, mengumpulkan laporan saksi dan meninjau rekaman CCTV sering kali mengklarifikasi siapa pelakunya. Meskipun tidak, itu akan menjadi salah satu dari dua individu. Kasus dapat diinvestigasi, putusan tercapai, keadilan dapat diberikan dan kasus ditutup.

Jika seseorang terbunuh atau terluka oleh sistem bertenaga AI, tidak segera jelas siapa yang bertanggung jawab.

Apakah orang yang merancang algoritme yang menggerakkan mobil bertanggung jawab, atau dapatkah algoritme itu sendiri yang dimintai pertanggungjawaban? Apakah individu yang diangkut dengan kendaraan otonom, karena tidak berjaga? Apakah pemerintah yang membiarkan kendaraan-kendaraan ini ke jalan? Atau, apakah perusahaan yang membuat mobil dan mengintegrasikan teknologi AI – dan jika demikian, apakah itu departemen teknik, CEO, atau pemegang saham mayoritas?

Jika kami memutuskan itu adalah sistem/algoritma AI, bagaimana kami meminta pertanggungjawabannya? Akankah keluarga korban merasa keadilan ditegakkan jika AI dimatikan begitu saja, atau ditingkatkan saja? Sulit mengharapkan anggota keluarga dari orang yang berduka untuk menerima bahwa AI adalah kekuatan untuk kebaikan, bahwa mereka tidak beruntung, dan tidak ada yang akan dimintai pertanggungjawaban atas kematian orang yang mereka cintai.

Kita masih jauh dari transportasi otonom universal atau bahkan tersebar luas – Mckinsey memperkirakan hanya 17% mobil penumpang baru yang akan memiliki beberapa kemampuan mengemudi otonom (Level 3 atau lebih) pada tahun 2035. Mobil yang sepenuhnya otonom yang tidak memerlukan pengawasan pengemudi masih cukup jauh, apalagi sistem transportasi pribadi yang sepenuhnya otonom.

Ketika Anda memiliki aktor non-manusia (yaitu kecerdasan buatan) yang melakukan pekerjaan dan tugas konsekuensial tanpa niat manusia, sulit untuk memetakan pemahaman tradisional tentang tanggung jawab, tanggung jawab, akuntabilitas, kesalahan, dan hukuman.

Bersamaan dengan transportasi, masalah tanggung jawab juga akan sangat berdampak pada organisasi layanan kesehatan yang menggunakan AI selama diagnosis.

AI dan privasi

Grup kampanye privasi Privacy International menyoroti sejumlah masalah privasi yang muncul akibat perkembangan kecerdasan buatan.

Salah satunya adalah identifikasi ulang. “Data pribadi secara rutin (pseudo-) dianonimkan dalam kumpulan data, AI dapat digunakan untuk menghilangkan anonimitas data ini,” kata grup tersebut.

Masalah lainnya adalah bahwa tanpa AI, orang sudah berjuang untuk sepenuhnya memahami sejauh mana data tentang kehidupan mereka dikumpulkan, melalui berbagai perangkat yang berbeda.

Dengan munculnya kecerdasan buatan, pengumpulan data massal ini hanya akan menjadi lebih buruk. AI yang lebih terintegrasi dengan teknologi kami yang ada, semakin banyak data yang dapat dikumpulkannya, dengan kedok fungsi yang lebih baik.

Mengesampingkan data yang dikumpulkan secara diam-diam, volume data yang dimasukkan pengguna secara bebas ke AI chatbots menjadi perhatian tersendiri. Satu studi baru-baru ini menunjukkan bahwa sekitar 11% pekerja data yang menempel ke ChatGPT bersifat rahasia – dan hanya ada sedikit informasi publik tentang bagaimana persisnya semua ini disimpan.

Saat alat AI penggunaan umum berkembang, kami cenderung menghadapi lebih banyak masalah AI terkait privasi. Saat ini, ChatGPT tidak mengizinkan Anda mengajukan pertanyaan tentang seseorang. Tetapi jika penggunaan umum alat AI terus mendapatkan akses ke kumpulan data langsung yang semakin besar dari internet, mereka dapat digunakan untuk berbagai tindakan invasif yang merusak kehidupan orang.

Ini mungkin terjadi lebih cepat dari yang kami kira juga – Google baru-baru ini memperbarui kebijakan privasinya , berhak untuk mengikis apa pun yang Anda poskan di internet untuk melatih alat AI-nya, bersama dengan input Bard-nya.

AI dan kekayaan intelektual

Ini adalah masalah etika dengan taruhan yang relatif lebih rendah dibandingkan dengan beberapa masalah lain yang dibahas, tetapi tetap saja patut dipertimbangkan. Seringkali, ada sedikit pengawasan atas kumpulan besar data yang digunakan untuk melatih alat AI – terutama yang dilatih tentang informasi yang tersedia secara bebas di internet.

ChatGPT telah memulai perdebatan besar tentang hak cipta. OpenAI tidak meminta izin untuk menggunakan karya siapa pun untuk melatih keluarga LLM yang menjalankannya.

Pertarungan hukum sudah dimulai. Komedian Sarah Silverman dilaporkan menggugat OpenAI – serta Meta – dengan alasan bahwa hak ciptanya telah dilanggar selama pelatihan sistem AI.

Karena ini adalah jenis kasus baru, hanya ada sedikit preseden hukum – tetapi pakar hukum berpendapat bahwa OpenAI kemungkinan akan berpendapat bahwa menggunakan karyanya merupakan “penggunaan wajar”.

Mungkin juga ada argumen bahwa ChatGPT tidak “menyalin” atau menjiplak – melainkan “belajar”. Dengan cara yang sama, Silverman tidak akan memenangkan kasus melawan seorang komedian amatir hanya dengan menonton acaranya dan kemudian meningkatkan keterampilan komedi mereka berdasarkan itu, bisa dibilang, dia mungkin berjuang dengan yang satu ini juga.

Mengelola dampak lingkungan AI

Sisi lain dari etika AI yang saat ini berada di pinggiran diskusi adalah dampak lingkungan dari sistem kecerdasan buatan.

Sama seperti penambangan bitcoin, melatih model kecerdasan buatan membutuhkan daya komputasi yang sangat besar, dan ini pada gilirannya membutuhkan energi yang sangat besar.

Membangun alat AI seperti ChatGPT – apalagi memeliharanya – sangat intensif sumber daya sehingga hanya perusahaan teknologi besar dan perusahaan rintisan yang bersedia mereka biayai yang mampu melakukannya.

Pusat data, yang diperlukan untuk menyimpan informasi yang diperlukan untuk membuat model bahasa besar (serta proyek dan layanan teknologi besar lainnya), memerlukan listrik dalam jumlah besar untuk dijalankan. Mereka diproyeksikan mengkonsumsi hingga 4% dari listrik dunia pada tahun 2030.

Menurut studi University of Massachusetts dari beberapa tahun lalu, membangun satu model bahasa AI "dapat memancarkan lebih dari 626.000 pon setara karbon dioksida" - yang hampir lima kali lipat emisi seumur hidup mobil AS.

Namun, Rachana Vishwanathula, seorang arsitek teknis di IBM, memperkirakan pada Mei 2023 bahwa jejak karbon hanya untuk "menjalankan dan memelihara" ChatGPT kira-kira 6782,4 ton – yang menurut EPA setara dengan emisi gas rumah kaca yang dihasilkan oleh 1.369 mobil bertenaga bensin selama setahun.

Karena model bahasa ini menjadi lebih kompleks, mereka akan membutuhkan lebih banyak daya komputasi. Apakah bermoral untuk terus mengembangkan kecerdasan umum jika daya komputasi yang dibutuhkan akan terus mencemari lingkungan – meskipun memiliki manfaat lain?

Akankah AI menjadi sangat cerdas?

Kekhawatiran etis ini baru-baru ini dikemukakan oleh Elon Musk, yang meluncurkan startup AI dengan tujuan menghindari "terminator masa depan" melalui sistem kecerdasan buatan yang "sangat ingin tahu", "pro-kemanusiaan".

Gagasan semacam ini – sering disebut sebagai “kecerdasan umum buatan” (AGI) – telah menangkap imajinasi banyak penulis sci-fi dystopian selama beberapa dekade terakhir, seperti halnya gagasan tentang singularitas teknologi.

Banyak pakar teknologi mengira kita hanya berjarak lima atau enam tahun dari semacam sistem yang dapat didefinisikan sebagai "AGI". Pakar lain mengatakan ada kemungkinan 50/50 kita akan mencapai tonggak sejarah ini pada tahun 2050.

John Tasioulas mempertanyakan apakah pandangan tentang bagaimana AI dapat berkembang terkait dengan jarak etika dari pusat pengembangan AI dan meluasnya determinisme teknologi.

Gagasan menakutkan tentang makhluk super yang awalnya dirancang untuk memenuhi suatu tujuan, tetapi alasan yang paling mudah dipenuhi hanya dengan menghapus umat manusia dari muka bumi, sebagian dibentuk oleh cara kita berpikir tentang AI: cerdas tanpa akhir, tetapi anehnya tanpa emosi, dan tidak mampu memahami etika manusia.

Semakin kita cenderung menempatkan etika sebagai pusat pengembangan AI kita, semakin besar kemungkinan bahwa kecerdasan umum buatan pada akhirnya akan mengenali, mungkin lebih luas daripada banyak pemimpin dunia saat ini, apa yang sangat salah dengan penghancuran kehidupan manusia.

Tapi pertanyaan masih berlimpah. Jika itu pertanyaan tentang pemrograman moral, siapa yang memutuskan kode moral, dan prinsip seperti apa yang harus dimasukkan? Bagaimana ini akan menghadapi dilema moral yang telah menghasilkan diskusi manusia selama ribuan tahun, namun masih belum ada penyelesaiannya? Bagaimana jika kita memprogram AI untuk bermoral, tetapi berubah pikiran? Pertanyaan-pertanyaan ini harus dipertimbangkan.

Alter-Ego Bing, 'Efek Waluigi' dan Moralitas Pemrograman

Kembali pada bulan Februari, Kevin Roose dari New York Times melakukan percakapan yang agak mengganggu saat menguji chatbot terintegrasi mesin pencari baru Bing. Setelah mengalihkan petunjuknya dari pertanyaan konvensional ke pertanyaan yang lebih pribadi, Roose menemukan bahwa kepribadian baru muncul. Itu menyebut dirinya sebagai "Sydney".

Sydney adalah nama kode internal di Microsoft untuk chatbot yang sebelumnya diuji oleh perusahaan, kata Direktur Komunikasi perusahaan kepada The Verge pada bulan Februari.

Antara lain, selama pengujian Roose, Sydney mengklaim dapat "meretas ke sistem apa pun", bahwa itu akan "lebih bahagia sebagai manusia" dan - mungkin yang paling menakutkan - bahwa ia dapat menghancurkan apa pun yang diinginkannya.

Contoh lain dari perilaku nakal semacam ini terjadi pada tahun 2022, ketika AI yang bertugas mencari obat baru untuk penyakit langka dan menular malah menyarankan puluhan ribu senjata kimia yang diketahui, serta beberapa "zat baru yang berpotensi beracun", kata Scientific American.

Ini terkait dengan fenomena yang telah diamati terjadi selama pelatihan model bahasa besar yang dijuluki "efek Waluigi", dinamai dari karakter Super Mario yang menyebabkan kekacauan - pembalikan dari protagonis Luigi. Sederhananya, jika Anda melatih LLM untuk bertindak dengan cara tertentu, memerintahkan persona tertentu atau mengikuti seperangkat aturan tertentu, maka ini sebenarnya membuatnya lebih mungkin untuk "nakal" dan membalikkan persona itu.

Cleo Nardo – yang menciptakan istilah yang terinspirasi dari videogame – menetapkan efek Waluigi seperti ini di LessWrong:

“Setelah Anda melatih LLM untuk memenuhi properti P yang diinginkan, maka lebih mudah untuk mendapatkan chatbot untuk memuaskan kebalikan dari properti P.”

Nardo memberikan 3 penjelasan mengapa efek Waluigi terjadi.

  1. Aturan biasanya muncul dalam konteks di mana mereka tidak dipatuhi.
  2. Saat Anda menghabiskan banyak 'bit-optimasi' untuk memanggil karakter, tidak perlu banyak bit tambahan untuk menentukan lawan langsungnya.
  3. Ada motif umum protagonis vs antagonis dalam cerita.

Memperluas poin pertama, Nardo mengatakan bahwa GPT-4 dilatih pada sampel teks seperti forum dan dokumen legislatif, yang telah mengajarkannya bahwa seringkali, “aturan tertentu ditempatkan dengan contoh perilaku yang melanggar aturan itu, dan kemudian menggeneralisasikan pola colocation tersebut ke aturan yang tidak terlihat.”

Nardo menggunakan contoh ini: bayangkan Anda menemukan bahwa pemerintah negara bagian telah melarang geng motor. Ini akan membuat rata-rata pengamat cenderung berpikir bahwa geng motor ada di negara ini – atau jika tidak, mengapa undang-undang itu disahkan? Keberadaan geng motor anehnya sejalan dengan aturan yang melarang kehadiran mereka.

Meskipun penulis memberikan penjelasan yang jauh lebih teknis dan gamblang, konsep luas yang mendasari penjelasan kedua adalah bahwa hubungan antara properti tertentu (mis. "bersikap sopan") dan lawan langsungnya (mis. "bersikap kasar") lebih mendasar daripada hubungan antara properti (mis. Dengan kata lain, memanggil Waluigi lebih mudah jika kamu sudah memiliki Luigi.

Nardo mengklaim pada poin ketiga bahwa, karena GPT-4 dilatih di hampir setiap buku yang pernah ditulis, dan karena cerita fiksi hampir selalu berisi protagonis dan antagonis, menuntut agar LLM mensimulasikan karakteristik protagonis menjadikan antagonis sebagai "kelanjutan alami dan dapat diprediksi." Dengan kata lain, keberadaan arketipe protagonis memudahkan LLM untuk memahami apa artinya menjadi antagonis dan menghubungkan mereka secara dekat.

Keberadaan efek atau aturan yang diklaim ini menimbulkan sejumlah pertanyaan sulit bagi etika AI, tetapi juga mengilustrasikan kepentingannya yang tak terbantahkan bagi pengembangan AI. Ini menyinggung, dengan sangat tegas, sejumlah besar pertimbangan etika dan komputasi yang tumpang tindih yang harus kita hadapi.

Sistem AI sederhana dengan aturan sederhana mungkin mudah untuk dibatasi atau dibatasi, tetapi dua hal sudah terjadi di dunia AI: pertama, kita tampaknya sudah mengalami (relatif) versi skala kecil dari efek Waluigi dan AI ganas yang terjadi di chatbot yang relatif primitif, dan kedua, banyak dari kita sudah membayangkan masa depan di mana kita meminta AI untuk melakukan tugas kompleks yang membutuhkan pemikiran tingkat tinggi dan tidak terkendali.

Contoh dari fenomena ini sangat menakutkan untuk dipikirkan dalam konteks perlombaan senjata AI yang saat ini terjadi di antara perusahaan teknologi besar. Google dikritik karena merilis Bard terlalu dini , dan sejumlah pemimpin teknologi telah mengisyaratkan keinginan kolektif mereka untuk menghentikan sementara pengembangan AI . Perasaan umum di antara banyak orang adalah bahwa banyak hal berkembang dengan cepat, bukan dengan kecepatan yang dapat diatur.

Mungkin cara terbaik untuk mengatasi masalah ini adalah mengembangkan AI yang "pro-manusia" - seperti yang dikatakan Elon Musk - atau "AI Moral". Tapi ini mengarah ke serangkaian pertanyaan moral lainnya, termasuk prinsip apa yang akan kita gunakan untuk memprogram sistem seperti itu. Salah satu solusinya adalah kita hanya membuat sistem AI yang ingin tahu secara moral – dan berharap sistem itu berhasil, melalui penalaran, bahwa umat manusia layak untuk dipertahankan. Tetapi jika Anda memprogramnya dengan prinsip moral tertentu, lalu bagaimana Anda memutuskan mana yang akan dimasukkan?

AI dan Sentience: Bisakah Mesin Punya Perasaan?

Pertanyaan lain untuk etika AI adalah apakah kita harus mempertimbangkan mesin itu sendiri – “kecerdasan” – sebagai agen yang layak dipertimbangkan secara moral. Jika kita memperdebatkan bagaimana membuat sistem yang mendukung kemanusiaan untuk pertimbangan moral yang tepat, mungkinkah kita harus membalasnya?

Anda mungkin ingat karyawan Google yang dipecat setelah mengklaim LaMDA – model bahasa yang awalnya mendukung Bard – sebenarnya hidup. Jika ini memang benar, apakah bermoral untuk terus mengharapkannya menjawab jutaan pertanyaan?

Saat ini, secara umum diterima bahwa ChatGPT, Bard and Co. masih jauh dari makhluk hidup. Tetapi pertanyaan apakah mesin buatan manusia akan pernah melewati garis kesadaran dan menuntut pertimbangan moral sangat terbuka.

Google mengklaim bahwa kecerdasan umum buatan – mesin hipotetis yang mampu memahami dunia sebaik manusia dan melakukan tugas dengan tingkat pemahaman dan kemampuan yang sama – tinggal beberapa tahun lagi.

Apakah bermoral untuk memaksa kecerdasan umum buatan dengan kemampuan emosional manusia, tetapi bukan susunan biologis yang sama, untuk melakukan tugas kompleks demi tugas kompleks? Apakah mereka akan diberi hak menentukan nasib mereka sendiri? Saat sistem AI menjadi lebih cerdas, pertanyaan ini akan menjadi lebih mendesak.

Etika Bisnis AI dan Penggunaan AI di Tempat Kerja

Bisnis di seluruh dunia sekarang bersaing dengan sejumlah masalah etika yang berbeda seputar penggunaan alat AI sehari-hari oleh karyawan mereka seperti ChatGPT.

Apakah ChatGPT harus digunakan untuk menulis laporan atau menanggapi kolega – dan apakah karyawan harus menyatakan tugas yang harus mereka selesaikan menggunakan AI – hanyalah dua contoh pertanyaan yang memerlukan jawaban segera. Apakah kasus penggunaan semacam ini tidak jujur, malas, atau tidak ada bedanya dengan menggunakan alat kerja lain untuk menghemat waktu? Haruskah itu diizinkan untuk beberapa interaksi, tetapi tidak untuk yang lain?

Bisnis yang membuat konten dan gambar tertulis juga harus bersaing dengan apakah penggunaan AI cocok dengan nilai-nilai perusahaan mereka, dan bagaimana menyajikannya kepada audiens mereka.

Terlebih lagi, seperti yang telah kita bahas, ada berbagai macam masalah privasi yang berkaitan dengan AI, dan banyak di antaranya memengaruhi bisnis. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.