
London: Empat pakar kecerdasan buatan telah menyatakan keprihatinannya setelah karya mereka dikutip dalam surat terbuka yang ditandatangani bersama oleh Elon Musk yang menuntut jeda mendesak dalam penelitian.
Surat itu, tertanggal 22 Maret dan dengan lebih dari 1.800 tanda tangan pada hari Jumat, menyerukan pemutus sirkuit enam bulan dalam pengembangan sistem “lebih kuat” daripada GPT-4 baru OpenAI yang didukung Microsoft, yang dapat melakukan percakapan seperti manusia. , buat lagu dan rangkum dokumen yang panjang.
Surat terbuka itu mengatakan sistem AI dengan “kecerdasan persaingan manusia” menimbulkan risiko besar bagi umat manusia, mengutip 12 penelitian dari para ahli termasuk akademisi universitas serta karyawan OpenAI saat ini dan sebelumnya, Google dan anak perusahaannya DeepMind.
Kelompok masyarakat sipil di AS dan UE sejak itu mendesak anggota parlemen untuk mengendalikan penelitian OpenAI. OpenAI tidak segera menanggapi permintaan komentar.
Kritikus menuduh Way forward for Life Institute (FLI), organisasi di balik surat tersebut yang terutama didanai oleh Musk Basis, memprioritaskan skenario apokaliptik yang dibayangkan daripada kekhawatiran yang lebih langsung tentang AI, seperti bias rasis atau seksis.
Di antara penelitian yang dikutip adalah “On the Risks of Stochastic Parrots”, sebuah makalah yang ditulis bersama oleh Margaret Mitchell, yang sebelumnya mengawasi penelitian AI etis di Google.
Mitchell, sekarang kepala ilmuwan etika di perusahaan AI Hugging Face, mengkritik surat tersebut, mengatakan kepada Reuters bahwa tidak jelas apa yang dianggap “lebih kuat dari GPT4”.
“Dengan memperlakukan banyak ide yang dipertanyakan sebagai sesuatu yang diberikan, surat tersebut menegaskan serangkaian prioritas dan narasi tentang AI yang menguntungkan para pendukung FLI,” katanya. “Mengabaikan bahaya aktif saat ini adalah hak istimewa yang tidak dimiliki sebagian dari kita.” Mitchell dan rekan penulisnya – Timnit Gebru, Emily M.
Bender, dan Angelina McMillan-Main – kemudian menerbitkan tanggapan atas surat tersebut, menuduh penulisnya “menyebarkan ketakutan dan AI hype”.
“Berbahaya untuk mengalihkan perhatian kita dengan utopia atau kiamat berfantasi AI yang menjanjikan masa depan yang ‘berkembang’ atau ‘berpotensi bencana’,” tulis mereka.
“Akuntabilitas dengan benar tidak terletak pada artefak tetapi pada pembuatnya.” Presiden FLI Max Tegmark mengatakan kepada Reuters bahwa kampanye tersebut bukanlah upaya untuk menghalangi keuntungan perusahaan OpenAI.
“Ini cukup lucu. Saya telah melihat orang berkata, ‘Elon Musk sedang mencoba untuk memperlambat persaingan,’” katanya, menambahkan bahwa Musk tidak memiliki peran dalam menyusun surat tersebut. “Ini bukan tentang satu perusahaan.”
Risiko sekarang
Shiri Dori-Hacohen, seorang asisten profesor di College of Connecticut, mengatakan kepada Reuters bahwa dia setuju dengan beberapa poin dalam surat itu, tetapi mempermasalahkan cara karyanya dikutip.
Dia tahun lalu ikut menulis makalah penelitian dengan alasan meluasnya penggunaan AI sudah menimbulkan risiko serius.
Penelitiannya berpendapat bahwa penggunaan sistem AI saat ini dapat memengaruhi pengambilan keputusan terkait dengan perubahan iklim, perang nuklir, dan ancaman eksistensial lainnya.
Dia berkata: “AI tidak perlu mencapai kecerdasan tingkat manusia untuk memperburuk risiko tersebut.
“Ada risiko non-eksistensial yang benar-benar penting, tetapi tidak menerima perhatian setingkat Hollywood yang sama.” Diminta untuk mengomentari kritik tersebut, Tegmark dari FLI mengatakan risiko AI jangka pendek dan jangka panjang harus ditanggapi dengan serius.
“Jika kita mengutip seseorang, itu berarti kita mengklaim mereka mendukung kalimat itu. Itu tidak berarti mereka mendukung surat itu, atau kami mendukung semua yang mereka pikirkan,” katanya kepada Reuters.
Dan Hendrycks, direktur Middle for AI Security yang berbasis di California, yang juga dikutip dalam surat itu, mendukung isinya, mengatakan kepada Reuters bahwa masuk akal untuk mempertimbangkan peristiwa angsa hitam – yang tampaknya tidak mungkin terjadi, tetapi akan memiliki konsekuensi yang menghancurkan.
Surat terbuka tersebut juga memperingatkan bahwa alat AI generatif dapat digunakan untuk membanjiri web dengan “propaganda dan kebohongan”.
Dori-Hacohen mengatakan itu “cukup kaya” bagi Musk untuk menandatanganinya, mengutip peningkatan informasi yang salah di Twitter setelah akuisisi platform tersebut, yang didokumentasikan oleh kelompok masyarakat sipil Frequent Trigger dan lainnya.
Musk dan Twitter tidak segera menanggapi permintaan komentar.