Sam Altman, CEO dan salah satu pendiri OpenAI, berbicara dalam sidang Subkomite Kehakiman Senat di Washington, DC, AS, pada Selasa, 16 Mei 2023. Kongres memperdebatkan potensi dan jebakan kecerdasan buatan seperti produk seperti ChatGPT menimbulkan pertanyaan tentang masa depan industri kreatif dan kemampuan membedakan fakta dari fiksi.
Eric Lee | Bloomberg | Gambar Getty
Minggu terakhir ini, CEO OpenAI Sam Altman memesona ruangan yang penuh dengan politisi di Washington, DC saat makan malam, lalu bersaksi selama hampir tiga jam tentang potensi risiko kecerdasan buatan selama sidang Senat.
Usai sidang, dia meringkas posisinya tentang regulasi AI menggunakan istilah yang tidak umum diketahui masyarakat umum.
“Keamanan AGI sangat penting, dan model perbatasan perlu diatur,” cuit Altman. “Penangkapan peraturan itu buruk, dan kita tidak boleh main-main dengan model di bawah ambang batas.”
Dalam hal ini, “AGI” mengacu pada “kecerdasan umum buatan”. Sebagai sebuah konsep, ini digunakan untuk mengartikan AI yang jauh lebih maju daripada yang mungkin saat ini, yang dapat melakukan banyak hal dengan baik atau lebih baik daripada kebanyakan manusia, termasuk meningkatkan dirinya sendiri.
“Model perbatasan” adalah cara berbicara tentang sistem AI yang paling mahal untuk menghasilkan dan menganalisis data terbanyak. Model bahasa besar, seperti GPT-4 OpenAI, adalah model frontier, dibandingkan dengan model AI kecil yang melakukan tugas tertentu seperti mengidentifikasi kucing di foto.
Kebanyakan orang setuju bahwa harus ada undang-undang yang mengatur AI seiring dengan percepatan pembangunan.
“Pembelajaran mesin, pembelajaran mendalam, selama sekitar 10 tahun terakhir, dikembangkan dengan sangat cepat. Saat ChatGPT diluncurkan, ini berkembang dengan cara yang tidak pernah kami bayangkan, sehingga dapat berjalan begitu cepat,” kata My Thai , seorang ilmu komputer profesor di Universitas Florida. “Kami khawatir bahwa kami berlomba ke sistem yang lebih kuat yang tidak sepenuhnya kami pahami dan antisipasi apa yang dapat dilakukannya.”
Tetapi bahasa seputar debat ini mengungkapkan dua kubu utama di antara akademisi, politisi, dan industri teknologi. Beberapa lebih peduli dengan apa yang mereka sebut “keamanan AI.“Kamp lain khawatir tentang apa yang mereka sebut”etika AI.“
Ketika Altman berbicara kepada Kongres, dia kebanyakan menghindari jargon, tetapi tweetnya menunjukkan bahwa dia sangat mengkhawatirkan keamanan AI – pandangan yang dibagikan oleh banyak pemimpin industri di perusahaan seperti OpenAI, Google DeepMind, dan perusahaan rintisan yang bermodal besar. Mereka khawatir tentang kemungkinan membangun AGI yang tidak bersahabat dengan kekuatan yang tak terbayangkan. Kubu ini percaya bahwa kita membutuhkan perhatian mendesak dari pemerintah untuk mengatur pembangunan dan mencegah berakhirnya umat manusia sebelum waktunya – sebuah upaya yang mirip dengan non-proliferasi nuklir.
“Senang mendengar begitu banyak orang mulai serius tentang keamanan AGI,” Mustafa Suleyman, pendiri DeepMind dan CEO Inflection AI saat ini. tweeted pada hari Jumat. “Kita harus sangat ambisius. Proyek Manhattan menelan biaya 0,4% dari PDB AS. Bayangkan apa yang dapat dicapai oleh program keselamatan yang setara hari ini.”
Tetapi sebagian besar diskusi di Kongres dan Gedung Putih tentang regulasi dilakukan melalui lensa etika AI, dengan fokus pada bahaya saat ini.
Dari perspektif ini, pemerintah harus menegakkan transparansi tentang cara sistem AI mengumpulkan dan menggunakan data, membatasi penggunaannya di area yang tunduk pada undang-undang anti-diskriminasi seperti perumahan atau pekerjaan, dan menjelaskan kekurangan teknologi AI saat ini. Proposal AI Bill of Rights Gedung Putih dari akhir tahun lalu mencakup banyak dari masalah ini.
Kamp ini diwakili pada sidang kongres oleh IBM Chief Privacy Officer Christina Montgomery, yang mengatakan kepada anggota parlemen bahwa dia yakin setiap perusahaan yang mengerjakan teknologi ini harus memiliki titik kontak “etika AI”.
“Perlu ada panduan yang jelas tentang penggunaan akhir AI atau kategori aktivitas yang dibantu AI yang secara inheren berisiko tinggi,” kata Montgomery kepada Kongres.
Bagaimana memahami bahasa AI seperti orang dalam
Lihat juga: Bagaimana berbicara tentang AI seperti orang dalam
Tidak mengherankan jika perdebatan seputar AI telah mengembangkan bahasanya sendiri. Ini dimulai sebagai bidang akademik teknis.
Sebagian besar perangkat lunak yang dibahas hari ini didasarkan pada apa yang disebut model bahasa besar (LLM), yang menggunakan unit pemrosesan grafik (GPU) untuk memprediksi kemungkinan kalimat, gambar, atau musik secara statistik, sebuah proses yang disebut “inferensi”. Tentu saja, model AI harus dibangun terlebih dahulu, dalam proses analisis data yang disebut “pelatihan”.
Tetapi istilah lain, terutama dari pendukung keamanan AI, lebih bersifat budaya, sering merujuk pada referensi dan lelucon bersama.
Misalnya, petugas keamanan AI mungkin mengatakan bahwa mereka khawatir berada di a klip kertas. Ini mengacu pada eksperimen pemikiran yang dipopulerkan oleh filsuf Nick Bostrom, yang mengklaim bahwa AI berkekuatan super – “kecerdasan super” – dapat diberi misi untuk membuat klip kertas sebanyak mungkin, dan secara logis memutuskan untuk membunuh orang untuk membuat, membuat klip kertas dari sisa makanan mereka.
Logo OpenAI terinspirasi dari cerita ini, dan perusahaan tersebut bahkan membuat klip kertas dalam bentuk logonya.
Konsep lain dalam keamanan AI adalah “lepas landas yang sulit“atau”lepas landas cepat,” yang merupakan ungkapan yang menunjukkan jika seseorang berhasil membangun AGI maka sudah terlambat untuk menyelamatkan umat manusia.
Kadang-kadang ide ini dijelaskan dalam bentuk onomatopoeia – “Bersumpah” – terutama di kalangan kritikus konsep tersebut.
“Sepertinya Anda percaya pada skenario ‘busa’ lepas landas keras yang konyol, yang membuatnya terdengar seperti Anda tidak memahami cara kerja semuanya,” tweeted Kepala AI Meta Yann LeCun, yang skeptis terhadap klaim AGI, dalam debat baru-baru ini di media sosial.
Etika AI juga memiliki bahasanya sendiri.
Saat menjelaskan batasan sistem LLM saat ini, yang tidak dapat memahami makna tetapi hanya menghasilkan bahasa yang mirip manusia, orang etika AI sering membandingkannya dengan “Burung beo stokastik.”
Analogi yang diciptakan oleh Emily Bender, Timnit Gebru, Angelina McMillan-Major dan Margaret Mitchell dalam sebuah makalah yang ditulis ketika beberapa penulis berada di Google, menyoroti bahwa sementara model AI yang canggih dapat menghasilkan teks yang tampak realistis, perangkat lunak tidak dapat memahaminya. konsep di balik bahasa — seperti burung beo.
Ketika LLM ini menemukan fakta yang salah dalam jawaban, mereka adalah “berhalusinasi.”
Satu topik yang dibahas oleh Montgomery IBM selama persidangan adalah “penjelasan” dalam hasil AI. Ini berarti bahwa ketika peneliti dan praktisi tidak dapat menunjukkan jumlah dan jalur operasi yang tepat yang digunakan model AI yang lebih besar untuk mendapatkan hasil mereka, ini dapat menyembunyikan beberapa bias yang melekat dalam LLM.
“Anda harus memiliki penjelasan seputar algoritme,” kata Adnan Masood, arsitek AI di UST-Global. “Sebelumnya, jika Anda melihat algoritme klasik, ini memberi tahu Anda, ‘Mengapa saya membuat keputusan itu?’ Sekarang dengan model yang lebih besar, mereka menjadi model besar ini, mereka adalah kotak hitam.”
Istilah penting lainnya adalah “penggelinciran,” yang mencakup perangkat lunak dan kebijakan yang saat ini dibuat oleh perusahaan Teknologi Besar di sekitar model AI untuk memastikan mereka tidak membocorkan data atau menghasilkan konten yang mengganggu, sering disebut “keluar jalur.“
Itu juga dapat merujuk ke aplikasi tertentu yang melindungi perangkat lunak AI agar tidak keluar dari topik, seperti produk “NeMo Guardrails” Nvidia.
“Dewan Etika AI kami memainkan peran penting dalam mengawasi proses tata kelola AI internal, dan menciptakan perlindungan yang wajar untuk memastikan kami memperkenalkan teknologi ke dunia dengan cara yang bertanggung jawab dan aman,” kata Montgomery minggu ini.
Terkadang istilah ini memiliki banyak arti, seperti dalam kasus “perilaku yang muncul.”
Sebuah makalah baru-baru ini dari Microsoft Research yang disebut “percikan kecerdasan umum buatan” diklaim dapat mengidentifikasi beberapa “perilaku yang muncul” di GPT-4 OpenAI, seperti kemampuan menggambar hewan menggunakan bahasa pemrograman untuk grafik.
Tapi itu juga bisa menggambarkan apa yang terjadi ketika perubahan sederhana dilakukan dalam skala yang sangat besar – seperti pola yang dibuat burung ketika mereka terbang berkelompok, atau, dalam kasus AI, apa yang terjadi ketika ChatGPT dan produk serupa digunakan oleh jutaan orang , seperti sebagai spam atau disinformasi yang tersebar luas.