Home Uncategorized Doom vs Boom: Pertarungan untuk Mengabadikan Masa Depan AI ke dalam Hukum...

Doom vs Boom: Pertarungan untuk Mengabadikan Masa Depan AI ke dalam Hukum California

42
0
Doom vs Boom: Pertarungan untuk Mengabadikan Masa Depan AI ke dalam Hukum California

Undang-undang California yang berupaya mengatur model-model AI yang berskala besar menciptakan kebuntuan dramatis mengenai masa depan AI. Selama bertahun-tahun, AI telah dibagi menjadi “mempercepat” dan “memperlambat”. Kelompok accel ingin AI berkembang pesat – bergerak cepat dan menghancurkan banyak hal – sementara kelompok decel ingin perkembangan AI melambat demi kepentingan umat manusia. Pertempuran tersebut menjadi sorotan nasional ketika Dewan OpenAI sempat memecat Sam Altmanbanyak dari mereka telah melakukannya sejak itu memisahkan diri dari startup atas nama keamanan AI. Sekarang undang-undang California menjadikan perjuangan ini bersifat politis.

Apa itu SB 1047?

SB 1047 adalah undang-undang negara bagian California yang akan membuat penyedia model AI besar – seperti Meta, OpenAI, Anthropic, dan Mistral – bertanggung jawab atas potensi bahaya besar pada sistem AI mereka. RUU tersebut, yang ditulis oleh Senator Negara Bagian Scott Wiener, disahkan melalui Senat Kalifornia pada bulan Mei, dan mengatasi rintangan besar lainnya menuju menjadi undang-undang minggu ini.

Mengapa Saya Harus Peduli?

Ya, ini bisa menjadi regulasi AI pertama yang nyata di AS, dan ini terjadi di California, tempat semua perusahaan AI besar berada.

Sosis menjelaskan tagihan tersebut sebagai menetapkan “standar keselamatan yang jelas, dapat diprediksi, dan masuk akal bagi pengembang sistem AI terbesar dan terkuat.” Meskipun tidak semua orang melihatnya seperti itu. Banyak pihak di Silicon Valley yang memberikan peringatan bahwa undang-undang ini akan mematikan era AI sebelum dimulai.

Apa yang Sebenarnya Dilakukan SB 1047?

SB 1047 membuat penyedia model AI bertanggung jawab atas segala “kerusakan besar”, meskipun masih belum jelas apa dampaknya. Namun demikian, hal ini merupakan hal yang besar karena Silicon Valley secara historis telah menghindari sebagian besar tanggung jawab atas kerugian yang ditimbulkannya. RUU ini memberi wewenang kepada Jaksa Agung California untuk mengambil tindakan hukum terhadap perusahaan-perusahaan ini jika salah satu model AI mereka menyebabkan kerugian parah bagi warga California.

SB 1047 juga mencakup ketentuan “shutdown” yang secara efektif mengharuskan perusahaan AI untuk membuat tombol pemutus (kill switch) untuk model AI jika terjadi keadaan darurat.

RUU tersebut juga menciptakan “Divisi Model Perbatasan” di Departemen Teknologi California. Kelompok tersebut akan mengatur penyedia model AI terdepan ini, dan menegakkan standar keselamatan yang harus dipatuhi oleh setiap perusahaan. Jika bisnis tidak mematuhi Divisi ini, mereka dapat dituntut dan menghadapi hukuman perdata.

Siapa yang Mendukung RUU Ini?

Selain Senator Wiener, dua peneliti AI terkemuka yang terkadang disebut sebagai “Godfathers of AI”, Geoffrey Hinton dan Yoshua Bengio, juga mencantumkan nama mereka dalam rancangan undang-undang ini. Keduanya sangat menonjol dalam mengeluarkan seruan peringatan tentang bahaya AI.

Secara lebih luas, RUU ini sejalan dengan perspektif decel, yang meyakini bahwa AI memiliki kemungkinan yang relatif tinggi untuk mengakhiri umat manusia dan harus diatur sedemikian rupa. Sebagian besar dari orang-orang ini adalah peneliti AI, dan tidak secara aktif mencoba mengkomoditisasi produk AI karena, Anda tahu, mereka mengira hal itu dapat mengakhiri umat manusia.

RUU ini disponsori oleh Pusat Keamanan AI, yang dipimpin oleh Dan Hendrycks. Kelompoknya menerbitkan sebuah surat terbuka pada bulan Mei 2023 mengatakan bahwa risiko kepunahan manusia akibat AI harus ditanggapi sama seriusnya dengan perang nuklir atau pandemi. Itu ditandatangani oleh Sam Altman, Bill Gates, Grimes, dan banyak orang teknologi berpengaruh. Mereka adalah kelompok yang berpengaruh dan pemain kunci dalam mempromosikan RUU ini.

Pada bulan Maret 2023, decel menyerukan a “jeda” pada semua pengembangan AI untuk menerapkan infrastruktur keselamatan. Meskipun kedengarannya ekstrem, ada banyak orang pintar di komunitas AI yang benar-benar percaya bahwa AI dapat mengakhiri umat manusia. Ide mereka adalah jika ada kemungkinan AI akan mengakhiri umat manusia, kita mungkin harus mengaturnya dengan ketat, untuk berjaga-jaga.

Itu masuk akal. Jadi Siapa yang Melawan SB 1047?

Jika Anda menggunakan X, rasanya semua orang di Silicon Valley menentang SB 1047. Pemodal ventura, pendiri startup, peneliti AI, dan pemimpin komunitas AI sumber terbuka membenci RUU ini. Saya biasanya mengkategorikan orang-orang ini sebagai accel, atau setidaknya, di situlah mereka membahas masalah ini. Banyak dari mereka berkecimpung dalam bisnis AI, namun ada juga yang menjadi peneliti.

Sentimen umum yang ada adalah bahwa SB 1047 dapat memaksa penyedia model AI seperti Meta dan Mistral untuk mengurangi, atau menghentikan sepenuhnya, upaya sumber terbuka mereka. RUU ini membuat mereka bertanggung jawab atas pelaku jahat yang menggunakan model AI mereka, dan perusahaan-perusahaan ini mungkin tidak mengambil tanggung jawab tersebut karena sulitnya membatasi AI generatif, dan sifat produk yang terbuka.

“Ini benar-benar akan mematikan, menghancurkan, dan memperlambat ekosistem startup sumber terbuka,” kata Anjney Midha, Mitra Umum A16Z dan Direktur Dewan Mistral, dalam sebuah wawancara dengan Gizmodo. “RUU ini sama saja dengan mencoba mengekang perkembangan mesin cetak, dan bukan berfokus pada hal yang seharusnya, yaitu penggunaan mesin cetak.”

“Open source adalah harapan terbaik kami untuk tetap menjadi yang terdepan dengan melakukan uji keamanan yang transparan untuk model-model baru, daripada membiarkan beberapa perusahaan besar mengendalikan AI secara rahasia,” kata Ion Stoica, Profesor Ilmu Komputer Berkeley dan ketua eksekutif Databricks, dalam sebuah wawancara.

Midha dan Stoica bukan satu-satunya yang memandang regulasi AI penting bagi industri. AI sumber terbuka telah mendukung dunia startup paling berkembang di Silicon Valley selama bertahun-tahun. Para penentang SB 1047 mengatakan bahwa RUU ini akan menguntungkan perusahaan-perusahaan besar yang sudah lama menutup diri dari perusahaan teknologi besar, bukannya ekosistem yang berkembang dan terbuka.`

“Saya benar-benar melihat ini sebagai cara untuk menghambat pengembangan AI open source, sebagai bagian dari strategi yang lebih luas untuk memperlambat AI,” kata Jeremy Nixon, pencipta AGI House, yang berfungsi sebagai pusat hackathon AI open source di Silicon Valley. “RUU ini berasal dari komunitas yang sangat tertarik untuk menghentikan AI secara umum.”

Ini Kedengarannya Sangat Teknis. Bisakah Anggota Parlemen Memperketat Semua Ini?

Ini benar-benar bersifat teknis, dan itu menimbulkan beberapa masalah. SB 1047 hanya berlaku untuk model frontier “besar”, namun seberapa besarkah model tersebut? RUU tersebut mendefinisikannya sebagai model AI yang dilatih pada 10^26 FLOPS, jumlah daya komputasi yang spesifik dan sangat besar menurut standar saat ini. Masalahnya adalah AI berkembang sangat pesat, dan model-model canggih dari tahun 2023 terlihat kecil dibandingkan dengan standar tahun 2024. Menempelkan bendera di pasir tidak akan berhasil untuk medan yang bergerak secepat ini.

Juga tidak jelas apakah mungkin untuk sepenuhnya mencegah sistem AI melakukan kesalahan. Faktanya adalah, kita tidak tahu banyak tentang cara kerja LLM, dan model AI terkemuka saat ini dari OpenAI, Anthropic, dan Google selalu di-jailbreak. Itu sebabnya beberapa peneliti mengatakan regulator harus fokus pada pelaku kejahatan, bukan penyedia model.

“Dengan AI, Anda perlu mengatur kasus penggunaan, tindakan, dan bukan model itu sendiri,” kata Ravid Shwartz Ziv, Asisten Profesor yang mempelajari AI di NYU bersama Yann Lecunn, dalam sebuah wawancara. “Para peneliti terbaik di dunia dapat menghabiskan waktu yang tidak terbatas pada model AI, dan orang-orang masih dapat melakukan jailbreak pada model tersebut.”

Bagian teknis lain dari RUU ini berkaitan dengan model AI sumber terbuka. Jika sebuah startup menggunakan Llama 3 dari Meta, salah satu model AI sumber terbuka paling populer, dan menyempurnakannya menjadi sesuatu yang benar-benar berbeda, apakah Meta masih bertanggung jawab atas model AI tersebut? Berdasarkan RUU ini, tampaknya Meta memang bisa dimintai pertanggungjawaban, namun para penentang RUU menganggap pendekatan ini tidak adil dan bukan pendekatan yang tepat.

Pertanyaan Singkat: Apakah AI Sebenarnya Kebebasan Berbicara?

Tidak jelas. Banyak komunitas AI yang melihat AI open-source sebagai semacam kebebasan berpendapat (itulah sebabnya Midha menyebutnya sebagai mesin cetak). Premisnya adalah bahwa kode yang mendasari model AI adalah bentuk ekspresi, dan keluaran model juga merupakan ekspresi. Kode secara historis berada di bawah Amandemen Pertama dalam beberapa kasus.

Tiga profesor hukum berdebat sebuah artikel Lawfare bahwa model AI bukanlah kebebasan berpendapat. Pertama, mereka mengatakan bobot yang membentuk model AI tidak ditulis oleh manusia tetapi diciptakan melalui operasi pembelajaran mesin yang luas. Manusia bahkan hampir tidak bisa membacanya.

Mengenai keluaran model AI frontier, sistem ini sedikit berbeda dari algoritme media sosial, yang di masa lalu dianggap termasuk dalam Amandemen Pertama. Model AI tidak sepenuhnya mengambil sudut pandang, melainkan menyampaikan banyak hal. Oleh karena itu, para profesor hukum ini mengatakan SB 1047 tidak boleh melanggar Amandemen Pertama.

Terus gimana?

RUU tersebut sedang melaju menuju pemungutan suara pada bulan Agustus yang semakin dekat dan akan mengirimkan RUU tersebut ke meja Gubernur Gavin Newsom. Ada beberapa kendala penting yang harus diatasi untuk mencapainya, dan bahkan Newsom mungkin tidak menandatanganinya karena tekanan dari Silicon Valley. Sebuah kelompok perdagangan teknologi besar baru saja mengirim surat kepada Newsom yang memintanya untuk tidak menandatangani SB 1047.

Namun, Newsom mungkin ingin menjadi preseden bagi negara ini dalam hal AI. Jika SB 1047 diberlakukan, hal ini dapat mengubah lanskap AI di Amerika secara radikal.

Source link