Silicon Valley memicu kontroversi dengan kritik terhadap advokasi keamanan AI, menyoroti ketegangan antara inovasi dan tanggung jawab.
Kritik Terhadap Advokasi Keamanan AI
Pemimpin Silicon Valley, termasuk David Sacks dari White House AI & Crypto dan Jason Kwon dari OpenAI, membuat kehebohan minggu ini dengan komentar mereka tentang kelompok yang mempromosikan keamanan AI. Mereka menuduh bahwa beberapa pendukung keamanan AI tidak sebaik yang terlihat dan bertindak untuk kepentingan pribadi atau kepentingan 'dalang' miliarder di belakang layar. Kelompok keamanan AI yang berbicara dengan TechCrunch mengatakan tuduhan dari Sacks dan OpenAI adalah upaya terbaru Silicon Valley untuk mengintimidasi para kritikusnya, tetapi ini bukan yang pertama.
Pada tahun 2024, beberapa perusahaan modal ventura menyebarkan rumor bahwa RUU keamanan AI California, SB 1047, akan mengirim pendiri startup ke penjara. The Brookings Institution menyebut rumor itu sebagai salah satu dari banyak 'kesalahan representasi' tentang RUU tersebut, tetapi Gubernur Gavin Newsom akhirnya memvetonya. Apakah Sacks dan OpenAI berniat untuk mengintimidasi para kritikus atau tidak, tindakan mereka telah cukup menakutkan beberapa pendukung keamanan AI.
Ketegangan Antara Inovasi dan Tanggung Jawab
Banyak pemimpin nirlaba yang dihubungi TechCrunch minggu lalu meminta untuk berbicara dengan syarat anonim untuk melindungi kelompok mereka dari pembalasan. Kontroversi ini menyoroti ketegangan yang semakin meningkat di Silicon Valley antara membangun AI dengan tanggung jawab dan membangunnya sebagai produk konsumen besar-besaran. Rekan-rekan saya, Kirsten Korosec, Anthony Ha, dan saya membahas tema ini dalam podcast Equity minggu ini.
Kami juga membahas undang-undang keamanan AI baru yang disahkan di California untuk mengatur chatbot dan pendekatan OpenAI terhadap erotika di ChatGPT. Pada hari Selasa, Sacks menulis sebuah posting di X yang menuduh bahwa Anthropic — yang telah mengangkat kekhawatiran tentang kemampuan AI untuk berkontribusi pada pengangguran, serangan siber, dan bahaya besar bagi masyarakat — hanya menakut-nakuti untuk mendapatkan undang-undang yang akan menguntungkan dirinya sendiri dan menenggelamkan startup kecil dalam birokrasi.
Anthropic adalah satu-satunya laboratorium AI besar yang mendukung RUU Senat California 53 (SB 53), sebuah RUU yang menetapkan persyaratan pelaporan keselamatan untuk perusahaan AI besar, yang ditandatangani menjadi undang-undang bulan lalu. Sacks menanggapi esai viral dari salah satu pendiri Anthropic, Jack Clark, tentang ketakutannya terhadap AI. Clark menyampaikan esai tersebut sebagai pidato di konferensi keamanan AI Curve di Berkeley beberapa minggu sebelumnya.
Di antara penonton, itu tampak seperti akun tulus dari keraguan seorang teknolog tentang produknya, tetapi Sacks tidak melihatnya seperti itu. Anthropic menjalankan strategi penangkapan regulasi yang canggih berdasarkan menakut-nakuti. Ini terutama bertanggung jawab atas kegilaan regulasi negara yang merusak ekosistem startup.
Dalam posting lanjutan di X, Sacks mencatat bahwa Anthropic telah memposisikan 'dirinya secara konsisten sebagai musuh dari pemerintahan Trump.' Minggu ini juga, kepala strategi OpenAI, Jason Kwon, menulis posting di X yang menjelaskan mengapa perusahaan mengirimkan panggilan pengadilan kepada nirlaba keamanan AI, seperti Encode, sebuah nirlaba yang mengadvokasi kebijakan AI yang bertanggung jawab.
Kwon mengatakan bahwa setelah Elon Musk menggugat OpenAI — atas kekhawatiran bahwa pembuat ChatGPT telah menyimpang dari misinya yang nirlaba — OpenAI menemukan hal yang mencurigakan bagaimana beberapa organisasi juga mengangkat oposisi terhadap restrukturisasi tersebut. Encode mengajukan amicus brief mendukung gugatan Musk, dan nirlaba lainnya berbicara secara publik menentang restrukturisasi OpenAI.
'Ini menimbulkan pertanyaan transparansi tentang siapa yang mendanai mereka dan apakah ada koordinasi,' kata Kwon. NBC News melaporkan minggu ini bahwa OpenAI mengirimkan panggilan pengadilan luas kepada Encode dan enam nirlaba lainnya yang mengkritik perusahaan, meminta komunikasi mereka terkait dengan dua lawan terbesar OpenAI, Musk dan CEO Meta Mark Zuckerberg.
OpenAI juga meminta Encode untuk komunikasi terkait dukungannya terhadap SB 53. Seorang pemimpin keamanan AI terkemuka mengatakan kepada TechCrunch bahwa ada perpecahan yang semakin besar antara tim urusan pemerintah OpenAI dan organisasi penelitiannya. Sementara peneliti keselamatan OpenAI sering menerbitkan laporan yang mengungkapkan risiko sistem AI, unit kebijakan OpenAI melobi menentang SB 53, mengatakan mereka lebih suka memiliki aturan yang seragam di tingkat federal.
Kepala penyelarasan misi OpenAI, Joshua Achiam, berbicara tentang perusahaannya mengirimkan panggilan pengadilan kepada nirlaba dalam sebuah posting di X minggu ini. 'Pada apa yang mungkin menjadi risiko bagi seluruh karier saya, saya akan mengatakan: ini tidak terlihat bagus,' kata Achiam.
Brendan Steinhauser, CEO dari nirlaba keamanan AI Alliance for Secure AI (yang belum dipanggil oleh OpenAI), mengatakan kepada TechCrunch bahwa OpenAI tampaknya yakin para pengkritiknya adalah bagian dari konspirasi yang dipimpin Musk. Namun, dia berpendapat ini tidak benar, dan bahwa banyak komunitas keamanan AI cukup kritis terhadap praktik keamanan xAI, atau kekurangannya.
'Di pihak OpenAI, ini dimaksudkan untuk membungkam para kritikus, untuk mengintimidasi mereka, dan untuk mencegah nirlaba lainnya melakukan hal yang sama,' kata Steinhauser. 'Untuk Sacks, saya pikir dia khawatir bahwa [gerakan keamanan AI] ini tumbuh dan orang-orang ingin membuat perusahaan-perusahaan ini bertanggung jawab.'
Sriram Krishnan, penasihat kebijakan senior Gedung Putih untuk AI dan mantan mitra umum a16z, ikut serta dalam percakapan minggu ini dengan posting media sosialnya sendiri, menyebut pendukung keamanan AI tidak terhubung dengan kenyataan. Dia mendesak organisasi keamanan AI untuk berbicara dengan 'orang-orang di dunia nyata yang menggunakan, menjual, mengadopsi AI di rumah dan organisasi mereka.'
Sebuah studi Pew baru-baru ini menemukan bahwa sekitar setengah dari orang Amerika lebih khawatir daripada bersemangat tentang AI, tetapi tidak jelas apa yang membuat mereka khawatir. Studi lain baru-baru ini menjelaskan lebih lanjut dan menemukan bahwa pemilih Amerika lebih peduli tentang kehilangan pekerjaan dan deepfake daripada risiko bencana yang disebabkan oleh AI, yang sebagian besar difokuskan oleh gerakan keamanan AI.
Menangani masalah keamanan ini dapat mengorbankan pertumbuhan cepat industri AI — sebuah pertukaran yang membuat banyak orang di Silicon Valley khawatir. Dengan investasi AI yang menopang sebagian besar ekonomi Amerika, ketakutan akan regulasi berlebihan dapat dimengerti. Tetapi setelah bertahun-tahun kemajuan AI yang tidak diatur, gerakan keamanan AI tampaknya mendapatkan momentum nyata menuju 2026. Upaya Silicon Valley untuk melawan kelompok yang berfokus pada keamanan mungkin merupakan tanda bahwa mereka bekerja.