Pada 16 April, OpenAI mengumumkan GPT-Rosalind, model AI baru yang ditujukan untuk ilmu hayati. Model ini secara signifikan melampaui model publik mereka saat ini dalam tugas kimia dan biologi, serta dalam perancangan eksperimen. Seperti Claude Mythos milik Anthropic dan GPT-5.4-Cyber milik OpenAI yang juga dirilis bulan ini, model ini tidak tersedia untuk publik umum—setidaknya pada tahap awal, hanya diperuntukkan bagi “pelanggan yang memenuhi syarat” melalui “program akses tepercaya”.
Peluncuran ini menandakan tren baru yang mengkhawatirkan, di mana perusahaan AI menganggap model paling canggih mereka terlalu kuat untuk dipercayakan kepada publik umum. “Saya pikir para pengembang terdepan membatasi akses ke model paling canggih mereka karena mereka benar-benar khawatir terhadap beberapa kemampuan yang dimiliki model-model ini,” kata Peter Wildeford, kepala kebijakan di AI Policy Network, sebuah kelompok advokasi.
Tidak jelas mengapa OpenAI memutuskan untuk membatasi akses ke GPT-Rosalind secara khusus. Seorang juru bicara OpenAI menyatakan melalui email bahwa memberikan akses kepada mitra tepercaya memungkinkan perusahaan “menyediakan sistem yang lebih canggih lebih cepat kepada pengguna terverifikasi, sambil tetap mengelola risiko secara hati-hati.”
Siapa yang Menentukan?
Kemajuan pesat kemampuan AI memunculkan pertanyaan apakah perusahaan swasta seharusnya mengambil keputusan yang semakin penting mengenai apakah dan bagaimana model AI yang berpotensi berbahaya harus dikembangkan, serta siapa yang boleh menggunakannya. “Saya pikir pemerintah federal memiliki peran dalam hal ini,” kata Perwakilan Mark DeSaulnier, seorang Demokrat dari California.
Peluncuran Mythos oleh Anthropic tampaknya memperbaiki hubungan mereka yang sebelumnya tegang dengan Gedung Putih, yang pekan lalu menyatakan telah mengadakan pertemuan yang “produktif dan konstruktif” dengan CEO Anthropic, Dario Amodei. NSA juga dilaporkan mulai menggunakan Claude Mythos. Pada bulan Februari, Presiden Trump memerintahkan lembaga federal untuk menghentikan kerja sama dengan “perusahaan sayap kiri radikal yang ‘woke’” setelah sengketa kontrak dengan Pentagon.
Pembatasan akses terhadap rangkaian model terbaru ini bersifat sukarela dari pihak Anthropic dan OpenAI. Namun, seiring risiko yang ditimbulkan oleh model AI menjadi semakin serius dan kompleks, sebagian pihak menyerukan pengawasan eksternal yang lebih ketat.
“Kita tidak mengizinkan perusahaan menentukan seberapa banyak polutan beracun yang boleh dimasukkan ke dalam air minum anak saya—itu keputusan pemerintah,” kata Connor Leahy, direktur AS untuk ControlAI, kelompok advokasi regulasi AI. “Kita bisa berdebat apakah pemerintah melakukan pekerjaan dengan baik atau buruk, tetapi ini soal pemisahan kekuasaan.”
‘Riset Ilmiah dan Pembuatan Senjata Biologis Terlihat Sangat Mirip’
Kemampuan penggunaan ganda, seperti riset biologi dan keamanan siber, menjadi tantangan bagi perusahaan AI. Alat yang sama yang membantu peneliti keamanan siber menemukan dan menutup celah dalam perangkat lunak juga dapat membantu pihak yang berniat menyerang. AI yang membantu mempelajari virus secara hipotetis juga dapat membantu bioteroris merancang varian yang lebih mematikan. “Pertahanan siber dan serangan siber terlihat sangat mirip,” kata Wildeford. “Riset ilmiah dan pembuatan senjata biologis terlihat sangat mirip.”
Di masa lalu, perusahaan memilih untuk membatasi kemampuan ini bagi semua orang. Banyak chatbot, misalnya, menolak pertanyaan tentang mutasi COVID apa yang membuat virus lebih mudah menular. Meskipun hal ini tidak mengganggu pengguna biasa, hal tersebut menjadi tantangan bagi peneliti. “Ini membuat frustrasi,” kata James Diggans, wakil presiden kebijakan dan biosekuriti di Twist Bioscience, perusahaan sintesis DNA. “Tetapi saya pikir itu adalah hal yang benar untuk dilakukan.”
Peluncuran model terbaru ini melonggarkan beberapa pembatasan tersebut untuk pihak-pihak tepercaya. OpenAI menyatakan hanya memberikan akses GPT-Rosalind kepada organisasi dengan “kontrol internal yang kuat” untuk memastikan model tidak disalahgunakan. Anthropic bekerja sama dengan lembaga pemerintah AS dan perusahaan swasta yang menggunakan Mythos untuk menemukan dan menutup celah keamanan siber. Namun, Steph Batalis, peneliti di Center for Security and Emerging Technology, mengatakan bahwa mendefinisikan peneliti “yang sah” lebih sulit di luar institusi AS, sehingga menimbulkan kekhawatiran terkait kesetaraan bagi peneliti internasional.
Menentukan model mana yang harus memiliki akses terbatas merupakan tindakan penyeimbangan yang rumit dan berbeda-beda tergantung bidangnya. Dalam keamanan siber, relatif mudah mengukur apakah model AI menimbulkan ancaman: “Apakah mereka bisa membobol sistem yang ada?” kata Diggans. Riset biologi jauh lebih kompleks dan berlangsung dalam beberapa tahap, sehingga tidak jelas apakah bahaya akan muncul jika model seperti GPT-Rosalind dirilis secara publik. “Kita tahu bahwa orang ingin, dan memang melakukan, serangan siber,” kata Batalis. “Kita tidak memiliki jumlah data yang sama untuk risiko biologis.” Bidang lain juga berpotensi menjadi lebih kontroversial seiring kemajuan AI, misalnya kampanye komunikasi yang di tangan yang salah dapat dianggap sebagai operasi propaganda.
‘Kemampuan Siber Akan Menyebar’
Model sumber terbuka, yang dapat diunduh dan dijalankan secara gratis, dapat mengubah perhitungan terkait pembatasan model AI. Secara historis, kemampuan model sumber terbuka tertinggal tiga hingga tujuh bulan dari model proprietari, menurut Epoch AI, lembaga riset yang mempelajari perkembangan AI. Artinya, jika tren ini berlanjut, model AI dengan kemampuan setara GPT-Rosalind dan Mythos bisa tersedia untuk publik pada akhir tahun ini. “Kemampuan siber akan menyebar,” kata juru bicara OpenAI. “Pihak pertahanan membutuhkan alat yang lebih baik lebih awal, bukan nanti.”
Model sumber terbuka dapat menguntungkan pelaku serangan siber internasional. Pada bulan November, Anthropic mengumumkan telah menghentikan kelompok yang didukung negara China yang menggunakan model berbayar mereka, dengan memblokir akses ke AI tersebut. Jika model dengan kemampuan serupa tersedia bebas di internet, hal ini akan mengurangi pengaruh perusahaan Barat.
Namun, beberapa pengembang sumber terbuka sebelumnya mengandalkan keluaran dari sistem proprietari terkemuka untuk membantu melatih model mereka. Pembatasan akses terbaru terhadap model-model ini dapat memperlambat atau menghentikan penyebaran kemampuan paling canggih ke model sumber terbuka—selama perusahaan dapat menegakkan pembatasan tersebut. (Beberapa pengguna tidak sah dilaporkan telah berhasil mengakses Claude Mythos.)
Terlepas dari apakah model sumber terbuka akan menyamai model proprietari terdepan, Mythos dan GPT-Rosalind kini menjadi standar dasar baru dalam kemampuan AI mutakhir—dan peluang serta risiko yang ditimbulkannya tidak menunjukkan tanda-tanda melambat. “Saya pikir pemerintah memiliki kepentingan besar dalam mengelola hal itu,” kata Wildeford. “Saya tidak benar-benar tahu bagaimana kita bisa menghindari kebutuhan akan intervensi pemerintah.”
