OpenAI adalah pemimpin dalam perlombaan untuk mengembangkan AI secerdas manusia. Namun, para pekerja terus muncul di surat kabar dan podcast untuk menyuarakan keprihatinan mereka tentang keselamatan di laboratorium penelitian nirlaba senilai $80 miliar. Yang terbaru berasal dari Washington Postdi mana sumber anonim mengklaim OpenAI melakukan pengujian keamanan dengan cepat dan merayakan produk mereka sebelum memastikan keamanannya.

“Mereka merencanakan peluncuran setelah pesta sebelum mengetahui apakah aman untuk diluncurkan,” kata seorang karyawan yang tidak mau disebutkan namanya. Washington Post. “Kami pada dasarnya gagal dalam proses itu.”

Masalah keamanan muncul di OpenAI — dan tampaknya terus terjadi. Karyawan saat ini dan mantan karyawan OpenAI baru-baru ini menandatangani surat terbuka yang menuntut praktik keamanan dan transparansi yang lebih baik dari startup tersebut, tak lama setelah tim keamanannya dibubarkan menyusul kepergian salah satu pendirinya, Ilya Sutskever. Jan Leike, seorang peneliti utama di OpenAI, segera mengundurkan diri setelah itu, mengklaim dalam sebuah postingan bahwa “budaya dan proses keamanan telah mengambil tempat di belakang produk-produk cemerlang” di perusahaan tersebut.

Keamanan adalah inti dari piagam OpenAI, dengan klausul yang mengklaim OpenAI akan membantu organisasi lain untuk meningkatkan keamanan jika AGI dicapai pada pesaing, daripada terus bersaing. Ia mengklaim didedikasikan untuk memecahkan masalah keamanan yang melekat pada sistem yang besar dan kompleks. OpenAI bahkan merahasiakan model kepemilikannya, bukan terbuka (menyebabkan reaksi balik dan tuntutan hukum), demi keamanan. Peringatan tersebut membuat seolah-olah keselamatan bukanlah prioritas padahal hal ini sangat penting bagi budaya dan struktur perusahaan.

Jelas bahwa OpenAI berada di posisi terdepan — namun upaya hubungan masyarakat saja tidak akan cukup untuk melindungi komunitas

“Kami bangga dengan rekam jejak kami dalam menyediakan sistem AI yang paling mumpuni dan teraman serta percaya pada pendekatan ilmiah kami dalam mengatasi risiko,” kata juru bicara OpenAI Taya Christianson dalam sebuah pernyataan kepada Tepi. “Perdebatan yang ketat sangat penting mengingat pentingnya teknologi ini, dan kami akan terus menjalin hubungan dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia dalam menjalankan misi kami.”

Pertaruhan seputar keamanan, menurut OpenAI dan pihak lain yang mempelajari teknologi baru ini, sangatlah besar. “Pengembangan AI yang ada saat ini menimbulkan risiko yang mendesak dan semakin besar terhadap keamanan nasional,” kata sebuah laporan yang ditugaskan oleh Departemen Luar Negeri AS pada bulan Maret. “Munculnya AI dan AGI yang canggih [artificial general intelligence] berpotensi mengganggu stabilitas keamanan global dengan cara yang mirip dengan penggunaan senjata nuklir.”

Peringatan di OpenAI juga menyusul kudeta ruang rapat tahun lalu yang secara singkat menggulingkan CEO Sam Altman. Dewan mengatakan dia dicopot karena gagal “secara konsisten berterus terang dalam komunikasinya,” yang menyebabkan penyelidikan tidak banyak meyakinkan staf.

Kata juru bicara OpenAI, Lindsey Held Pos peluncuran GPT-4o bersifat “tidak berkomitmen” dalam hal keamanan, namun perwakilan perusahaan lain yang tidak disebutkan namanya mengakui bahwa jangka waktu peninjauan keamanan telah dipersingkat menjadi satu minggu. Kami “memikirkan kembali cara kami melakukannya,” kata perwakilan yang tidak disebutkan namanya itu Pos. “Ini [was] hanya saja bukan cara terbaik untuk melakukannya.”

Dalam menghadapi kontroversi yang bergulir (ingat Dia insiden?), OpenAI telah mencoba menghilangkan ketakutan dengan beberapa pengumuman tepat waktu. Minggu ini, mereka mengumumkan bahwa mereka bermitra dengan Laboratorium Nasional Los Alamos untuk mengeksplorasi bagaimana model AI canggih, seperti GPT-4o, dapat dengan aman membantu penelitian biosains, dan dalam pengumuman yang sama mereka berulang kali menunjuk pada catatan keamanan Los Alamos sendiri. Keesokan harinya, kata seorang juru bicara yang tidak disebutkan namanya Bloomberg bahwa OpenAI menciptakan skala internal untuk melacak kemajuan model bahasa besarnya menuju kecerdasan umum buatan.

Pengumuman OpenAI yang berfokus pada keamanan minggu ini tampaknya menjadi penyelamat dalam menghadapi meningkatnya kritik terhadap praktik keamanannya. Jelas bahwa OpenAI berada di posisi terdepan — namun upaya hubungan masyarakat saja tidak akan cukup untuk melindungi komunitas. Yang benar-benar penting adalah potensi dampak terhadap mereka yang berada di luar gelembung Silicon Valley jika OpenAI terus gagal mengembangkan AI dengan protokol keamanan yang ketat, seperti yang diklaim secara internal: masyarakat biasa tidak mempunyai suara dalam pengembangan privatisasi-AGI, namun mereka tidak punya hak suara. pilihan tentang seberapa besar mereka akan dilindungi dari kreasi OpenAI.

“Alat AI bisa menjadi revolusioner,” kata ketua FTC Lina Khan Bloomberg Di bulan November. Namun “sejauh ini,” katanya, ada kekhawatiran bahwa “masukan penting dari alat-alat ini dikendalikan oleh sejumlah kecil perusahaan.”

Jika banyak klaim terhadap protokol keamanan mereka akurat, hal ini tentu menimbulkan pertanyaan serius tentang kesesuaian OpenAI untuk peran ini sebagai manajer AGI, sebuah peran yang pada dasarnya diberikan oleh organisasi tersebut. Mengizinkan sebuah kelompok di San Francisco untuk mengendalikan teknologi yang berpotensi mengubah masyarakat adalah hal yang mengkhawatirkan, dan terdapat tuntutan yang mendesak bahkan di dalam kelompok mereka sendiri terhadap transparansi dan keamanan saat ini, lebih dari sebelumnya.

Sumber