Seorang mantan anggota dewan OpenAI menyerukan peraturan pemerintah yang lebih baik terhadap perusahaan karena kepemimpinan CEO Sam Altman mendapat kecaman.

Helen Toner dan Tasha McCauley – dua dari beberapa mantan karyawan yang menjadi pemeran karakter yang menggulingkan Altman pada bulan November – mengatakan keputusan mereka untuk memecat pemimpin tersebut dan “menyelamatkan” struktur peraturan OpenAI didorong oleh “pola perilaku jangka panjang yang ditunjukkan oleh Tuan Altman,” yang “melemahkan pengawasan dewan terhadap keputusan penting dan protokol keamanan internal.”

Menulis dalam Op-Ed yang diterbitkan oleh Ekonom pada tanggal 26 Mei, Toner dan McCauley mengklaim bahwa pola perilaku Altman, ditambah dengan ketergantungannya pada pemerintahan mandiri, adalah resep bencana AGI.

LIHAT JUGA:

FCC mungkin memerlukan label AI untuk iklan politik

Meskipun keduanya mengatakan bahwa mereka bergabung dengan perusahaan tersebut “sangat optimis” tentang masa depan OpenAI, didukung oleh motivasi yang tampaknya altruistik dari perusahaan nirlaba tersebut pada saat itu, keduanya mempertanyakan tindakan Altman dan perusahaan tersebut. “Beberapa pemimpin senior secara pribadi menyampaikan kekhawatiran serius mereka kepada dewan,” tulis mereka, “dengan mengatakan bahwa mereka yakin Mr. Altman memupuk ‘budaya kebohongan yang beracun’ dan terlibat dalam ‘perilaku. [that] dapat digambarkan sebagai pelecehan psikologis.'”

“Perkembangan sejak dia kembali ke perusahaan – termasuk kembalinya dia ke dewan direksi dan kepergian talenta senior yang berfokus pada keamanan – menjadi pertanda buruk bagi eksperimen OpenAI dalam tata kelola mandiri,” lanjut mereka. “Bahkan dengan niat terbaik sekalipun, tanpa pengawasan eksternal, pengaturan mandiri semacam ini pada akhirnya tidak dapat dilaksanakan, terutama di bawah tekanan insentif keuntungan yang besar. Pemerintah harus memainkan peran aktif.”

Di bagian belakang, Toner dan McCauley menulis, “Jika ada perusahaan yang berhasil mengatur dirinya sendiri sambil mengembangkan sistem AI canggih dengan aman dan etis, maka perusahaan tersebut harus OpenAI.”

Kecepatan Cahaya Bisa Dihancurkan

LIHAT JUGA:

Apa yang diceritakan dalam drama OpenAI karya Scarlett Johansson kepada kita tentang masa depan AI

Mantan anggota dewan menentang dorongan yang ada saat ini untuk melakukan pelaporan mandiri dan peraturan eksternal yang relatif minim terhadap perusahaan AI karena undang-undang federal terhenti. Di luar negeri, gugus tugas AI sudah menemukan kelemahan dalam mengandalkan raksasa teknologi untuk memimpin upaya keamanan. Pekan lalu, UE mengeluarkan peringatan bernilai miliaran dolar kepada Microsoft setelah mereka gagal mengungkapkan potensi risiko dari CoPilot dan Image Creator mereka yang didukung AI. Laporan Institut Keamanan AI Inggris baru-baru ini menemukan bahwa perlindungan beberapa Model Bahasa Besar (LLM) publik terbesar mudah dirusak oleh perintah jahat.

Dalam beberapa minggu terakhir, OpenAI telah menjadi pusat perbincangan mengenai peraturan AI menyusul serangkaian pengunduran diri pejabat tinggi yang dilakukan oleh karyawan tingkat tinggi dengan alasan perbedaan pandangan tentang masa depannya. Setelah salah satu pendiri dan kepala tim penyelarasan supernya, Ilya Sutskever, dan salah satu kepala Jan Leike meninggalkan perusahaan, OpenAI membubarkan tim keamanan internalnya.

Leike mengatakan bahwa dia khawatir mengenai masa depan OpenAI, karena “budaya dan proses keamanan telah berada di urutan belakang dalam produk yang cemerlang.”

LIHAT JUGA:

Salah satu pemimpin keamanan OpenAI mengundurkan diri pada hari Selasa. Dia hanya menjelaskan alasannya.

Altman mendapat kecaman karena kebijakan luar negeri perusahaan yang memaksa karyawan yang keluar untuk menandatangani NDA yang melarang mereka mengatakan sesuatu yang negatif tentang OpenAI atau berisiko kehilangan ekuitas yang mereka miliki dalam bisnis tersebut.

Segera setelah itu, Altman dan presiden serta salah satu pendiri Greg Brockman menanggapi kontroversi tersebut, menulis di X: “Masa depan akan lebih sulit daripada masa lalu. Kita perlu terus meningkatkan upaya keamanan kita agar sesuai dengan pentingnya setiap model baru. . . . . terus bekerja sama dengan pemerintah dan banyak pemangku kepentingan di bidang keamanan.

Dalam pandangan banyak mantan karyawan OpenAI, filosofi regulasi internet yang secara historis “sentuhan ringan” tidak akan berhasil.

Tema
Kecerdasan Buatan OpenAI



Sumber