Di Laboratorium Nasional Pacific Northwest, para peneliti di laboratorium yang dikelola oleh Departemen Energi berlomba untuk mempelajari sebagian besar risiko yang terkait dengan kecerdasan buatan, termasuk bias, kerentanan keamanan, dan potensi membahayakan keamanan nasional.

Baru tahun lalu, laboratorium tersebut secara resmi mengumumkan pendirian Pusat Kecerdasan Buatan, sebuah langkah yang dilakukan beberapa minggu setelah pemerintahan Biden menandatangani perintah eksekutif tentang AI. Pusat ini sekarang berfungsi sebagai pusat bagi para ilmuwan dengan keahlian di bidang teknologi di seluruh fasilitas tersebut. Lab ini juga bekerja sama dengan perusahaan teknologi termasuk Nvidia dan Microsoft, serta meningkatnya penggunaan GPT4, model OpenAI yang tersedia melalui cloud Azure.

Pekerjaan laboratorium ini menunjukkan banyak tantangan yang akan dihadapi pemerintah federal ketika mencoba mempelajari dan menerapkan sistem AI generatif. Untuk menggunakan teknologi ini, PNNL telah menyiapkan kotak pasir aman yang dimaksudkan untuk melindungi data, dan sekarang secara rutin memperbarui kebijakan resmi sejalan dengan pedoman federal dan negara bagian.

Para pemimpin laboratorium juga meningkatkan pelatihan AI yang kini menjangkau sekitar 2.000 anggota stafnya. Sementara itu, staf TI di laboratorium nasional harus fokus pada pengurangan penggunaan titik akhir yang lebih berisiko untuk mengakses model AI, yang dapat berisiko membahayakan data non-publik.

“Secara keseluruhan, kami menemukan bahwa hampir semua sistem AI, tidak hanya model dasar, memiliki bias dan kerentanan keamanan yang melekat,” kata Courtney Corley, yang memimpin Pusat AI di laboratorium tersebut. “Laboratorium nasional memiliki peran khusus dalam membantu membangun dan membuat model dasar, tetapi juga memastikan dan mengevaluasinya – dan juga mengevaluasi kemampuan mereka dan mengevaluasi potensi mereka untuk mengungkap informasi tentang risiko kimia, bio, dan nuklir.”

FedScoop baru-baru ini berbicara dengan beberapa pejabat yang terkait dengan pekerjaan PNNL di bidang kecerdasan buatan, termasuk Corley, Quentin Kreilmann, kepala kapasitas dan strategi teknologi di PNNL, dan Andy Cowell, direktur divisi komputasi penelitian.

Wawancara ini telah diedit untuk kejelasan dan panjangnya.

sendok fed: Kasus penggunaan AI generatif apa yang sedang Anda tangani saat ini?

Quentin Kreilmann: Itu adalah topik yang sangat kompleks yang memiliki banyak lapisan berbeda bagi kita. Bagian dari eksplorasi GenAI kami adalah mencoba mengidentifikasi audiens kami karena ada ratusan kasus penggunaan di setiap audiens. Jika Anda benar-benar memulai dari awal, [there’s] kasus penggunaan menggunakan ChatGPT secara internal untuk berbagai optimasi, baik di sisi operasional maupun penelitian. Dalam hal rekayasa perangkat lunak, kami memiliki serangkaian kasus penggunaan TI yang berbeda. …

Kami juga banyak menggunakan AI generatif untuk domain sains, jadi gunakanlah perangkat yang ada lalu praktikkan, baik di sisi penelitian maupun di sisi operasional. Kami juga membantu mengembangkan beberapa jenis teknik AI baru.

Setahun terakhir ini, kami mendanai 25 proyek awal berbeda yang menyentuh berbagai kasus penggunaan berbeda. … Kami telah melakukan beberapa hal [research] terkait dengan membangun digital twins, untuk sinyal instrumentasi [and] untuk pemeliharaan prediktif. Kami telah melakukan berbagai proyek seputar modernisasi jaringan, ketahanan, fenomena prediktif, ilmu kimia dan material, ilmu iklim dan bumi, eksperimen otonom, penemuan, dan keamanan alam.

Courtney Corley: Salah satu tujuan utama kami adalah memajukan teknologi AI dan penerapannya. Karena kami laboratorium nasional, kami sangat mendukung luasnya [work on] penemuan ilmiah, energi, ketahanan, dan keamanan nasional.

FS: Bagaimana Anda melihat hubungan Anda dengan model dasar dan perusahaan yang membangunnya?

CC: Model dasar adalah komponen penting dari AI modern. Kami memiliki staf yang merupakan bagian dari konsorsium yang membangun dan melatih model dasar yang besar. … Kami sangat tertarik untuk memajukan model fundamental ilmu pengetahuan, energi dan keamanan. Itu mungkin terlihat seperti penyempurnaan, mungkin terlihat seperti menambahkannya dengan cara lain. Ini mungkin terlihat seperti mengidentifikasi mereka dan menempatkannya dalam kerangka agen, sehingga kita dapat memanfaatkannya di seluruh alur kerja kita [and] di laboratorium.

Sudut pandang lain yang menjadi prioritas kami adalah jaminan AI, sehingga memastikan sistem yang didukung AI aman, terjamin, dan andal — bahwa biasnya terbatas dan digunakan secara etis.

FS: Apa yang kamu temukan? Apakah mereka aman? Apakah mereka adil?

CC: Secara umum, kami menemukan bahwa hampir semua sistem AI – bukan hanya model dasar – memiliki bias dan kerentanan keamanan yang melekat. Ini adalah pendekatan dua arah, ya, untuk mengembangkannya, namun juga memastikan bahwa mereka aman selama pengembangan dan bahwa mereka melakukan apa yang kita harapkan. …Kami tidak ingin mengungkapkan kemampuan kepada orang lain yang dapat meningkatkan keterampilan tertentu yang akan merugikan dunia dan bangsa. Ini disebut secara khusus di perintah eksekutif AI dari presiden tentang AI yang aman, terjamin, dan andal Oktober lalu – dimana laboratorium nasional mempunyai peran khusus dalam membantu membangun model dasar, namun juga memastikan dan mengevaluasinya.

FS: Bisakah Anda menjelaskan sedikit tentang firewall data yang Anda berikan?

QQ: Pada dasarnya, kami telah membuat tiruan ChatGPT secara internal dan membuatnya tersedia. Hal ini menjadi awal dari program inkubator AI kami, yang bertujuan untuk menjadi semacam lingkungan sandbox yang aman bagi orang-orang untuk mulai bermain dan menerapkan AI dalam pekerjaan mereka. …

Dalam hal teknologi, dalam hal komputasi riset, kami telah menciptakan lingkungan tersebut, namun juga memberikan perhatian yang besar pada pembinaan, literasi AI, dan memastikan orang-orang terlatih dengan baik. Untuk mulai mendapatkan akses ke perangkat kami, Anda harus melalui program orientasi. Ini adalah sesuatu yang telah kami kumpulkan dan kemas ke dalam akselerator yang kini dibagikan ke seluruh kompleks. …

Kami masih benar-benar memastikan bahwa masyarakat memahami pertimbangan keamanan data yang paling penting. Salah satu alasan program ini adalah untuk mengurangi paparan kita [to] siapa pun di lab yang menggunakan alat yang dihosting secara eksternal dan membocorkan data kami. …

Aspek unik lainnya dari pendekatan lab kami adalah pada awal semua ini, kami mengizinkan seluruh lab kami bereksperimen dengan serangkaian pedoman di bagian paling atas, dan kami telah menyesuaikan panduan tersebut dari waktu ke waktu berdasarkan hal-hal lain yang telah ada. seperti perintah eksekutif, panduan dari Departemen Energi, dan sekarang beberapa panduan tingkat negara bagian akan dirilis. …

Kami telah melihat jumlah orang yang mengakses titik akhir yang lebih berisiko menurun dan kami benar-benar mengambil pendekatan ini dengan tidak melarang siapa pun untuk menggunakan [and] benar-benar memacu inovasi sebanyak mungkin — namun lakukanlah dengan aman, terjamin, dan terus menarik orang ke perangkat canggih sehingga mereka tidak merasa harus beralih ke tempat lain.

Andy Cowell: Umumnya ada aturan yang kami ikuti: … Jika Anda tidak membayar untuk sesuatu, keterlibatan Anda dengan platform tertentu akan dijual. Tidak hanya itu [ring] berlaku pada media sosial, namun juga pada beberapa aplikasi AI generatif. Dengan banyaknya alat yang tersedia secara gratis, interaksi Anda, data yang Anda masukkan ke dalamnya, sebenarnya digunakan untuk melatih model lebih lanjut dalam beberapa kasus.

[What] yang ingin kami lakukan adalah membuat obrolan ini di inkubator AI kami untuk menyimpan semua data tersebut [that our staff is using] tetap aman dan kami percaya bahwa, Anda tahu, itu tidak digunakan untuk melatih dan muncul dalam interaksi lain yang mungkin dilakukan orang lain dengan platform yang sama.

FS: Saya ingin tahu bagaimana pendapat Anda tentang berbagai jenis sistem AI generatif yang tersedia. Saya tahu Anda menggunakan GPT4, tapi bagaimana dengan sistem yang ditawarkan oleh perusahaan lain, seperti Anthropic?

AC: Inti dari obrolan kami di inkubator AI… adalah model OpenAI yang diakses melalui layanan Azure AI, tetapi kami juga melakukan banyak penelitian pada model sumber terbuka. Ada yang mengatakan bahwa inovasi yang terjadi di komunitas open source sama banyaknya dengan yang terjadi di beberapa perusahaan besar. Kami mengikuti kedua sisi karena kami memiliki beberapa kasus penggunaan potensial di lingkungan lain yang belum tentu terhubung ke Internet. Dalam hal Anthropic dan Google, kami sudah mulai melakukan beberapa keterlibatan di sana, namun tetap pada model OpenAI.

QQ: Kami memiliki akses ke semua model mereka dengan aman dan itulah posisi unik yang dimiliki PNNL dalam penyediaan cloud. Jadi kami memiliki akses ke semua CSP yang berbeda dan semua model terkait, dan kami memiliki serangkaian proyek awal yang menggunakan kombinasi keduanya.

FS: Hal apa yang paling sulit diterapkan di hadapan AI?

CC: Benar-benar menantang untuk mengikuti semua inovasi baru. Ini merupakan upaya penting untuk mengikuti kemajuan tersebut, bagaimana kita dapat memanfaatkannya untuk misi kita, dan kemudian memutuskan apa yang akan kita bawa dan berikan kepada para peneliti kita.

AC: Saya juga berpendapat bahwa ini adalah luasnya penerapan AI generatif di banyak bidang berbeda. … Semua yang kami lakukan, ada elemen gen AI yang kini menjadi bagiannya.

QQ: Kembali ke laju perubahan. Anda perlu terus-menerus memindai lingkungan. … Kami memiliki sekelompok ilmuwan dan peneliti AI yang mengetahui dengan baik cara kerja teknologi, tetapi kami juga memiliki sekelompok orang yang terlibat dalam hal ini dengan banyak pemikiran ajaib. Harus ada banyak macam penghapusan apa yang mungkin dan apa yang tidak mungkin.


Ditulis oleh Rebecca Heilweil

Rebecca Heilweil adalah reporter investigasi untuk FedScoop. Dia menulis tentang titik temu antara pemerintah, kebijakan teknologi, dan teknologi baru. Dia sebelumnya adalah reporter di situs teknologi Vox, Recode. Dia juga menulis untuk Slate, Wired, Wall Street Journal dan publikasi lainnya. Anda dapat menghubunginya di [email protected]. Kirimi dia pesan jika Anda ingin mengobrol di Signal.

Sumber