zf L/Getty Gambar

Istilah “agen AI” atau “agen kecerdasan buatan” kini semakin umum digunakan sehingga para investor di bidang teknologi menyadari perlunya membedakan hal tersebut.

Dalam serangkaian postingan blog yang diterbitkan minggu lalu, seorang partner di sebuah perusahaan modal ventura Usaha Menlo(yang telah mendanai startup di bidang kecerdasan buatan seperti Antropis), tentukan “gelombang agen berikutnya” dan bagaimana kinerja mereka akan mengungguli agen yang diperkenalkan sejauh ini.

Agen masa depan, tulis mereka, memiliki empat kemampuan berbeda.

“Agen yang sepenuhnya otonom didefinisikan oleh empat elemen yang, jika digabungkan, meningkatkan kemampuan agen secara penuh: penalaran, memori eksternal, eksekusi, dan perencanaan,” tulis para penulis.

“Untuk lebih jelasnya, agen yang sepenuhnya otonom di masa depan mungkin memiliki keempat elemen dasar tersebut, namun aplikasi dan agen LLM saat ini tidak memilikinya,” mereka menyatakan.

Penulisnya, Tim Tully, Joff Redfern, Deedy Das, dan Derek Xiao, menggali lebih dalam posting blog pertama apa artinya sesuatu menjadi “agentik”. Perangkat lunak, tulis mereka, pada akhirnya harus mendapatkan otonomi yang lebih besar dalam memilih langkah-langkah yang mungkin diambil untuk memecahkan suatu masalah.

“Agen muncul ketika Anda menempatkan LLM dalam aliran kontrol aplikasi Anda dan membiarkannya secara dinamis memutuskan tindakan apa yang harus diambil, alat apa yang akan digunakan, dan bagaimana menafsirkan dan merespons masukan,” tulis para penulis.

Model bahasa besar konvensional dapat memiliki akses ke “alat”, seperti program eksternal yang memungkinkan LLM melakukan tugas. Anthropic telah melakukan ini dengan fitur Penggunaan Alatnya, dan OpenAI memiliki hal serupa.

Namun, penulis menjelaskan bahwa penggunaan alat ini hanya memberikan LLM cara untuk memecahkan masalah, bukan kontrol untuk memutuskan bagaimana masalah harus diselesaikan.

Seperti yang penulis tuliskan, “Penggunaan alat memang ampuh, namun dengan sendirinya, [it] tidak dapat dianggap ‘agentik’. Alur kontrol logika tetap ditentukan sebelumnya oleh aplikasi.” Sebaliknya, agen harus memiliki kemampuan luas untuk memilih alat yang akan digunakan, yaitu logika keputusan.

Beberapa versi perangkat lunak semakin dekat untuk menjadi agen nyata, jelas penulis. Salah satunya adalah “agen keputusan”, yang menggunakan model bahasa besar untuk memilih dari serangkaian aturan yang pada gilirannya menentukan alat mana yang harus digunakan. Mereka mengutip startup perangkat lunak kesehatan depan sebagai contoh sistem keputusan seperti itu.

menlo-ventures-2024-agen keputusan

Usaha Menlo

Selanjutnya, agen tingkat tinggi, yang disebut “agen on-track,” “diberikan tujuan tingkat tinggi untuk dicapai (misalnya, ‘mendamaikan faktur ini dengan buku besar,'” tulis mereka. Program ini diberikan lebih banyak kebebasan untuk mencocokkan lebih tinggi -permintaan tingkat dan seperangkat aturan yang harus diikuti.

Banyak startup yang mengikuti pendekatan “agent on rails” ini, kata para penulis, termasuk perusahaan layanan pelanggan Sierra dan perusahaan pengembangan perangkat lunak Semua Tangan AI.

menlo-ventures-2024-agen-in-rails

Usaha Menlo

Tingkat ketiga, AI agen tertinggi, cawan suci, seperti yang mereka katakan, memiliki “penalaran dinamis” dan “pembuatan kode khusus” yang memungkinkan model bahasa besar untuk “memasukkan” buku peraturan perusahaan. Pendekatan semacam ini, yang dikenal sebagai “agen AI umum,” masih dalam tahap penelitian, catat para penulis. Contohnya termasuk Devin, “insinyur perangkat lunak AI pertama”, yang diciptakan oleh startup Pengartian.

Di dalam postingan blog kedua“Melampaui Bot: Bagaimana Agen AI Mendorong Gelombang Otomatisasi Perusahaan Berikutnya,” penulis merefleksikan bagaimana agen AI akan digunakan di perusahaan.

Dampak langsungnya, tulis mereka, adalah beralih dari “otomatisasi proses robotik,” atau RPA, alat yang menggantikan beberapa tugas dasar manusia dengan perangkat lunak, yang dijual oleh perusahaan seperti UiPath dan Zapier.

Agen pengambil keputusan dan agen pada jalur yang dieksplorasi di postingan pertama menemukan penerapan praktis dalam tugas bisnis, seperti merekonsiliasi faktur pemasok ke buku besar:

Misalkan sebuah perusahaan perlu merekonsiliasi faktur dari pemasok internasional dengan buku besarnya. Proses ini melibatkan berbagai pertimbangan, termasuk mata uang faktur, mata uang buku besar, tanggal transaksi, fluktuasi nilai tukar, biaya lintas batas dan biaya bank, yang semuanya harus diambil dan dihitung bersama untuk merekonsiliasi pembayaran. Agen dapat menggunakan jenis intelijen ini, sedangkan agen RPA hanya dapat meneruskan kasus ke manusia.

Dorongan utama dari postingan blog ini adalah banyak startup yang sudah menjual barang-barang yang mendekati fungsionalitas agen yang lebih tinggi. Itu “bukan hanya fiksi ilmiah,” tulis mereka. “Meskipun kategori ini masih terus berkembang, perusahaan-perusahaan mulai dari startup hingga perusahaan-perusahaan Fortune 500 sudah membeli dan memanfaatkan sistem ini dalam skala besar.”

Penulis menawarkan bagan yang berguna dari berbagai penawaran, yang disusun berdasarkan tingkat otonomi program agen sepanjang satu sumbu, dan tingkat konsentrasi pasar vertikal atau horizontal:

menlo-ventures-2024-ai-agent-marketplace

Usaha Menlo

Tidak tercakup dalam dua postingan blog tersebut adalah dua batasan utama yang muncul dalam sistem AI generatif (gen AI) yang ada dan mengancam untuk menghambat kemajuan agen.

Pertama, tidak ada diskusi besar yang penulis lakukan tentang cara menangani halusinasi, dan dengan percaya diri menyatakan keluaran yang salah. Apapun proses penalaran yang digunakan oleh gen AI, dan betapapun canggihnya alat tersebut, tidak ada alasan untuk berasumsi bahwa agen AI tetap tidak akan menghasilkan keluaran yang salah seperti chatbot konvensional.

Setidaknya, pertanyaan apakah agen pengambil keputusan dan agen pada jalurnya mengurangi halusinasi adalah pertanyaan penelitian terbuka.

Kedua, meskipun agen AI mungkin dapat mengotomatiskan beberapa proses perusahaan, hingga saat ini hanya ada sedikit data mengenai dampak otomatisasi tersebut dan apakah hal tersebut benar-benar merupakan suatu kemajuan. Itu sebagian ada hubungannya dengan poin pertama tentang halusinasi, tapi tidak seluruhnya. Seorang agen yang tidak salah dalam penalaran atau tindakannya masih dapat menimbulkan hasil yang kurang optimal dibandingkan dengan apa yang dilakukan seseorang.

Contoh-contoh menonjol dibahas dalam buku ini, “Minyak Ular AI” oleh pakar ilmu komputer Princeton Arvind Narayan dan Sayash Kapoor, diterbitkan bulan ini oleh Princeton University Press. Model AI melacak riwayat pasien asma yang mengalami gejala pneumonia saat masuk rumah sakit. Model AI menemukan bahwa mereka termasuk di antara mereka pasien dengan risiko paling rendah dalam populasi yang digunakan rumah sakit sebagai “alasan”, pasien tersebut dapat dipulangkan.

Namun, model tersebut melewatkan hubungan sebab akibat: pasien dengan gejala asma dan pneumonia memiliki risiko paling kecil karena mereka menerima perawatan darurat. Menguangkannya saja akan mengabaikan perawatan tersebut dan akibatnya bisa menjadi “bencana besar,” kata Narayan dan Kapoor.

Korelasi seperti ini, bukan hubungan sebab-akibat, dapat menyebabkan hasil yang sangat suboptimal dalam situasi dunia nyata dengan situasi sebab-akibat yang kompleks.

Yang juga tidak termasuk dalam ruang lingkup diskusi penulis adalah agen-agen yang bekerja sama. Seperti yang dikatakan CTO Hubspot Dharmesh Shah kepada ZDNET baru-baru ini, pekerjaan agen AI di masa depan tidak akan dilakukan oleh satu agen tetapi kemungkinan besar oleh jaringan agen AI yang berkolaborasi satu sama lain.

Mengingat kelalaian tersebut, cukup jelas bahwa meskipun penelitian pemodal ventura telah dilakukan, penelitian tersebut hanyalah permukaan dari apa yang akan dicapai di dunia dengan agen AI yang semakin kuat.



Sumber