Para ilmuwan di Tiongkok telah menciptakan arsitektur komputasi baru yang dapat melatih ekstensi kecerdasan buatan (AI) dengan menggunakan lebih sedikit sumber daya komputasi – dan mereka berharap suatu hari nanti hal ini akan mengarah pada kecerdasan umum buatan (AGI).
Model AI tercanggih saat ini — kebanyakan model bahasa besar (LLM) sejenisnya Obrolan GPT atau Claude 3 – gunakan jaringan saraf. Ini adalah kumpulan algoritme pembelajaran mesin berlapis untuk memproses data dengan cara yang mirip dengan otak manusia dan mempertimbangkan berbagai opsi untuk menarik kesimpulan.
LLM saat ini terbatas karena mereka tidak dapat bekerja melampaui batas data pelatihan mereka dan tidak dapat melakukan penalaran sebaik manusia. Namun, AGI adalah sistem hipotetis yang dapat menalar, mengontekstualisasikan, mengedit kodenya sendiri, dan memahami atau mempelajari tugas intelektual apa pun yang dapat dilakukan manusia.
Saat ini, menciptakan sistem AI yang lebih cerdas bergantung pada pembangunan jaringan saraf yang lebih besar. Beberapa ilmuwan percaya jaringan saraf dapat menyebabkan AGI jika dibesarkan secukupnya. Namun hal ini mungkin tidak praktis, karena konsumsi energi dan permintaan sumber daya komputasi juga akan meningkat.
Peneliti lain menyarankan diperlukan arsitektur baru atau kombinasi arsitektur komputasi yang berbeda mencapai sistem AGI masa depan. Sehubungan dengan itu, sebuah studi baru diterbitkan pada 16 Agustus di jurnal Ilmu Komputasi Alam mengusulkan arsitektur komputasi baru yang terinspirasi oleh otak manusia yang diharapkan dapat menghilangkan masalah praktis untuk meningkatkan jaringan saraf.
Terkait: 22 pekerjaan yang dapat digantikan oleh kecerdasan umum buatan (AGI) – dan 10 pekerjaan yang dapat diciptakan
Para peneliti kecerdasan buatan (AI) saat ini percaya bahwa pendekatan utama untuk membangun masalah model yang lebih umum adalah model AI yang besar, di mana jaringan saraf yang ada menjadi lebih dalam, lebih besar, dan lebih luas. Kami menyebutnya model besar dengan pendekatan kompleksitas eksternal, kata para ilmuwan. di ruang belajar. “Dalam penelitian ini kami berpendapat bahwa ada pendekatan lain yang disebut model kecil dengan kompleksitas internal, yang dapat digunakan untuk menemukan cara yang sesuai untuk menggabungkan properti yang kaya ke dalam neuron guna membangun model AI yang lebih besar dan lebih efisien.”
Otak manusia memiliki 100 miliar neuron dan hampir 1.000 triliun koneksi sinaptik – dan setiap neuron mendapat manfaat dari struktur internal yang kaya dan beragam, kata para ilmuwan dalam penyataan. Namun konsumsi dayanya hanya berkisar 20 watt.
Bertujuan untuk meniru sifat-sifat ini, para peneliti menggunakan pendekatan yang berfokus pada “kompleksitas internal” daripada “kompleksitas eksternal” untuk meningkatkan arsitektur AI – dengan gagasan bahwa fokus pada pembuatan neuron buatan individu menjadi lebih kompleks akan menghasilkan sistem yang lebih efisien dan kuat. .
Mereka membangun jaringan Hodgkin-Huxley (HH) dengan kompleksitas internal yang kaya, di mana setiap neuron buatan adalah model HH yang dapat diskalakan dalam kompleksitas internal.
Hodgkin-Huxley adalah model komputasi yang mensimulasikan aktivitas saraf dan menunjukkan akurasi tertinggi dalam menangkap lonjakan saraf — denyut yang digunakan neuron untuk berkomunikasi satu sama lain — menurut sebuah penelitian pada tahun 2022. Model ini memiliki keandalan yang tinggi dalam mewakili pola pengaktifan neuron nyata, a studi tahun 2021 menunjukkan, dan oleh karena itu cocok untuk memodelkan arsitektur jaringan saraf dalam yang bertujuan untuk meniru proses kognitif manusia.
Dalam studi tersebut, para ilmuwan menunjukkan bahwa model ini dapat menangani tugas-tugas kompleks secara efisien dan andal. Mereka juga menunjukkan bahwa model kecil berdasarkan arsitektur ini dapat bekerja sebaik model konvensional neuron buatan yang lebih besar.
Meskipun AGI merupakan sebuah tonggak sejarah yang masih belum bisa dicapai oleh ilmu pengetahuan, beberapa peneliti mengatakan hanya dalam hitungan tahun sebelum manusia dapat membangun model pertama – meskipun terdapat persaingan visi mengenai cara mencapainya. SingularityNET, misalnya, telah mengusulkan pembangunan jaringan superkomputer yang mengandalkan jaringan terdistribusi dengan arsitektur berbeda untuk melatih model AGI masa depan.