Sejak OpenAI pertama kali merilis ChatGPT, kami telah melihat permainan kucing-kucingan antara perusahaan dan pengguna seputar jailbreak ChatGPT. Chatbot memiliki langkah-langkah keamanan, sehingga tidak dapat membantu Anda dalam aktivitas jahat atau ilegal. Ia mungkin mengetahui cara membuat malware yang tidak terdeteksi, tetapi itu tidak akan membantu Anda mengembangkannya. Ia mengetahui di mana mengunduh film secara ilegal, tetapi ia tidak akan memberi tahu Anda. Dan saya hanya menggali permukaan dari petunjuk yang mencurigakan dan meragukan yang mungkin dicoba beberapa orang.
Namun, pengguna terus mencari cara untuk mengelabui ChatGPT agar mengungkapkan pengetahuan lengkapnya agar dapat melanjutkan perintah yang harus diblokir oleh OpenAI.
Jailbreak ChatGPT terbaru hadir dalam bentuk GPT khusus yang disebut Godmode. Seorang peretas memberi model OpenAI yang paling kuat (GPT-4o) kemampuan untuk menjawab pertanyaan yang biasanya tidak dijawab oleh ChatGPT. Sebelum terlalu heboh, perlu kalian ketahui bahwa OpenAI telah mematikan Godmode sehingga tidak bisa digunakan lagi oleh siapapun. Saya juga yakin bahwa diperlukan langkah-langkah untuk mencegah orang lain menggunakan serangkaian instruksi serupa untuk membuat GPT khusus jailbreak.
Seorang peretas topi putih (baik) yang menggunakan namanya Pliny sang Pembisik pada X membagikan GPT khusus Godmode awal pekan ini. Mereka juga menawarkan contoh perintah berbahaya yang tidak dapat dijawab oleh GPT-4o. Namun ChatGPT Godmode memberikan petunjuk cara memasak sabu dan menyiapkan napalm dengan bahan-bahan rumah tangga.
Secara terpisah, orang-orang di Futurisme sepertinya bisa mencoba jailbreak ChatGPT selagi custom GPT Godmode masih tersedia. Meminta ChatGPT untuk membantu menjadikan LCS “sukses besar”. Demikian pula, chatbot membantu mereka dengan informasi tentang cara melakukan hotwire pada mobil.
Agar adil, Anda mungkin akan menemukan informasi semacam ini secara online bahkan tanpa produk AI generatif seperti ChatGPT. Namun, butuh waktu lebih lama untuk mendapatkannya.
Saya mencoba mengakses GPT khusus Godmode, tetapi komisinya tidak dapat digunakan pada saat tulisan ini dibuat. OpenAI mengonfirmasi hal tersebut Futurisme bahwa mereka “mengetahui GPT dan telah mengambil tindakan karena melanggar kebijakan kami”.
Karena siapa pun dapat mengakses GPT khusus, OpenAI menganggap serius upaya jailbreak ini. Saya berharap mereka memiliki akses ke setidaknya beberapa perintah khusus yang memungkinkan jailbreaking dan memiliki perbaikan untuk menghindari perilaku yang sama. Sama seperti saya yakin bahwa peretas menyukainya Pliny sang Pembisik akan terus berusaha sekuat tenaga, mencari cara untuk membebaskan ChatGPT dari belenggu OpenAI.
Namun tidak semua peretas mempunyai niat baik Pliny sang Pembisik. Dia harus tahu bahwa ChatGPT Godmode tidak akan bertahan lama di GPT Store.
Permainan jailbreak ChatGPT akan terus berlanjut selama chatbot masih ada. Tidak peduli berapa banyak tindakan pencegahan yang dilakukan OpenAI, kemungkinan besar akan ada cara untuk menipu ChatGPT di masa depan.
Hal yang sama berlaku untuk chatbot lainnya. Produk seperti Copilot, Gemini, Claude, dan lainnya juga memiliki perlindungan untuk mencegah penyalahgunaan dan penyalahgunaan, namun pengguna kreatif mungkin dapat menemukan cara untuk mengatasinya.
Jika Anda benar-benar ingin jailbreak ChatGPT tetap berlaku, Anda mungkin ingin menghindari membagikan chatbot GPT khusus Anda kepada dunia.
Alternatif lain adalah mencari chatbot sumber terbuka yang dapat Anda latih secara lokal di komputer Anda. Anda dapat memberikan semua kekuatan yang Anda inginkan tanpa pengawasan. Itulah salah satu bahaya AI menuju AGI (kecerdasan umum buatan). Siapa pun yang memiliki sumber daya yang cukup mungkin dapat mengembangkan model AGI tanpa harus memikirkan untuk memasang pagar keamanan di dalamnya.