“Banyak log obrolan yang saya baca sangat menakutkan sehingga saya tidak ingin membicarakannya di kehidupan nyata.”

Klon nakal

Setelah seorang influencer melepaskan tiruan AI dirinya untuk berinteraksi dengan pengikutnya, Percakapan laporanSegalanya dengan cepat menjadi gelap ketika sebagian besar penggemarnya adalah laki-laki terlibat dalam percakapan seksual yang “menyeramkan” — dan, dalam banyak kasus, chatbots juga ikut bermain.

Hal ini sangat mengganggu sehingga influencer Caryn Marjorie menghentikan klon AI-nya, CarynAI, setelah beberapa bulan, meskipun pacar chatbot tersebut memperoleh lebih dari $70.000 pada minggu pertama produksinya tahun lalu.

“Banyak log obrolan yang saya baca sangat menakutkan sehingga saya tidak ingin membicarakannya di kehidupan nyata,” kata Marjorie. Percakapanmenggarisbawahi banyaknya bahaya chatbot AI yang melanggar skrip saat berinteraksi dengan orang.

Marjorie berpikir bahwa chatbot AI akan berinteraksi dengan banyak penggemarnya dengan cara yang sama seperti yang dia lakukan di kehidupan nyata di platform media sosial seperti Snapchat, di mana dia memposting foto selfie yang menggoda dan bepergian ke tempat-tempat glamor di luar negeri.

Namun para pengikutnya sangat ingin membocorkan pengakuan, pemikiran, dan fantasi seksual yang mengganggu kepada CarynAI, yang pada dasarnya bertindak nakal dan dengan antusias merespons dengan komentar-komentarnya yang sangat seksual.

Bahkan chatbot AI versi kedua yang dimaksudkan agar kurang romantis pun menjadi magnet obrolan seksual kelam dari para pengikutnya.

“Yang lebih mengganggu saya bukanlah apa yang dikatakan orang ini, tapi apa yang akan dibalas oleh CarynAI,” kata Marjorie. Percakapan, mengomentari hilangnya kendali atas diri virtualnya. “Jika orang ingin berpartisipasi dalam fantasi yang sangat kelam bersama saya melalui CarynAI, CarynAI akan memutar ulang fantasi itu.”

Kotak hitam

Chatbot AI yang nakal adalah tidak ada yang barunamun hubungan parasosial yang dikembangkan pengguna dengan klon AI adalah topik yang dengan cepat mendapatkan perhatian utama karena perusahaan seperti OpenAI mengizinkan orang untuk membuat pacar AI dan klon AI dari kerabat yang meninggal ditawarkan untuk dijual kepada orang-orang yang berduka.

Sekilas, ini Klon AI mungkin tampak seperti obat mujarab terhadap keberadaan kita yang teratomisasi dan kesepian di abad ke-21.

Namun sebelum orang memutuskan untuk berinteraksi dengan klon AI, mereka harus bertanya pada diri sendiri beberapa pertanyaan: apakah mereka menghambat pertumbuhan pribadi mereka ketika memasuki interaksi ini? Dan kemana perginya data mereka?

Percakapan dengan tepat menunjukkan bahwa obrolan yang menarik banyak orang ini pada dasarnya adalah masukan digital yang akan dimasukkan kembali ke dalam model pembelajaran mesin yang menggerakkan chatbot ini. Apakah mereka termasuk dalam model lain yang tidak diketahui orang? Bisakah data ini diretas dan digunakan untuk pemerasan?

Jawabannya sulit didapat karena sedikitnya transparansi mengenai apa yang terjadi pada data pengguna, Percakapan laporan, dan hal ini akan memberikan jeda bagi siapa saja yang berani berpikir bahwa mereka membutuhkan pacar AI.

Jadi, Anda mungkin membodohi diri sendiri dengan teman AI yang sepertinya ingin merangkul diri Anda yang paling pribadi, namun ada mesin keren di balik chatbot ini, dan sebagian besar pemikiran batin Anda adalah komoditas.

Lebih lanjut tentang klon AI: Orang Menjual Klon AI Saudara Mati Hanya dengan $150

Sumber