AI siap membantu, baik saat Anda membuat draf email, membuat konsep seni, atau melakukan penipuan terhadap orang-orang yang rentan dengan membuat mereka mengira Anda adalah teman atau saudara yang membutuhkan. AI sangat serbaguna! Namun karena sebagian orang memilih untuk tidak tertipu, mari kita bahas sedikit tentang apa yang harus diwaspadai.

Beberapa tahun terakhir telah terjadi peningkatan besar tidak hanya dalam kualitas media yang dihasilkan, mulai dari teks, audio, gambar, dan video, namun juga dalam cara pembuatan media yang murah dan mudah. Alat yang sama yang membantu seniman konsep membuat monster fantasi atau pesawat luar angkasa, atau memungkinkan penutur non-pribumi meningkatkan bahasa Inggris bisnis mereka, juga dapat digunakan untuk tujuan jahat.

Jangan berharap Terminator akan mengetuk pintu Anda dan menjual Anda melalui skema Ponzi — ini adalah penipuan lama yang telah kita hadapi selama bertahun-tahun, namun dengan sentuhan AI generatif yang menjadikannya lebih mudah, lebih murah, atau lebih meyakinkan.

Ini bukanlah daftar yang lengkap, hanya beberapa trik paling jelas yang dapat dilakukan AI. Kami pasti akan menambahkan berita yang muncul di alam liar, atau langkah tambahan apa pun yang dapat Anda ambil untuk melindungi diri Anda.

Mengkloning suara keluarga dan teman

Suara sintetis telah ada selama beberapa dekade, namun hanya dalam satu atau dua tahun terakhir kemajuan teknologi memungkinkan suara baru dihasilkan hanya dari audio yang berdurasi beberapa detik. Artinya, siapa pun yang suaranya pernah disiarkan secara publik – misalnya, dalam laporan berita, video YouTube, atau media sosial – rentan terhadap kloning suaranya.

Penipu dapat dan telah menggunakan teknologi ini untuk membuat versi palsu yang meyakinkan dari orang yang dicintai atau teman. Tentu saja, ini bisa dilakukan tanpa berkata apa-apa, tetapi dalam layanan penipuan, mereka lebih cenderung membuat klip suara yang meminta bantuan.

Misalnya, orang tua mungkin menerima pesan suara dari nomor tak dikenal yang terdengar seperti putra mereka, yang mengatakan bahwa barang-barang mereka dicuri saat bepergian, seseorang mengizinkan mereka menggunakan ponselnya, dan dapatkah Ibu atau Ayah mengirim uang ke alamat ini, penerima Venmo, bisnis , dll. Kita dapat dengan mudah membayangkan varian masalah mobil (“mereka tidak akan melepaskan mobil saya sampai seseorang membayarnya”), masalah medis (“perawatan ini tidak ditanggung oleh asuransi”), dan sebagainya.

Penipuan jenis ini telah dilakukan dengan menggunakan suara Presiden Biden. Mereka menangkap pelakunya, tapi penipu di masa depan akan lebih berhati-hati.

Bagaimana cara melawan kloning suara?

Pertama, jangan khawatir tentang mendeteksi suara palsu. Mereka menjadi lebih baik setiap hari, dan ada banyak cara untuk menyamarkan masalah kualitas apa pun. Bahkan para ahli pun tertipu.

Apa pun yang berasal dari nomor, alamat email, atau akun yang tidak dikenal secara otomatis dianggap mencurigakan. Jika seseorang mengatakan bahwa dia adalah teman atau kekasih Anda, silakan hubungi orang tersebut seperti biasa. Mereka mungkin akan memberi tahu Anda bahwa mereka baik-baik saja dan itu (seperti yang Anda duga) penipuan.

Penipu cenderung tidak menindaklanjuti jika mereka diabaikan — sementara anggota keluarga mungkin akan menindaklanjutinya. Tidak apa-apa membiarkan pesan mencurigakan tetap dibaca saat Anda mempertimbangkannya.

Phishing dan spam yang dipersonalisasi melalui email dan pesan

Kita semua menerima spam dari waktu ke waktu, tetapi AI pembuatan teks memungkinkan pengiriman email massal yang disesuaikan untuk setiap individu. Dengan seringnya pelanggaran data, banyak data pribadi Anda tersebar.

Mendapatkan salah satu dari pesan “Klik di sini untuk melihat faktur Anda” adalah satu hal. Email penipuan dengan lampiran yang jelas-jelas menakutkan dan tampaknya tidak mudah dilakukan. Namun dengan sedikit konteks, mereka tiba-tiba menjadi cukup dapat dipercaya, menggunakan lokasi, pembelian, dan kebiasaan terkini untuk menjadikan mereka tampak seperti orang sungguhan atau masalah nyata. Berbekal beberapa fakta pribadi, model bahasa dapat menyesuaikan email umum ini ke ribuan penerima dalam hitungan detik.

Jadi yang tadinya “Pelanggan yang terhormat, silakan temukan faktur Anda terlampir” menjadi seperti “Hai Doris! Saya dari tim promosi Etsy. Barang yang baru-baru ini Anda lihat sekarang mendapat diskon 50%! Dan pengiriman ke alamat Anda di Bellingham gratis jika Anda menggunakan tautan ini untuk mengklaim diskon.” Contoh sederhana, tapi tetap saja. Dengan nama asli, kebiasaan berbelanja (mudah diketahui), lokasi umum (juga) dan lain sebagainya, tiba-tiba pesannya menjadi kurang jelas.

Pada akhirnya, ini tetap hanya spam. Namun spam khusus semacam ini dulunya harus dilakukan oleh orang-orang bergaji rendah di kumpulan konten di luar negeri. Sekarang hal ini dapat dilakukan dalam skala besar oleh LLM dengan keterampilan prosa yang lebih baik daripada banyak penulis profesional.

Bagaimana cara melawan spam email?

Seperti halnya spam tradisional, kewaspadaan adalah senjata terbaik Anda. Namun jangan berharap menemukan teks yang dihasilkan dari teks tulisan manusia di alam liar. Hanya sedikit yang bisa melakukannya, dan tentu saja tidak ada model AI lainnya.

Meskipun teksnya disempurnakan, penipuan jenis ini masih memiliki tantangan mendasar yaitu membuat Anda membuka lampiran atau tautan yang tidak jelas. Seperti biasa, kecuali Anda 100% yakin dengan keaslian dan identitas pengirimnya, jangan klik atau buka apa pun. Jika Anda sedikit tidak yakin — dan ini adalah ide yang bagus untuk dikembangkan — jangan klik, dan jika Anda memiliki seseorang yang berpengetahuan luas untuk meneruskannya untuk sepasang poin kedua, lakukan itu.

Penipuan identifikasi dan verifikasi ‘memalsukan Anda’

Karena banyaknya pelanggaran data dalam beberapa tahun terakhir (terima kasih, Equifax), dapat dikatakan bahwa hampir semua dari kita memiliki cukup banyak data pribadi yang beredar di web gelap. Jika Anda mengikuti praktik keamanan online yang baik, banyak bahaya yang dapat dikurangi dengan mengubah kata sandi, mengaktifkan autentikasi multifaktor, dan sebagainya. Namun AI generatif dapat menimbulkan ancaman baru dan serius di bidang ini.

Dengan begitu banyak data tentang seseorang yang tersedia secara online dan bagi banyak orang, bahkan satu atau dua klip suaranya, membuat persona AI yang terlihat seperti orang target menjadi lebih mudah dan memiliki akses ke banyak fakta yang digunakan untuk memverifikasi identitas.

Anggap saja seperti ini. Jika Anda mengalami masalah saat masuk, tidak dapat mengonfigurasi aplikasi autentikasi dengan benar, atau kehilangan ponsel, apa yang akan Anda lakukan? Mungkin hubungi layanan pelanggan — dan mereka akan “memverifikasi” identitas Anda menggunakan beberapa fakta sepele seperti tanggal lahir, nomor telepon, atau nomor Jaminan Sosial Anda. Metode yang lebih canggih seperti “mengambil selfie” menjadi lebih mudah untuk dimainkan.

Agen layanan pelanggan — sejauh yang kami tahu, juga AI — mungkin mewajibkan Anda melakukan hal palsu ini dan memberikan semua hak istimewa yang Anda dapatkan jika Anda benar-benar menelepon. Apa yang bisa mereka lakukan dari posisi itu berbeda-beda, tapi tidak ada satupun yang bagus.

Seperti halnya dengan orang lain dalam daftar ini, bahayanya bukan seberapa realistis pemalsuan ini, namun betapa mudahnya bagi penipu untuk melakukan serangan semacam ini secara luas dan berulang-ulang. Belum lama ini, jenis serangan phishing ini memerlukan biaya yang mahal dan memakan waktu, sehingga hanya terbatas pada target yang mempunyai kekayaan bersih tinggi seperti orang kaya dan CEO. Saat ini Anda dapat membangun alur kerja yang menciptakan ribuan agen yang menyamar dengan pengawasan minimal, dan agen ini dapat secara mandiri menghubungi nomor layanan pelanggan di semua akun yang diketahui seseorang — atau bahkan membuat akun baru. Hanya sedikit yang perlu berhasil untuk membenarkan dampak serangan tersebut.

Bagaimana Anda bisa melawan penipuan identitas?

Sama seperti sebelum AI hadir untuk meningkatkan upaya penipu, “Keamanan Siber 101” adalah pilihan terbaik Anda. Data Anda sudah tersedia; Anda tidak dapat memasukkan kembali pasta gigi ke dalam tabung. Tapi kamu Bisa pastikan akun Anda cukup terlindungi dari serangan yang paling nyata.

Otentikasi multi-faktor adalah satu-satunya langkah terpenting yang dapat dilakukan siapa pun di sini. Segala jenis aktivitas akun serius langsung masuk ke ponsel Anda dan upaya login atau perubahan kata sandi yang mencurigakan akan muncul di email. Jangan abaikan peringatan ini atau tandai sebagai spam, meskipun (terutama) jika Anda mendapat banyak.

Deepfake dan pemerasan yang dihasilkan oleh AI

Mungkin bentuk penipuan AI yang paling menakutkan adalah kemungkinan pemerasan menggunakan gambar palsu Anda atau orang yang Anda cintai. Anda dapat berterima kasih kepada dunia pemodelan gambar terbuka yang bergerak cepat atas prospek futuristik dan menakutkan ini. Orang-orang yang tertarik pada aspek tertentu dari pembuatan gambar tingkat lanjut telah menciptakan alur kerja yang tidak hanya menampilkan tubuh telanjang, namun juga menempelkannya ke wajah mana pun yang dapat mereka gambar. Saya tidak perlu menjelaskan lebih lanjut cara penggunaannya.

Namun salah satu konsekuensi yang tidak diinginkan adalah meluasnya penipuan yang biasa disebut “revenge porn”, namun lebih akurat digambarkan sebagai distribusi gambar intim tanpa persetujuan (meskipun seperti “deepfake”, istilah aslinya mungkin sulit diganti). Ketika gambar pribadi seseorang disebarkan baik melalui peretasan atau mantan pendendam, hal itu dapat digunakan sebagai pemerasan oleh pihak ketiga yang mengancam akan mempublikasikannya secara luas kecuali sejumlah uang dibayarkan.

AI menyempurnakan penipuan ini dengan membuat gambar intim yang sebenarnya tidak perlu ada. Wajah siapa pun dapat ditambahkan ke tubuh yang dihasilkan AI, dan meskipun hasilnya tidak selalu meyakinkan, itu mungkin cukup untuk menipu Anda atau orang lain jika gambarnya berpiksel, beresolusi rendah, atau sebagian dikaburkan. Dan hanya itu yang diperlukan untuk menakut-nakuti seseorang agar membayar untuk merahasiakannya — meskipun, seperti kebanyakan penipuan pemerasan, pembayaran pertama kemungkinan besar bukan yang terakhir.

Bagaimana cara melawan deepfake yang dihasilkan AI?

Sayangnya, dunia yang kita tuju adalah dunia di mana gambar telanjang palsu dari hampir semua orang tersedia sesuai permintaan. Ini menakutkan, aneh, dan brutal, tapi sayangnya kucing itu tidak bisa berbuat apa-apa di sini.

Tidak ada yang senang dengan situasi ini kecuali orang jahat. Namun ada beberapa hal yang terjadi pada calon korban. Model gambar ini mungkin menghasilkan tubuh yang realistis dalam beberapa hal, tetapi seperti AI generatif lainnya, model tersebut hanya mengetahui apa yang telah mereka latih. Oleh karena itu, gambar palsu tidak akan memiliki tanda pembeda, misalnya, dan kemungkinan besar salah dalam hal lain.

Meskipun ancamannya mungkin tidak akan hilang sepenuhnya, masih ada peluang lain bagi para korban, yang bisa secara hukum memaksa host gambar untuk menghapus gambar, atau melarang penipu memasuki situs tempat mereka memposting. Seiring dengan berkembangnya masalah, semakin besar pula cara-cara hukum dan swasta untuk mengatasinya.

TechCrunch bukan pengacara. Namun jika Anda adalah korbannya, laporkan ke polisi. Ini bukan sekedar penipuan tapi juga gangguan, dan meskipun Anda tidak bisa mengharapkan polisi melakukan pekerjaan detektif internet mendalam yang diperlukan untuk melacak seseorang, kasus-kasus ini terkadang dapat diselesaikan, atau penipu ditakuti oleh permintaan yang dikirim ke ISP atau tuan rumah forum.

Sumber