Alat kecerdasan buatan, seperti model bahasa besar (LLM) dan cara menggunakan AI untuk memasarkan ke klien baru, menjadi sangat bermanfaat bagi penasihat keuangan. Namun hal ini juga menimbulkan risiko baru yang membebani regulator seperti FINRA dan Komisi Sekuritas dan Bursa AS.
Dalam beberapa minggu terakhir, pihak berwenang telah mengangkat permasalahan mengenai risiko yang muncul seperti “pencucian AI”, yaitu ketika sebuah perusahaan membesar-besarkan penggunaan AI; halusinasi yang dapat terjadi saat menggunakan model seperti ChatGPT; dan masalah etika dalam menggunakan data untuk mempersonalisasi taktik pemasaran kepada individu.
“Kita perlu memahami tidak hanya cara kerja model-model ini, tetapi juga peluang dan risiko yang ada di masing-masing model tersebut, terutama dalam AI generatif,” kata Brad Ahrens, wakil presiden senior bidang analisis lanjutan. di FINRA, yang berbicara pada konferensi peraturan periklanan milik regulator pada 27 September.
Cegah patah hati AI melalui regulasi
Seminggu sebelum konferensi FINRA, Ketua Komisi Sekuritas dan Bursa AS Gary Gensler mengeluarkan peringatan yang agak lucu tentang AI, membandingkannya dengan
“Regulator, pelaku pasar, saya yakin, perlu memikirkan apa artinya potensi ketergantungan 8.316 lembaga keuangan yang patah hati pada model AI atau agregator data,” kata Gensler pada 19 September.
Namun, masalah pada alat AI tidak selalu menunjukkan kasus yang paling jelas, seperti kapan
Para pejabat sedang mempertimbangkan bagaimana perusahaan menggunakan layanan dikte AI dalam rapat dan apakah staf perusahaan benar-benar menyadari bahwa data ini dapat bocor ke model pembelajaran publik ChatGPT OpenAI atau model pembelajaran publik Claude dari Anthropic.
“Jika Anda menggunakan openai.com atau anthropic.com, Anda harus khawatir jika karyawan Anda menggunakannya, karena ada kemungkinan Anda dapat membocorkan data kembali ke dalam model,” kata Ahrens. “Itu memang terjadi.”
Area lain yang menurut Ahrens FINRA melihat lebih banyak kasus penggunaan AI adalah ketika perusahaan menggunakan AI tipe chatbot untuk menjawab atau meringkas pertanyaan, seperti bagaimana menangani perselisihan ketika ada banyak penyewa di properti investasi.
“Banyak perusahaan menggunakan LLM di sana, dan mereka cukup meminta perusahaan tersebut mengajukan pertanyaan atau pertanyaan yang mengatakan, ‘Apa yang harus saya lakukan jika ada penyewa yang berselisih?’ Dan itu akan membawa mereka langsung ke konten di manual menggunakan sesuatu yang disebut retrieval augmented generation,” katanya.
FINRA tidak serta merta mengambil sikap terhadap jenis penggunaan AI tersebut, namun para pejabat menekankan pentingnya memiliki prosedur pemantauan dan kepatuhan manusia pada backend atau output akhir.
“Bagaimana Anda bisa memastikan bahwa gen AI ini berfungsi sebagaimana mestinya? Dengan kata lain, bagaimana Anda akan mengawasi penggunaannya,” kata Philip Shaikun, wakil presiden dan penasihat umum asosiasi di Kantor Penasihat Umum FINRA. “Anda pasti ingin memastikan bahwa Anda memiliki jenis prosedur tertentu, manusia yang terlibat, dan melakukan pemeriksaan.”
Itu juga
Misalnya, “jika Anda belum memperbarui kontrak vendor karena kontraknya berdurasi dua tahun dan Anda mengetahui, oh, mereka sekarang menggunakan semacam AI generatif,” katanya. “Kamu perlu mengetahuinya.”
AI dapat membuka pintu bagi iklan yang eksploitatif
FINRA
Hal ini menimbulkan tantangan dalam penggunaan AI dan alat pembelajaran mesin untuk melacak pelanggan dan perilaku mereka melalui apa yang disebut “jejak digital” untuk pemasaran.
“Ini membuka pintu bagi taktik periklanan eksploitatif di mana pengiklan mungkin mengetahui lebih banyak tentang pengguna digital daripada orang yang mengetahui apa yang mereka kirimkan. Dan di sinilah kami ingin mulai berbicara tentang etika,” kata Rachael Chudoba, ahli strategi senior perencanaan dan penelitian di McCann Worldgroup, jaringan periklanan global.
Chudoba, yang berbicara pada konferensi FINRA, mengatakan perusahaan perlu memastikan tim mereka tidak hanya dididik mengenai masalah etika dengan AI tetapi mereka juga memahami cara AI digunakan untuk berbagai alat, dan cara kerja alat tersebut.
“Hal-hal seperti, apakah pelatihan bias dan etika Anda diperbarui untuk mencakup situasi AI generatif? Apakah tim Anda merasa nyaman mengakses dan mempelajari pedoman hukum dan kebijakan terkait AI,” katanya. “Dan apakah Anda mendidik tim Anda tentang sistem yang diminta untuk mereka gunakan sehingga mereka merasa alat tersebut dapat dijelaskan dan transparan bagi mereka?”
FINRA mendalami AI untuk analisis sentimen
FINRA sendiri juga bereksperimen dengan alat AI dan analisis data perilaku. Misalnya, mereka menggunakan AI untuk mendeteksi sentimen surat komentar publik yang disampaikan selama proses pembuatan peraturan yang diusulkan, dibandingkan individu yang harus membaca ribuan surat komentar.
“Ini bukan sekadar sentimen sederhana yang biasa Anda rasakan – seperti bahagia, sedih, atau mistis – tapi lebih pada pemikiran: siapa yang menulisnya, dari mana asalnya? sentimen,” kata Ahrens. “Kami sudah memiliki banyak kasus penggunaan yang sedang dikerjakan.”