Alat kecerdasan buatan, seperti model bahasa besar (LLM) dan cara menggunakan AI untuk memasarkan ke klien baru, menjadi sangat bermanfaat bagi penasihat keuangan. Namun hal ini juga menimbulkan risiko baru yang membebani regulator seperti FINRA dan Komisi Sekuritas dan Bursa AS.

Dalam beberapa minggu terakhir, pihak berwenang telah mengangkat permasalahan mengenai risiko yang muncul seperti “pencucian AI”, yaitu ketika sebuah perusahaan membesar-besarkan penggunaan AI; halusinasi yang dapat terjadi saat menggunakan model seperti ChatGPT; dan masalah etika dalam menggunakan data untuk mempersonalisasi taktik pemasaran kepada individu.

“Kita perlu memahami tidak hanya cara kerja model-model ini, tetapi juga peluang dan risiko yang ada di masing-masing model tersebut, terutama dalam AI generatif,” kata Brad Ahrens, wakil presiden senior bidang analisis lanjutan. di FINRA, yang berbicara pada konferensi peraturan periklanan milik regulator pada 27 September.

Cegah patah hati AI melalui regulasi

Seminggu sebelum konferensi FINRA, Ketua Komisi Sekuritas dan Bursa AS Gary Gensler mengeluarkan peringatan yang agak lucu tentang AI, membandingkannya dengan film “Dia,” di mana asisten AI Samantha membentuk ikatan romantis dengan penggunanya, yang menjadi terlalu bergantung pada AI.

“Regulator, pelaku pasar, saya yakin, perlu memikirkan apa artinya potensi ketergantungan 8.316 lembaga keuangan yang patah hati pada model AI atau agregator data,” kata Gensler pada 19 September. video “jam kantor.” “Mari kita lakukan yang terbaik untuk menghilangkan kesedihan itu dari pasar modal kita.”

Namun, masalah pada alat AI tidak selalu menunjukkan kasus yang paling jelas, seperti kapan SEC menuntut dua perusahaan penasihat pada bulan Maret karena menyesatkan publik dengan membesar-besarkan penggunaan AI atau halusinasi yang diketahui secara luas dalam model bahasa besar dan apa yang disebut “deepfakes” AI.

Para pejabat sedang mempertimbangkan bagaimana perusahaan menggunakan layanan dikte AI dalam rapat dan apakah staf perusahaan benar-benar menyadari bahwa data ini dapat bocor ke model pembelajaran publik ChatGPT OpenAI atau model pembelajaran publik Claude dari Anthropic.

“Jika Anda menggunakan openai.com atau anthropic.com, Anda harus khawatir jika karyawan Anda menggunakannya, karena ada kemungkinan Anda dapat membocorkan data kembali ke dalam model,” kata Ahrens. “Itu memang terjadi.”

Area lain yang menurut Ahrens FINRA melihat lebih banyak kasus penggunaan AI adalah ketika perusahaan menggunakan AI tipe chatbot untuk menjawab atau meringkas pertanyaan, seperti bagaimana menangani perselisihan ketika ada banyak penyewa di properti investasi.

“Banyak perusahaan menggunakan LLM di sana, dan mereka cukup meminta perusahaan tersebut mengajukan pertanyaan atau pertanyaan yang mengatakan, ‘Apa yang harus saya lakukan jika ada penyewa yang berselisih?’ Dan itu akan membawa mereka langsung ke konten di manual menggunakan sesuatu yang disebut retrieval augmented generation,” katanya.

FINRA tidak serta merta mengambil sikap terhadap jenis penggunaan AI tersebut, namun para pejabat menekankan pentingnya memiliki prosedur pemantauan dan kepatuhan manusia pada backend atau output akhir.

“Bagaimana Anda bisa memastikan bahwa gen AI ini berfungsi sebagaimana mestinya? Dengan kata lain, bagaimana Anda akan mengawasi penggunaannya,” kata Philip Shaikun, wakil presiden dan penasihat umum asosiasi di Kantor Penasihat Umum FINRA. “Anda pasti ingin memastikan bahwa Anda memiliki jenis prosedur tertentu, manusia yang terlibat, dan melakukan pemeriksaan.”

Itu juga pergi untuk vendor teknologiyang sangat ditekankan oleh FINRA dan SEC agar perusahaan memantaunya dengan cermat. Amy Sochard, wakil presiden Departemen Regulasi Periklanan FINRA, mengatakan perusahaan harus menanyakan vendor mereka yang ada yang mungkin telah memperbarui teknologi mereka untuk menyertakan AI sejak kontrak mereka pertama kali ditandatangani.

Misalnya, “jika Anda belum memperbarui kontrak vendor karena kontraknya berdurasi dua tahun dan Anda mengetahui, oh, mereka sekarang menggunakan semacam AI generatif,” katanya. “Kamu perlu mengetahuinya.”

AI dapat membuka pintu bagi iklan yang eksploitatif

FINRA memperbarui pedoman Peraturan 2210 pada bulan Mei untuk memasukkan penggunaan chatbots dan AI dalam komunikasi dengan investor dan masyarakat. Meskipun Ahrens mengatakan mereka “tidak melihat banyak kasus penggunaan yang berhubungan dengan pelanggan” karena tingginya risiko, mereka melihat lebih banyak “iklan yang hiper-personalisasi”.

Hal ini menimbulkan tantangan dalam penggunaan AI dan alat pembelajaran mesin untuk melacak pelanggan dan perilaku mereka melalui apa yang disebut “jejak digital” untuk pemasaran.

“Ini membuka pintu bagi taktik periklanan eksploitatif di mana pengiklan mungkin mengetahui lebih banyak tentang pengguna digital daripada orang yang mengetahui apa yang mereka kirimkan. Dan di sinilah kami ingin mulai berbicara tentang etika,” kata Rachael Chudoba, ahli strategi senior perencanaan dan penelitian di McCann Worldgroup, jaringan periklanan global.

Chudoba, yang berbicara pada konferensi FINRA, mengatakan perusahaan perlu memastikan tim mereka tidak hanya dididik mengenai masalah etika dengan AI tetapi mereka juga memahami cara AI digunakan untuk berbagai alat, dan cara kerja alat tersebut.

“Hal-hal seperti, apakah pelatihan bias dan etika Anda diperbarui untuk mencakup situasi AI generatif? Apakah tim Anda merasa nyaman mengakses dan mempelajari pedoman hukum dan kebijakan terkait AI,” katanya. “Dan apakah Anda mendidik tim Anda tentang sistem yang diminta untuk mereka gunakan sehingga mereka merasa alat tersebut dapat dijelaskan dan transparan bagi mereka?”

FINRA mendalami AI untuk analisis sentimen

FINRA sendiri juga bereksperimen dengan alat AI dan analisis data perilaku. Misalnya, mereka menggunakan AI untuk mendeteksi sentimen surat komentar publik yang disampaikan selama proses pembuatan peraturan yang diusulkan, dibandingkan individu yang harus membaca ribuan surat komentar.

“Ini bukan sekadar sentimen sederhana yang biasa Anda rasakan – seperti bahagia, sedih, atau mistis – tapi lebih pada pemikiran: siapa yang menulisnya, dari mana asalnya? sentimen,” kata Ahrens. “Kami sudah memiliki banyak kasus penggunaan yang sedang dikerjakan.”

Sumber