Apa risiko keamanan siber terhadap AI chatbots?

ChatGPT adalah alat dari OpenAI yang memungkinkan seseorang mengetik permintaan bahasa alami. Untuk ini, ChatGPT menawarkan tanggapan percakapan, jika agak kaku. Namun demikian, potensi bentuk 'kecerdasan buatan' ini cukup besar.

Google meluncurkan Bard AI sebagai tanggapan terhadap ChatGPT dan Microsoft mengikuti dari dekat dengan aplikasi bernama Redmond.

Apa arti alat ini bagi lanskap ancaman yang meluas? Untuk mengetahuinya, Digital Journal meminta pendapat dari dua perwakilan NetSPI.

Pertama adalah Nabil Hannan, Managing Director di NetSPIMenurut bisnis Hannan yang ingin mengadopsi teknologi perlu mundur dan mempertimbangkan implikasinya: “Dengan ChatGPT, organisasi menjadi sangat bersemangat tentang apa yang mungkin dilakukan saat memanfaatkan AI untuk mengidentifikasi dan memahami masalah keamanan—tetapi masih ada batasan. Meskipun AI dapat membantu mengidentifikasi dan melakukan triase bug keamanan umum dengan lebih cepat – yang akan sangat menguntungkan tim keamanan – kebutuhan akan pengujian manusia/manual akan menjadi lebih penting dari sebelumnya karena pengujian penetrasi berbasis AI dapat memberikan rasa aman yang palsu kepada organisasi.”

Hannan menambahkan bahwa masih ada yang salah, dan AI itu tidak sempurna. Hal ini dapat, jika tidak direncanakan, berdampak pada reputasi perusahaan. Hannan menambahkan: “Dalam banyak kasus, ini mungkin tidak menghasilkan respons atau tindakan yang diinginkan karena hanya sebaik model pelatihannya, atau data yang digunakan untuk melatihnya. Semakin banyak alat berbasis AI muncul, seperti Google Bard, penyerang juga akan mulai memanfaatkan AI (lebih dari yang sudah mereka lakukan) untuk menargetkan organisasi. Organisasi perlu membangun sistem dengan pemikiran ini dan memiliki "sistem kekebalan" berbasis AI (atau yang serupa) lebih cepat daripada nanti, yang akan mengambil serangan berbasis AI dan secara otomatis belajar bagaimana melindungi mereka melalui AI secara nyata. -waktu."

Komentator kedua adalah Nick Landers, VP of Research di NetSPI.

Landers melihat perkembangan yang lebih luas, mencatat: “Berita dari Google dan Microsoft adalah bukti kuat dari pergeseran yang lebih besar menuju AI yang dikomersialkan. Pembelajaran mesin (ML) dan AI telah banyak digunakan di seluruh disiplin teknis selama lebih dari 10 tahun, dan saya tidak memperkirakan bahwa penerapan model bahasa tingkat lanjut akan secara signifikan mengubah lanskap ancaman AI/ML dalam jangka pendek – apa pun lebih dari yang sudah ada. Sebaliknya, mempopulerkan AI/ML sebagai topik percakapan biasa dan alat yang dapat diakses akan mendorong beberapa aktor ancaman untuk bertanya, "bagaimana saya bisa menggunakan ini untuk tujuan jahat?" – jika mereka belum melakukannya.”

Apa artinya ini bagi keamanan siber? Pandangan Landers adalah: "Masalah keamanan yang lebih besar tidak ada hubungannya dengan orang yang menggunakan AI/ML untuk alasan jahat dan lebih berkaitan dengan orang yang menerapkan teknologi ini tanpa mengetahui cara mengamankannya dengan benar."

Dia menambahkan: “Dalam banyak kasus, para insinyur yang menggunakan model ini mengabaikan praktik terbaik keamanan selama bertahun-tahun dalam perlombaan mereka menuju puncak. Setiap adopsi teknologi baru hadir dengan permukaan serangan dan risiko baru. Dalam rangka memanfaatkan model untuk konten berbahaya, kami sudah mulai melihat alat untuk mendeteksi konten yang dihasilkan – dan saya yakin fitur serupa akan diterapkan oleh vendor keamanan sepanjang tahun.”

Landers menyimpulkan, menawarkan: “Singkatnya, AI / ML akan menjadi alat yang dimanfaatkan oleh aktor ofensif dan defensif, tetapi para pembela memiliki awal yang besar saat ini. Permainan kucing-dan-tikus baru telah dimulai dengan model yang mendeteksi model lain, dan saya yakin ini akan berlanjut. Saya akan mendorong orang untuk fokus pada pertahanan mendalam dengan ML sebagai lawan dari narasi "aktor jahat dengan AI ChatGPT".

DotyCat - Teaching is Our Passion