Pernahkah kamu pakai aplikasi Chat & Ask AI? Jika iya, ada kemungkinan pesanmu bocor bulan lalu. Seorang peneliti independen menemukan 300 juta pesan di layanan itu, menurut laporan Emanual Maiberg dari 404 Media.
Data yang bocor termasuk log obrolan tentang topik sensitif. Mulai dari penggunaan narkoba hingga masalah kesehatan mental seperti keinginan bunuh diri.
Chat & Ask AI, aplikasi dari Codeway yang berbasis di Istanbul, tersedia di Apple dan Google app store. Mereka mengklaim punya sekitar 50 juta pengguna.
Aplikasi ini menjual akses ke model bahasa besar (LLM) dari perusahaan lain. Termasuk OpenAI, Claude, dan Google, dengan akses gratis terbatas untuk pengguna.
Masalahnya ada pada konfigurasi Google Firebase yang tidak aman. Ini adalah celah yang cukup umum terjadi pada aplikasi atau website.
Peneliti tersebut bisa dengan mudah membuat dirinya sebagai pengguna “terotentikasi”. Lalu, ia bisa membaca pesan dari 25 juta pengguna aplikasi tersebut.
Ia dilaporkan mengekstrak dan menganalisis sekitar 60.000 pesan. Setelah itu, ia melaporkan masalah ini ke Codeway untuk segera diperbaiki.
Kabar baiknya, masalah ini sudah ditambal dengan cepat. Kabar baik lainnya, belum ada laporan pesan-pesan ini bocor ke internet yang lebih luas.
Namun, ini jadi alasan lain untuk berhati-hati dengan pesan yang kamu kirim ke chatbot AI. Percakapan dengan chatbot AI tidak sepenuhnya privat.
Sistem ini sering menyimpan percakapanmu untuk “mengingatnya” nanti. Jika terjadi kebocoran data, ini bisa memalukan, atau bahkan lebih buruk.
Menggunakan reseller seperti Chat & Ask AI untuk mengakses LLM menambah lapisan risiko keamanan. Seperti yang ditunjukkan oleh kebocoran baru-baru ini.
Jadi, pikirkan dua kali sebelum berbagi informasi sensitif dengan chatbot. Selalu ada risiko data pribadimu bisa terekspos, walau sedikit.
Dikutip dari artikel yang ditulis oleh Justin Pot di Lifehacker, pengguna harus lebih berhati-hati dalam menggunakan aplikasi AI.





















