Kesepakatan antara OpenAI, pengembang ChatGPT, dengan Departemen Pertahanan Amerika Serikat (AS) menuai kecaman luas. Banyak pihak khawatir AI dapat disalahgunakan dalam konteks militer atau pengawasan.
Gelombang protes muncul, menyerukan boikot terhadap produk OpenAI, termasuk ChatGPT. Organisasi QuitGPT berencana menggelar aksi di kantor pusat OpenAI di San Francisco.
Kritik menyoroti keinginan Pentagon menggunakan AI untuk semua tujuan yang sah tanpa larangan pengumpulan data warga.
CEO OpenAI, Sam Altman, mengakui kesepakatan itu tampak “ceroboh dan oportunistik”. Ia berjanji merevisi kontrak untuk memasukkan perlindungan terhadap pengawasan.
Kekhawatiran utama meliputi penggunaan AI dalam serangan pesawat tak berawak dan pengawasan massal. Namun, Pentagon juga berencana memanfaatkan teknologi ini untuk logistik dan manajemen personel.
Unjuk rasa ketidaksetujuan menyebabkan penurunan tajam retensi pengguna ChatGPT. Pengguna ramai membagikan tangkapan layar pembatalan langganan ChatGPT.
Menurut Sensor Tower, aplikasi ChatGPT mengalami lonjakan uninstall pada 28 Februari. Hal ini bertepatan dengan serangan gabungan AS-Israel terhadap Iran.
Sentimen anti-perang di kalangan orang dewasa AS mencapai 52%, menurut jajak pendapat Washington Post pada 1 Maret.
Anthropic, pembuat Claude, menolak kesepakatan dengan Pentagon karena masalah pengawasan massal. Keputusan ini meningkatkan reputasi mereka sebagai “orang baik AI”.
Penolakan Anthropic disambut positif publik, namun Gedung Putih mengecam mereka sebagai “risiko rantai pasokan”.
Meskipun demikian, Claude dilaporkan digunakan dalam serangan awal terhadap Iran.
Kontroversi ini menyoroti dilema etika dalam pengembangan dan penerapan AI, terutama dalam konteks militer.
Perusahaan teknologi kini menghadapi tekanan lebih besar untuk mempertimbangkan implikasi etis dari pekerjaan mereka.





















