Perlombaan Senjata AI Memanas: “Robot Pembunuh” Dikhawatirkan Lepas Kendali

EtIndonesia. Senjata berbasis kecerdasan buatan (AI) kini telah keluar dari ranah fiksi ilmiah dan memasuki medan perang nyata. Pada hari Selasa (13/5), para perwakilan dari berbagai negara berkumpul di Markas Besar PBB di New York untuk membahas langkah-langkah pengawasan baru terhadap teknologi ini. Tujuannya adalah menyusun kerangka pengaturan terhadap sistem persenjataan AI yang semakin kuat dan telah digunakan secara nyata dalam berbagai konflik global.

Para ahli memperingatkan, tanpa pengendalian yang efektif, AI bisa memicu perlombaan senjata baru yang lebih berbahaya dan memunculkan masalah akuntabilitas yang serius.

AI Mengubah Wajah Perang: Senjata Otonom di Medan Tempur

Menurut laporan Reuters pada 13 Mei, sistem senjata otonom dan senjata dengan bantuan AI telah memainkan peran penting dalam Perang Ukraina dan konflik di Gaza. Banyak negara kini juga meningkatkan anggaran pertahanan, yang pada gilirannya mempercepat pengembangan teknologi militer berbasis AI.

Ciri utama senjata AI adalah kemampuannya untuk menyerang target tanpa intervensi langsung manusia. Hal ini menimbulkan dua kekhawatiran besar:

  1. Perlombaan Senjata yang Tak Terkendali
    AI disebut sebagai revolusi militer ketiga setelah penemuan mesiu dan senjata nuklir. Dominasi negara-negara besar dalam teknologi senjata AI memaksa negara lain ikut berlomba, menciptakan kompetisi destruktif berbasis “dilema keamanan”. Teknologi ini juga bisa mengurangi risiko korban dari pihak penyerang, sehingga membuat para pengambil keputusan lebih mudah memutuskan untuk berperang.
  2. Kekosongan Akuntabilitas

Bila senjata AI secara keliru menargetkan warga sipil atau sasaran yang dilindungi, siapa yang bertanggung jawab? Apakah perancang perangkat lunaknya, komandan militer, produsen, atau AI itu sendiri?

Pertanyaan-pertanyaan ini belum memiliki jawaban hukum yang jelas.

Upaya Regulasi Masih Tertinggal Jauh

Sejak tahun 2014, negara-negara anggota Konvensi Senjata Konvensional Tertentu (CCW) telah membahas di Jenewa, Swiss, apakah senjata otonom tanpa kendali manusia harus dilarang, dan bagaimana cara mengatur sistem-sistem semi-otonom lainnya.

Sekretaris Jenderal PBB Antonio Guterres telah menetapkan target:

Pada tahun 2026, seluruh negara harus memiliki kerangka regulasi yang jelas untuk penggunaan senjata AI.

Amnesty International mencatat bahwa banyak negara mendukung kerangka hukum global yang mengikat. Namun demikian, negara-negara seperti Amerika Serikat, Rusia, Tiongkok, dan India lebih memilih pedoman di tingkat nasional atau mengandalkan hukum internasional yang sudah ada.

AI di Medan Perang: Contoh Nyata dari Ukraina hingga Gaza

Di Ukraina, baik pasukan Rusia maupun Ukraina menggunakan drone berkemampuan AI untuk pengintaian, pengawasan, dan serangan presisi. Beberapa sistem bahkan mampu mengidentifikasi dan melacak target secara otomatis, dan tetap beroperasi meski komunikasi terganggu.

Di konflik Gaza, Israel dilaporkan menggunakan sistem AI untuk membantu mengidentifikasi target militer. Walau pihak Israel menekankan bahwa keputusan akhir tetap di tangan manusia, peran AI dalam proses seleksi target dan pengambilan keputusan secara cepat dan masif mengundang pertanyaan tentang masih adanya “kontrol manusia yang bermakna”.

Selain itu, drone kamikaze atau drone bunuh diri yang dilengkapi AI juga semakin sering digunakan dalam berbagai konflik. Kemampuannya untuk beroperasi secara otonom terus meningkat seiring dengan kemajuan teknologi.

Semua contoh ini menunjukkan bahwa AI:

  • Meningkatkan kecepatan pengambilan keputusan dalam perang,
  • Potensial meningkatkan akurasi serangan,
  • Mendorong tren menuju otomatisasi dan perang tanpa awak,
    tetapi juga membawa tantangan besar dari sisi hukum dan etika.

Kenapa Pengaturan Global Masih Tertunda?

Kelompok Ahli Pemerintah tentang Senjata Otonom Mematikan (GGE on LAWS) di bawah naungan CCW PBB menjadi forum utama diskusi. Namun hingga kini, belum ada perjanjian yang bersifat mengikat secara hukum. Hambatannya antara lain:

  1. Perbedaan Definisi
    Tidak ada kesepakatan yang jelas dan operasional tentang apa yang dimaksud dengan “senjata otonom mematikan” atau “kontrol manusia yang bermakna”.
  2. Kesulitan Verifikasi
    Sifat teknologi AI yang dual-use (militer dan sipil), serta algoritma yang bekerja seperti “kotak hitam” (black box), membuat transparansi dan pengawasan teknis sulit diterapkan.
  3. Perkembangan Teknologi Terlalu Cepat
    Kecepatan inovasi di bidang AI melampaui kemampuan diplomasi global dalam menyusun regulasi.

Taruhannya: Etika, Keamanan Global, dan Masa Depan Perang

Diskusi PBB ini menyentuh inti dari masa depan perang dan batas etika teknologi. Senjata AI membawa potensi besar, namun juga mengandung risiko yang sama besarnya. Tanpa kerangka tata kelola global yang efektif, dunia bisa melangkah menuju masa depan yang tak terbayangkan—dan mungkin tak terkendali.Kepala Departemen Pengendalian Senjata dari Kementerian Luar Negeri Austria, Alexander Kmentt, menegaskan dalam wawancaranya dengan Reuters:“Waktunya hampir habis. Kita harus segera membangun sistem pengamanan global, sebelum mimpi buruk yang diperingatkan oleh para ahli menjadi kenyataan.” (jhn/yn)

FOKUS DUNIA

NEWS