Anthropic vs Pentagon: Saat AI Menolak Jadi 'Otak' Senjata Otonom
AI & ML

Anthropic vs Pentagon: Saat AI Menolak Jadi 'Otak' Senjata Otonom

27 Februari 2026 | 7 Menit Baca | Nabila Maharani

Deadline sudah lewat. Anthropic memilih kehilangan kontrak masif daripada membiarkan Claude dipakai tanpa batasan oleh militer AS. Apakah ini momen 'Oppenheimer' bagi Silicon Valley?

Bayangin kamu dikasih ultimatum: serahkan “kunci rumah” kamu sepenuhnya ke orang lain dalam waktu 72 jam, atau bisnis kamu bakal di-blacklist selamanya dari proyek pemerintah paling tajir di dunia. Bukan cuma itu, kamu juga diancam pakai hukum era Perang Dingin yang biasanya dipakai buat maksa pabrik panci beralih produksi jadi tank.

Itulah drama intens yang baru saja meledak di Silicon Valley kemarin sore.

Kurang dari 24 jam sebelum deadline pukul 05:01 WIB Sabtu dini hari (17:01 ET Jumat, 28/02/2026), Anthropic—pembuat Claude—resmi menolak tunduk pada Pentagon. CEO Dario Amodei memilih langkah berani: menolak permintaan Departemen Pertahanan AS (DoD) yang menginginkan akses tanpa batas (unfettered access) ke model AI mereka.

Kenapa Pentagon ngotot banget? Karena mereka mau Claude bisa dipakai untuk “semua tujuan yang sah secara hukum,” yang dalam kamus militer berarti termasuk Lethal Autonomous Weapons (LAWs) dan pengawasan massal (surveillance).

Buat kita yang sehari-hari ngoding pakai Claude buat refactor code atau nulis dokumentasi, ini momen yang surreal. Kita lagi nyaksiin sejarah di mana barisan kode etik beradu mekanik sama kekuatan militer adidaya.

Momen “Oppenheimer” Versi 2026

Biar kalian paham konteks teknisnya, ini bukan sekadar masalah “boleh atau nggak”. Ini masalah arsitektur dasar AI.

Anthropic dibangun di atas filosofi Constitutional AI. Kalau dianalogikan ke software engineering, ini kayak kamu punya linter atau unit test yang hard-coded di level paling bawah. Tujuannya? Mencegah output yang berbahaya, rasis, atau—dalam kasus ini—membantu membunuh orang.

Nah, Menteri Pertahanan Pete Hegseth datang dan bilang: “Matikan linter itu. Kita butuh akses raw ke modelnya.”

Ultimatum Pentagon

DoD menuntut penghapusan safety guardrails agar AI bisa beroperasi di jaringan rahasia militer tanpa batasan etika sipil. Jika menolak, Anthropic akan dilabeli sebagai “supply chain risk”—efektif mematikan peluang bisnis mereka dengan seluruh kontraktor pertahanan AS.

Buat Dario Amodei, ini garis merah yang nggak bisa dilanggar. Dalam pernyataan resminya, dia bilang Anthropic “tidak bisa dengan hati nurani yang baik” melepas pengaman tersebut. Risikonya? Claude bisa jadi otak di balik drone pembunuh yang nyari target sendiri tanpa intervensi manusia.

Ini bukan sekadar teori konspirasi film sci-fi. Ketegangan ini memuncak gara-gara insiden nyata di awal tahun.

Taruhan Finansial

Nilai Kontrak Terancam $200 Juta
Low
Proyek DoD yang siap ditinggalkan Anthropic
Valuasi Anthropic $380 Miliar
Per Februari 2026

Trigger-nya: Insiden Venezuela

Kalau kalian ingat berita tanggal 3 Januari 2026 lalu, ada operasi penangkapan Presiden Nicolás Maduro di Venezuela yang berakhir chaos dengan 83 korban jiwa.

Laporan terbaru mengonfirmasi detail yang bikin merinding: Claude dipakai dalam operasi itu.

Lewat platform integrasi data milik Palantir, varian Claude yang diklasifikasikan dipakai untuk menganalisis data intelijen secara real-time. Pentagon melihat ini sebagai kesuksesan integrasi AI. Tapi bagi tim safety di Anthropic, ini mimpi buruk. Produk mereka dipakai dalam rantai keputusan yang berujung pada kematian puluhan orang.

Inilah kenapa Amodei pasang badan. Dia nggak mau kodingan timnya jadi komponen standar dalam “kill chain” militer AS.

Spesifikasi Teknis Konflik

Model AI
Claude 3.x / 4 (Classified Variant)
Platform Integrasi
Palantir AIP (Classified Networks)
Safety Framework
Constitutional AI / RSP
Status Saat Ini
Ultimatum Ditolak / Terancam Blacklist

Senjata Hukum Era Perang Dingin: Defense Production Act

Karena negosiasi alot, Pentagon nggak main-main. Mereka mengancam bakal mengaktifkan Defense Production Act (DPA).

Buat yang belum tahu, DPA itu undang-undang sakti yang ngasih presiden AS wewenang buat maksa perusahaan swasta memprioritaskan pesanan pemerintah demi pertahanan nasional. Dulu ini dipakai buat maksa GM bikin ventilator pas COVID atau pabrik baja bikin tank pas Perang Korea.

Sekarang? Mereka mau pakai ini buat maksa developer nulis kode yang menurut developernya sendiri “nggak aman”.

Para analis hukum lagi pusing tujuh keliling. Memaksa perusahaan untuk memproduksi barang fisik itu satu hal. Tapi memaksa perusahaan software untuk mematikan fitur keamanan produk mereka sendiri? Itu preseden hukum yang mengerikan.

Bayangin kalau Apple dipaksa bikin iOS yang backdoor-nya kebuka lebar buat semua agen pemerintah, dengan alasan “keamanan nasional”. Emil Michael, CTO Pentagon, bahkan bilang tegas bahwa militer nggak akan membiarkan satu perusahaan swasta mendikte kebijakan militer. Pesannya jelas: “Kalian cuma vendor, nurut atau minggir.”

Peta Kompetisi: Siapa yang Tunduk?

Di sinilah letak ironinya. Saat Anthropic sibuk mempertahankan idealisme, kompetitor mereka justru membuka pintu lebar-lebar.

Elon Musk dengan xAI-nya (Grok) dan beberapa pemain besar lainnya sudah menyatakan kepatuhan pada standar baru “all lawful use” ini. Mereka siap mengisi kekosongan yang ditinggalkan Anthropic. Kalau Anthropic resmi kena label “supply chain risk”, kontrak $200 juta itu bakal langsung disambar sama tetangga sebelah.

Ini menciptakan polarisasi tajam di pasar AI:

  1. Kubu Safety-First: Rela kehilangan duit pemerintah demi prinsip (Anthropic sendirian di sini untuk saat ini).
  2. Kubu Compliance-First: Siap menyesuaikan algoritma demi kontrak pertahanan (xAI, OpenAI, dll).

Buat Pentagon, mereka sekarang lagi sibuk audit seberapa besar ketergantungan kontraktor raksasa kayak Boeing dan Lockheed Martin terhadap teknologi Anthropic. Kalau label risiko itu ditempel, semua raksasa pertahanan itu wajib “bersih-bersih” dari elemen Claude di sistem mereka. A massive technical debt in the making.

Perspektif Developer: “Tech Debt” Moral

Sebagai sesama orang teknis, kita harus apresiasi nyali Dario Amodei.

Di dunia software engineering, kita sering ngomongin technical debt. Tapi jarang kita ngomongin ethical debt. Ketika kamu setuju untuk melepas guardrails hari ini demi kontrak besar, kamu sedang menumpuk utang moral yang bunganya bakal dibayar sama masyarakat sipil di masa depan.

Anthropic sadar betul posisi mereka. Model AI itu probabilistik, bukan deterministik. Nggak ada yang bisa jamin 100% AI nggak bakal salah identifikasi warga sipil sebagai kombatan. Membiarkan sistem seperti ini punya otonomi dalam penggunaan senjata (lethal force) adalah bug arsitektural terbesar yang bisa dibuat manusia.

Apa Efeknya Buat Kita di Indonesia?

Mungkin kalian mikir, “Ah, itu kan urusan Amrik. Apa hubungannya sama kita?”

Eits, jangan salah.

  1. Standar Ekspor Teknologi: Kalau Pentagon menetapkan bahwa “AI yang aman” adalah AI yang bisa di-weaponize, definisi global soal AI safety bakal geser. Ini bisa ngaruh ke regulasi ekspor chip atau akses API yang kita pakai di startup-startup Jakarta.
  2. Masa Depan Open Source: Ketakutan Pentagon soal supply chain risk bisa merembet ke kontribusi open source. Bisa jadi nanti ada screening ketat buat kontributor atau library yang dipakai di proyek strategis, bikin ekosistem dev jadi terkotak-kotak.
  3. Ketergantungan Infrastruktur: Banyak perusahaan teknologi Indonesia yang build on top of Claude API karena reasoning capability-nya yang oke. Kalau Anthropic “dimatikan” perlahan oleh pemerintah AS lewat sanksi ekonomi atau blacklist, kita yang di hilir juga bakal kena imbasnya.

Konflik ini adalah ujian validasi paling brutal buat prinsip “AI for Good”. Apakah jargon etika cuma manis di presentasi PowerPoint investor, atau beneran prinsip yang layak diperjuangkan meski harus rugi ratusan juta dolar?

Anthropic sudah memilih jawaban mereka: No.

Sekarang, bola panas ada di tangan pemerintah AS. Apakah mereka bakal beneran “menekan tombol merah” DPA dan memaksa Anthropic? Atau mereka bakal blink duluan karena sadar bahwa memaksa nerd buat ngoding sesuatu yang mereka benci biasanya nggak bakal berakhir baik?

Satu hal yang pasti, Jumat sore ini bakal jadi git commit paling bersejarah dalam industri AI.


Bagaimana pendapat kalian? Apakah langkah Anthropic ini heroik atau justru naif di tengah geopolitik yang makin panas?