Drama Pentagon vs Anthropic: Claude Justru Melesat ke Posisi 2 App Store!
AI & ML

Drama Pentagon vs Anthropic: Claude Justru Melesat ke Posisi 2 App Store!

1 Maret 2026 | 6 Menit Baca | Nabila Maharani

Ketika dilarang pemerintah malah jadi incaran publik. Simak bagaimana sikap keras Anthropic soal etika AI justru bikin user berbondong-bondong download Claude.

Plot twist paling epik di industri teknologi awal tahun 2026 ini bukan datang dari rilis iPhone baru atau terobosan chip kuantum, tapi dari sebuah “pertengkaran” ideologis.

Bayangkan skenarionya: Sebuah perusahaan AI menolak permintaan militer negara adidaya, lalu diboikot oleh Presiden, tapi bukannya bangkrut, aplikasinya malah meledak popularitasnya sampai nyaris jadi nomor satu di dunia. Ini bukan naskah film Sci-Fi distopia, ini adalah apa yang baru saja terjadi pada Anthropic dan chatbot andalan mereka, Claude.

Per hari Sabtu kemarin (28/2 waktu AS, atau Minggu pagi WIB), Claude resmi menduduki posisi Nomor 2 di tangga lagu… eh, maksudnya tangga aplikasi “Top Free Apps” di Apple App Store AS. Posisi ini tepat di bawah ChatGPT, menyalip raksasa lain seperti Google Gemini dan Meta.

Fenomena ini menarik banget, terutama bagi kalangan developer yang tiap hari ‘ngulik’ kode. Biasanya, kalau pemerintah bilang “X itu berbahaya”, orang takut. Tapi kali ini, label “berbahaya” dari Pentagon justru diterjemahkan publik sebagai “Oh, berarti aplikasi ini aman buat privasi kita.”

Mari kita bedah kodenya—maksud saya, kronologinya.

”Bug” di Negosiasi Pemerintah

Semua ini bermula dari negosiasi alot antara Anthropic dan Departemen Pertahanan AS (yang sekarang berganti nama jadi Department of War—nama yang lumayan bikin merinding, jujur saja). Pemerintah AS ingin mengadopsi teknologi AI Anthropic, tapi mereka minta fitur kuncian keselamatannya dilepas.

CEO Anthropic, Dario Amodei, dikabarkan menolak mentah-mentah “tawaran terakhir” dari Pentagon. Apa yang diminta pemerintah? Mereka ingin akses untuk melakukan pengawasan domestik massal (mass domestic surveillance) dan penggunaan senjata mematikan otonom (fully autonomous lethal weapons).

The Red Lines

Anthropic menetapkan batas keras yang tidak bisa ditawar: AI mereka haram digunakan untuk memata-matai warga sipil secara massal atau menjadi otak dari senjata yang bisa membunuh tanpa persetujuan manusia. Ini tertanam dalam Constitutional AI framework mereka.

Respons pemerintah? Keras. Pada Jumat, 27 Februari 2026 (Sabtu dini hari WIB), Presiden Trump mengeluarkan perintah eksekutif yang meminta seluruh agensi federal untuk “IMMEDIATELY CEASE” (segera menghentikan) penggunaan teknologi Anthropic.

Bahkan, Sekretaris Perang Pete Hegseth melabeli Anthropic sebagai supply chain risk”. Istilah ini biasanya dipakai buat perusahaan asing yang dianggap musuh negara, bukan buat startup lokal San Francisco yang valuasinya ratusan miliar dolar.

Efek Streisand: Dilarang Malah Dicari

Nah, di sinilah logika pasar bekerja dengan cara yang unik. Begitu berita soal penolakan Anthropic terhadap mass surveillance ini bocor, publik justru melihat ini sebagai validasi ultimate.

Buat kita yang sadar privasi, penolakan Anthropic ini ibarat sertifikasi keamanan tertinggi. Kalau pemerintah saja marah karena nggak bisa pakai AI ini buat ngintip warganya, berarti enkripsi dan guardrails-nya beneran jalan, dong?

Lonjakan pengguna ini sebenarnya sudah mulai terlihat sejak pertengahan Februari, didorong oleh iklan Super Bowl mereka yang memposisikan Claude sebagai tempat berpikir yang “bebas iklan”, kontras banget sama arah kompetitor yang mulai penuh sponsored content.

Momentum Claude (Feb 2026)

App Store Rank #2
High
Top Free Apps (US)
Download Surge 32%
Pasca Super Bowl (3 hari)
Valuasi $380B
Pasca funding $30B

Kenaikan 32% download dalam tiga hari pasca Super Bowl itu angka yang gila untuk aplikasi yang sebenarnya bukan “barang baru”. Tapi lonjakan puncaknya ya terjadi akhir pekan ini, tepat setelah drama dengan Pentagon meledak.

Spesifikasi di Balik Layar

Bukan cuma soal politik, secara teknis Claude memang lagi “wangi-wanginya”. Pertengahan Februari lalu, mereka merilis Opus 4.6. Bagi pengguna harian Claude untuk keperluan pair programming, upgrade ini terasa signifikan.

Spesifikasi Claude Saat Ini

Flagship Model
Claude Opus 4.6
Safety Framework
Responsible Scaling Policy 3.0
Context Window
200k+ Tokens
Monetisasi
Subscription (No Ads)

Opus 4.6 ini cerdas, dan yang paling penting: context window-nya stabil. Tapi nilai jual utamanya sekarang bergeser dari sekadar “pinta coding” jadi “pintar dan berprinsip”.

OpenAI Mengambil Celah

Menariknya (atau mirisnya?), beberapa jam setelah Anthropic “diusir” dari Pentagon, laporan menyebutkan kalau OpenAI langsung meneken kontrak baru dengan Departemen Pertahanan. Padahal, Sam Altman (CEO OpenAI) sebelumnya juga koar-koar soal prinsip keselamatan yang mirip.

Ini menciptakan dikotomi pasar yang jelas:

  • OpenAI & xAI (Grok): Lebih pragmatis, siap bekerja sama dengan militer/pemerintah demi kontrak besar.
  • Anthropic: Memposisikan diri sebagai “The Ethical Choice”, meskipun harus kehilangan duit triliunan dari kontrak pemerintah.

Kronologi Eskalasi Anthropic vs Pentagon

+1 mgg 4 hr

Komitmen Ad-Free

Anthropic menegaskan Claude tetap bebas iklan

+2 hr

Iklan Super Bowl

Positioning sebagai 'ruang berpikir' menaikkan rank ke #7

+1 mgg 3 hr

Rilis Opus 4.6

Model terbaru meluncur ke publik

+1 hr

Banned by Trump

Negosiasi buntu, Pentagon labeli 'supply chain risk'

Melesat ke #2

Publik merespons dengan download massal

Apa Artinya Buat Kita di Indonesia?

Mungkin ada yang mikir, “Ah, itu kan urusan militer Amerika, apa ngaruhnya buat gue yang lagi coding di Jakarta?”

Eits, ngaruh banget. Pertama, ketersediaan alternatif yang etis. Di dunia di mana data kita seringkali jadi komoditas (ingat kasus-kasus kebocoran data di sini?), punya opsi platform AI yang secara fundamental menolak surveillance itu angin segar. Walaupun servernya di AS, filosofi produknya melindungi user secara global.

Kedua, ini pelajaran mahal buat ekosistem startup kita. Bahwa idealisme itu bisa laku dijual. Anthropic membuktikan bahwa safety and ethics bukan cuma beban regulasi, tapi bisa jadi Unique Selling Point (USP) yang kuat untuk melawan kompetitor yang lebih besar.

Kelebihan

  • Privasi lebih terjamin (menolak mass surveillance)
  • Model Opus 4.6 sangat capable untuk coding & writing
  • UX bersih tanpa iklan/konten sponsor

Kekurangan

  • Harga langganan Pro ($20) cukup lumayan buat kantong lokal
  • Risiko friksi regulasi di masa depan

Buat teman-teman developer atau tech enthusiast, momen ini menegaskan satu hal: Kita sedang masuk ke era di mana kita memilih AI bukan cuma berdasarkan seberapa pintar dia, tapi siapa yang memegang kuncinya.

Kalau kamu tipe yang lebih tenang tidur karena tahu asisten AI-mu nggak bakal jadi mata-mata pemerintah, sepertinya Claude Opus 4.6 layak dicoba. Tapi kalau kamu butuh fitur yang “asal jalan” tanpa peduli dapur politiknya, opsi lain masih banyak bertebaran.

Saatnya git push dulu kode hari ini bareng Claude. Rasanya lebih… tenang.