Kesepakatan AI Google-Pentagon Tuai Kritik Karyawan Internal


Gedung Kantor Google

Gedung Kantor Google

Langkah Google yang dilaporkan menandatangani kerja sama dengan Pentagon Amerika Serikat kembali memicu perdebatan panjang mengenai batas etika penggunaan Artificial Intelligence (AI) dalam sektor militer. Di tengah percepatan perkembangan teknologi, kolaborasi antara perusahaan teknologi besar dan lembaga pertahanan kini semakin intens, namun juga semakin kontroversial.

Berdasarkan laporan yang beredar, Google menyepakati penggunaan model AI miliknya untuk mendukung pekerjaan bersifat rahasia di lingkungan Pentagon. Dengan demikian, perusahaan ini bergabung dengan sejumlah pemain besar di industri AI seperti OpenAI, xAI, dan Anthropic yang lebih dulu menjalin kontrak serupa dengan militer Amerika Serikat.

Kesepakatan tersebut membuka jalan bagi Pentagon untuk memanfaatkan teknologi AI Google dalam berbagai “tujuan pemerintah yang sah”. Dalam praktiknya, istilah ini mencakup spektrum luas, mulai dari analisis data intelijen hingga dukungan dalam perencanaan operasi militer. Penggunaan AI di jaringan rahasia memang bukan hal baru, tetapi skalanya kini semakin besar dan melibatkan teknologi yang jauh lebih canggih.

Jaringan rahasia milik pemerintah biasanya digunakan untuk menangani informasi sensitif, termasuk strategi militer, pemetaan ancaman, hingga sistem penargetan. Pada 2025, Pentagon dilaporkan mengalokasikan kontrak hingga 200 juta dolar AS untuk masing-masing perusahaan AI besar. Investasi ini mencerminkan betapa pentingnya teknologi AI dalam strategi pertahanan modern.

Namun, ada aspek lain yang tidak kalah penting: fleksibilitas penggunaan. Pemerintah AS disebut mendorong perusahaan teknologi untuk menyediakan sistem AI mereka di jaringan rahasia tanpa pembatasan ketat seperti yang berlaku untuk publik. Hal ini berarti fitur keamanan atau pembatasan tertentu berpotensi disesuaikan—atau bahkan dilonggarkan—demi kepentingan operasional.

Dalam konteks inilah kesepakatan dengan Google menjadi sorotan. Laporan menyebutkan bahwa perusahaan harus siap menyesuaikan pengaturan keamanan dan filter AI sesuai permintaan pemerintah. Meski kontrak tersebut secara eksplisit melarang penggunaan AI untuk pengawasan massal domestik atau senjata otonom tanpa pengawasan manusia, implementasinya tetap menimbulkan kekhawatiran.

Di satu sisi, klausul tersebut tampak memberikan batasan etis yang jelas. Namun di sisi lain, kontrak itu juga menegaskan bahwa Google tidak memiliki kewenangan untuk mengontrol atau memveto keputusan operasional pemerintah yang sah. Artinya, setelah teknologi diserahkan, kendali penggunaan sepenuhnya berada di tangan pemerintah.

Pihak Pentagon sendiri memilih untuk tidak memberikan komentar resmi terkait kerja sama ini. Sementara itu, Google melalui juru bicaranya menegaskan komitmen perusahaan terhadap penggunaan AI yang bertanggung jawab. Mereka menyatakan bahwa teknologi AI tidak boleh digunakan untuk pengawasan massal atau pengembangan senjata otonom tanpa keterlibatan manusia.

Google juga menilai bahwa menyediakan akses API ke model AI mereka—termasuk melalui infrastruktur internal—merupakan langkah yang sejalan dengan praktik industri dan dapat mendukung keamanan nasional secara bertanggung jawab.

Meski demikian, pernyataan tersebut belum mampu meredam kekhawatiran internal. Lebih dari 600 karyawan Google dilaporkan menandatangani surat terbuka kepada CEO Sundar Pichai. Dalam surat itu, mereka menyuarakan keprihatinan bahwa teknologi yang mereka kembangkan berpotensi digunakan untuk tujuan yang tidak manusiawi atau berbahaya.

Para karyawan tersebut menegaskan bahwa kedekatan mereka dengan teknologi AI justru menciptakan tanggung jawab moral untuk mencegah penyalahgunaan. Mereka meminta manajemen perusahaan menolak penggunaan AI Google untuk proyek-proyek rahasia militer.

Gelombang penolakan ini bukan yang pertama. Sejarah mencatat bahwa keterlibatan Google dalam proyek militer kerap memicu reaksi keras dari internal perusahaan. Pada 2018, ribuan karyawan memprotes partisipasi Google dalam Project Maven—program Pentagon yang menggunakan AI untuk menganalisis rekaman drone. Tekanan besar kala itu membuat Google memutuskan untuk tidak memperpanjang kontrak tersebut.

Namun situasi kini tampak berbeda. Perubahan kebijakan di tingkat perusahaan turut memengaruhi arah strategi. Perusahaan induk Google, Alphabet, sebelumnya telah mencabut larangan penggunaan AI untuk aplikasi senjata dan pengawasan. Bahkan, sejumlah prinsip etika lama yang menolak pengembangan teknologi berpotensi merugikan juga dihapus.

Menurut Demis Hassabis, perkembangan AI saat ini telah menjadikannya sebagai komponen penting dalam menjaga keamanan nasional. Pernyataan ini mencerminkan pergeseran perspektif dari sekadar inovasi teknologi menuju instrumen strategis dalam geopolitik.

Namun tidak semua pihak sepakat dengan arah tersebut. Di forum internal perusahaan, beberapa karyawan bahkan mempertanyakan posisi moral mereka. Salah satu komentar yang mencuat, “Apakah kita pihak jahatnya?”, menggambarkan kegelisahan yang berkembang di kalangan pekerja teknologi.

Sementara itu, Pentagon menegaskan bahwa mereka tidak berniat menggunakan AI untuk memata-matai warga Amerika secara massal maupun menciptakan senjata mematikan yang sepenuhnya otonom. Meski demikian, mereka tetap menginginkan agar semua penggunaan AI yang dianggap sah dapat dilakukan tanpa hambatan.

Ketegangan antara inovasi teknologi, kepentingan keamanan nasional, dan nilai-nilai etika kini menjadi isu utama dalam perkembangan AI global. Kasus Google dan Pentagon memperlihatkan bagaimana teknologi tidak lagi berada di ruang netral, melainkan menjadi bagian dari dinamika politik dan militer.

Ke depan, transparansi dan akuntabilitas akan menjadi faktor krusial dalam menentukan arah penggunaan AI. Tanpa pengawasan yang memadai, potensi penyalahgunaan teknologi ini bisa membawa konsekuensi besar, tidak hanya bagi keamanan global, tetapi juga bagi kepercayaan publik terhadap perusahaan teknologi.

Kesepakatan ini pada akhirnya bukan sekadar kontrak bisnis, melainkan refleksi dari dilema besar di era digital: sejauh mana teknologi boleh digunakan untuk kekuatan, dan di mana batas etika harus ditegakkan.

Bagikan artikel ini

Komentar ()

Video Terkait