Di tengah lanskap geopolitik yang semakin kompleks dan perkembangan teknologi yang pesat, kecerdasan buatan (AI) telah muncul sebagai kekuatan transformatif, menjanjikan efisiensi dan inovasi di berbagai sektor. Namun, dengan kekuatannya yang besar, muncul pula kekhawatiran mendalam tentang implikasi etis dan keamanan dari penggunaan AI, terutama dalam konteks militer. Baru-baru ini, OpenAI, perusahaan di balik model bahasa besar (LLM) yang revolusioner seperti ChatGPT, mengumumkan kemitraan strategis dengan Departemen Pertahanan Amerika Serikat (AS), sebuah langkah yang memicu perdebatan sengit dan pertanyaan mendasar tentang masa depan AI dalam perang modern.
Pengumuman kemitraan ini disampaikan langsung oleh CEO OpenAI, Sam Altman, melalui platform X, menandakan era baru kolaborasi antara sektor swasta dan pemerintah dalam pengembangan dan penerapan AI untuk tujuan pertahanan. Altman menekankan bahwa kesepakatan ini didasarkan pada dua prinsip keselamatan utama yang akan memandu implementasi teknologi OpenAI di dalam jaringan Departemen Pertahanan.
Prinsip pertama adalah larangan tegas terhadap penggunaan teknologi OpenAI untuk pengawasan massal domestik. Ini adalah respons langsung terhadap kekhawatiran yang meluas tentang potensi penyalahgunaan AI untuk melanggar privasi dan kebebasan sipil, terutama di negara-negara dengan rekam jejak pengawasan yang kontroversial. Dengan melarang penggunaan AI untuk pengawasan massal domestik, OpenAI berupaya untuk memastikan bahwa teknologinya tidak digunakan untuk menindas atau mengontrol populasi sipil secara tidak adil.
Prinsip kedua yang dipegang teguh oleh OpenAI adalah penekanan pada tanggung jawab manusia dalam penggunaan kekuatan militer, termasuk dalam sistem senjata otonom. Hal ini mengakui risiko inheren yang terkait dengan pengembangan dan penyebaran sistem senjata yang dapat membuat keputusan secara mandiri tanpa campur tangan manusia. OpenAI menegaskan bahwa manusia harus selalu bertanggung jawab atas penggunaan kekuatan militer, dan bahwa AI tidak boleh digunakan untuk menggantikan atau mengurangi peran manusia dalam pengambilan keputusan yang berkaitan dengan kehidupan dan kematian.
Kemitraan antara OpenAI dan Departemen Pertahanan ini terjadi setelah serangkaian peristiwa penting yang menyoroti kompleksitas dan kontroversi seputar penggunaan AI dalam sektor pertahanan. Salah satunya adalah perintah eksekutif yang dikeluarkan oleh Presiden AS Donald Trump yang menginstruksikan seluruh instansi pemerintah untuk menghentikan penggunaan Claude, LLM yang dikembangkan oleh Anthropic, sebuah perusahaan AI yang juga berfokus pada pengembangan teknologi yang aman dan bermanfaat.
Keputusan ini didasarkan pada kekhawatiran tentang potensi risiko rantai pasokan yang terkait dengan penggunaan Claude, serta penolakan Anthropic untuk menghapus batasan keamanan pada teknologinya yang mencegah penggunaan AI untuk pengawasan massal terhadap warga AS dan sistem senjata otonom penuh. Menteri Pertahanan AS saat itu, Pete Hegseth, bahkan mengancam akan melabeli Anthropic sebagai "risiko rantai pasokan" jika mereka tidak memenuhi tuntutan tersebut.
Kisah Anthropic ini menyoroti dilema mendasar yang dihadapi oleh perusahaan-perusahaan AI yang berupaya untuk menyeimbangkan inovasi dengan tanggung jawab etis dan keamanan. Di satu sisi, mereka didorong untuk mengembangkan teknologi yang canggih dan efektif yang dapat digunakan untuk berbagai tujuan, termasuk pertahanan nasional. Di sisi lain, mereka juga menyadari potensi penyalahgunaan teknologi mereka dan memiliki tanggung jawab untuk memastikan bahwa teknologi tersebut digunakan secara bertanggung jawab dan etis.
Jeremy Lewin, seorang pejabat senior di bawah Sekretaris Urusan Bantuan Luar Negeri dan Kemanusiaan, mengungkapkan bahwa kontrak Departemen Pertahanan dengan OpenAI mencakup otoritas hukum tertentu dan mekanisme keselamatan yang telah disepakati bersama. Menurut Lewin, OpenAI dan xAI, pengembang Grok, LLM pesaing, telah menerima persyaratan tersebut, menunjukkan kesediaan mereka untuk bekerja sama dengan pemerintah dalam memastikan bahwa teknologi mereka digunakan secara aman dan bertanggung jawab.
Lewin juga menyatakan bahwa persyaratan yang sama telah ditawarkan kepada Anthropic, tetapi mereka menolaknya, yang mengarah pada keputusan pemerintah untuk menghentikan penggunaan Claude. Pernyataan ini mengisyaratkan bahwa OpenAI mungkin telah bersedia untuk membuat kompromi yang lebih besar daripada Anthropic dalam hal batasan keamanan dan kontrol penggunaan teknologi mereka, yang memungkinkan mereka untuk menjalin kemitraan dengan Departemen Pertahanan.