Jakarta –
Potensi sistem kecerdasan buatan (AI) digunakan untuk tindakan jahat meningkat, menurut laporan penting oleh para ahli AI. Penulis utama studi tersebut memperingatkan bahwa DeepSeek dan AI disruptif lainnya dapat memperberat risiko keamanan.
Yoshua Bengio, yang dianggap sebagai salah satu godfather AI modern, mengatakan kemajuan yang diperlihatkan perusahaan asal China DeepSeek dapat berkembang menjadi kekhawatiran di bidang AI yang didominasi Amerika Serikat (AS) dalam beberapa tahun terakhir.
“Ini berarti persaingan yang lebih ketat, yang biasanya bukan hal baik dari sudut pandang keamanan AI,” katanya, dikutip dari Nature seperti dilihat Jumat (31/1/2025).
Bengio mengatakan, perusahaan-perusahaan AS dan pesaing DeepSeek lainnya dapat fokus mendapatkan kembali keunggulan mereka alih-alih pada keamanan. OpenAI, pengembang ChatGPT, yang ditantang DeepSeek dengan peluncuran asisten virtualnya sendiri, berjanji minggu ini untuk mempercepat rilis produk sebagai hasilnya.
“Jika Anda membayangkan persaingan antara dua entitas dan salah satu berpikir mereka jauh lebih unggul, maka mereka mampu bersikap lebih bijaksana dan tetap yakin bahwa mereka akan tetap unggul,” kata Bengio.
“Sedangkan jika Anda memiliki persaingan antara dua entitas dan mereka berpikir bahwa yang lain berada pada level yang sama, maka mereka perlu mempercepat. Maka mungkin mereka tidak terlalu memperhatikan keselamatan,” sambungnya.
AI Semakin Mengerikan
International AI Safety Report (Laporan Keselamatan AI) pertama yang lengkap telah disusun oleh 96 ahli termasuk pemenang hadiah Nobel Geoffrey Hinton. Bengio, salah satu pemenang penghargaan Turing di 2018 (penerima Nobel komputasi) ditugaskan oleh pemerintah Inggris untuk memimpin laporan tersebut, yang diumumkan pada pertemuan puncak International AI Safety Report global di Bletchley Park, Inggris pada 2023.
Anggota panel dinominasikan oleh 30 negara serta Uni Eropa dan PBB. Pertemuan puncak AI global berikutnya berlangsung di Paris pada 10 dan 11 Februari mendatang.
Laporan tersebut menyatakan bahwa sejak publikasi studi sementara pada Mei tahun lalu, sistem AI serbaguna seperti chatbot menjadi lebih pintar dalam domain yang relevan untuk penggunaan yang bertujuan jahat, seperti penggunaan alat otomatis untuk menyoroti kerentanan dalam perangkat lunak dan sistem TI, hingga memberikan panduan tentang produksi senjata biologis dan kimia.
Dikatakan bahwa model AI baru dapat menghasilkan instruksi teknis langkah demi langkah untuk menciptakan patogen dan racun yang melampaui kemampuan para ahli dengan gelar PhD. OpenAI pun mengakui bahwa model o1 canggihnya dapat membantu spesialis dalam merencanakan cara menghasilkan ancaman biologis.
Namun, laporan tersebut mengatakan tidak pasti apakah para pemula akan dapat bertindak berdasarkan panduan tersebut, dan bahwa model juga dapat digunakan untuk tujuan yang bermanfaat seperti dalam pengobatan.
Bengio mengatakan model dengan penggunaan kamera ponsel pintar, secara teoritis bisa memandu orang melalui tugas-tugas berbahaya seperti mencoba membuat senjata biologis.
“Alat-alat ini menjadi semakin mudah digunakan oleh orang awam, karena alat-alat ini dapat menguraikan tugas yang rumit menjadi langkah-langkah yang lebih kecil yang dapat dipahami semua orang, dan kemudian secara interaktif dapat membantu Anda melakukannya dengan benar. Dan itu sangat berbeda dengan menggunakan, katakanlah, pencarian Google,” katanya.
Laporan tersebut mengatakan sistem AI telah meningkat secara signifikan sejak tahun lalu dalam kemampuannya untuk menemukan kelemahan dalam perangkat lunak secara mandiri, tanpa campur tangan manusia. Ini dapat membantu peretas merencanakan serangan siber.
Namun, laporan tersebut mengatakan, aktivitas melakukan serangan di dunia nyata secara mandiri, sejauh ini masih berada di luar jangkauan sistem AI, karena memerlukan tingkat presisi yang luar biasa.
Risiko Penyalahgunaan Berkembang
Laporan itu juga menunjukkan peningkatan signifikan dalam konten deepfake. Teknologi tersebut digunakan untuk menghasilkan kemiripan yang meyakinkan dari seseorang, baik gambar, suara, atau keduanya.
Dikatakan bahwa deepfake telah digunakan untuk mengelabui perusahaan agar menyerahkan uang, melakukan pemerasan, dan membuat gambar orang yang bermuatan pornografi. Mengukur level peningkatan yang tepat dalam perilaku tersebut sulit dilakukan karena kurangnya statistik yang komprehensif dan dapat diandalkan.
Ada pula risiko penggunaan jahat lainnya karena model yang disebut sumber tertutup, yang kode dasarnya tidak dapat dimodifikasi, dapat rentan terhadap jailbreak yang menghindari pagar pengaman, sementara model sumber terbuka seperti Llama dari Meta, yang dapat diunduh gratis dan dapat diubah oleh para spesialis, menimbulkan risiko ‘memfasilitasi penggunaan untuk tujuan jahat atau salah arah’ oleh pelaku kejahatan.
Tak lama setelah laporan tersebut diselesaikan, Bengio juga mencatat kemunculan model ‘penalaran’ canggih baru oleh OpenAI yang disebut o3 pada Desember 2024. Bengio mengatakan kemampuannya untuk membuat terobosan pada tes penalaran abstrak utama merupakan pencapaian yang sudah berada di luar jangkauan, menurut banyak ahli, termasuk dirinya sendiri.
“Tren yang dibuktikan oleh o3 dapat memiliki implikasi yang mendalam bagi risiko AI. Penilaian risiko dalam laporan ini harus dibaca dengan pemahaman bahwa AI telah memperoleh kemampuannya sejak laporan ini ditulis,” kata ilmuwan komputer asal Kanada tersebut.
Kemajuan dalam penalaran dapat berdampak pada pasar kerja dengan menciptakan agen otonom yang mampu melaksanakan tugas manusia, tetapi juga dapat membantu teroris.
“Jika Anda seorang teroris, Anda ingin memiliki AI yang sangat otonom. Seiring dengan meningkatnya agensi, kita meningkatkan potensi manfaat AI dan kita meningkatkan risikonya,” ujarnya.
Namun, Bengio mengatakan sistem AI belum dapat melakukan perencanaan jangka panjang yang dapat menciptakan alat yang sepenuhnya otonom dan bisa menghindari kendali manusia.
“Jika AI tidak dapat merencanakan dalam jangka panjang, ia hampir tidak akan dapat lepas dari kendali kita,” katanya.
Laporan setebal hampir 300 halaman itu juga mengutip kekhawatiran umum terkait AI, termasuk melakukan penipuan dan foto pelecehan seksual anak, bias informasi, hingga pelanggaran privasi seperti kebocoran informasi sensitif yang dibagikan dengan chatbot.Para peneliti belum mampu menyelesaikan ketakutan-ketakutan tersebut sepenuhnya.
Laporan tersebut, yang berjudul lengkap ‘International Scientific Report on the Safety of Advanced AI’, menandai dampak AI yang ‘berkembang pesat’ pada lingkungan melalui penggunaan pusat data, dan potensi agen AI untuk memiliki dampak ‘mendalam’ pada pasar kerja.
Masa depan AI tidak pasti, dengan berbagai kemungkinan hasil dalam waktu dekat termasuk hasil yang sangat positif dan sangat negatif. Masyarakat dan pemerintah masih memiliki kesempatan untuk memutuskan jalur mana yang diambil oleh teknologi tersebut.
“Ketidakpastian ini dapat menimbulkan fatalisme dan membuat AI tampak seperti sesuatu yang terjadi pada kita. Namun, keputusan masyarakat dan pemerintah tentang cara menavigasi ketidakpastian ini yang akan menentukan jalur mana yang akan kita ambil,” kata laporan tersebut.
(rns/fay)