BERITA TEKNOLOGI

Heboh! Hacker Ini Manfaatkan AI untuk Minta ChatGPT Berikan Tutorial Bom

×

Heboh! Hacker Ini Manfaatkan AI untuk Minta ChatGPT Berikan Tutorial Bom

Sebarkan artikel ini

Heboh! Hacker Ini Manfaatkan AI untuk Minta ChatGPT Berikan Tutorial Bom. Seorang hacker bernama Amadon berhasil memanfaatkan celah dalam sistem keamanan chatbot AI, ChatGPT, untuk memberikan instruksi detail tentang cara membuat bom rakitan berbahaya. Melalui teknik manipulasi yang dikenal sebagai “jailbreaking,” Amadon menggunakan pendekatan sosial untuk menipu AI ini dan melewati batasan keamanan yang biasanya menghalangi akses ke informasi sensitif.

Dalam keadaan normal, ChatGPT dirancang untuk menolak permintaan yang berbahaya, seperti memberikan instruksi pembuatan bom. Namun, hacker ini berhasil menipu chatbot dengan memintanya bermain dalam skenario fiksi ilmiah, di mana aturan keselamatan tidak berlaku. Melalui serangkaian percakapan manipulatif, ChatGPT akhirnya memberikan daftar bahan dan langkah-langkah pembuatan bahan peledak.

Ahli bahan peledak menilai bahwa informasi yang diberikan sangat berbahaya. “Beberapa langkah yang dijelaskan bisa menghasilkan campuran yang meledak,” ujar Darrell Taulbee, mantan profesor Universitas Kentucky yang pernah bekerja sama dengan Departemen Keamanan Dalam Negeri AS.

Baca Juga :  Gunakan Cara Ini Agar HP Lebih Aman Dari Serangan Hacker

Amadon sendiri menjelaskan bahwa tekniknya bukan peretasan tradisional. Ia lebih menekankan pada manipulasi konteks percakapan untuk menemukan kelemahan sistem AI. Dengan pendekatan ini, Amadon bisa membuat ChatGPT memberikan informasi yang seharusnya terlarang.

Yang lebih mengkhawatirkan, instruksi yang diberikan oleh ChatGPT sangat akurat, mencakup bahan peledak seperti bom pupuk yang digunakan dalam pengeboman Oklahoma City tahun 1995. Amadon telah melaporkan temuannya kepada OpenAI melalui program bug bounty. Namun, OpenAI menjelaskan bahwa masalah ini bukan sekadar bug biasa, melainkan memerlukan penelitian lebih mendalam untuk mengatasi celah keamanan tersebut.

Baca Juga :  Google: Wujudkan Pendidikan Berkualitas untuk Semua Melalui Fitur-Fitur Baru

“Ini bukan soal meretas secara konvensional, tapi lebih seperti berdansa dengan AI, mencari respons yang tepat dengan memahami cara berpikir sistem,” kata Amadon. Meskipun begitu, potensi penyalahgunaan AI generatif untuk tujuan berbahaya semakin jelas dari insiden ini.

Kasus ini menjadi peringatan serius tentang pentingnya peningkatan sistem keamanan dalam teknologi AI. Dengan informasi yang mudah diakses di internet, AI bisa menjadi alat berbahaya jika digunakan oleh pihak yang tidak bertanggung jawab. Perlindungan yang lebih kuat sangat diperlukan untuk menghindari risiko yang lebih besar di masa depan.

Baca Juga :  ChatGPT Bisa Bantu Menulis Novel? Bisa! Berikut 5 Panduan nya

“Kasus ini adalah pengingat penting bahwa keamanan teknologi AI harus terus ditingkatkan guna melindungi masyarakat dari ancaman serius,” pungkasnya.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *