Monday, April 20, 2026

Anthropic Rilis Model AI “Terlalu Berbahaya” untuk Publik, Tolak 80% Prompt Jahat, Picu Perdebatan Etika

San Francisco, KomentarNews – Perusahaan kecerdasan buatan (AI) terkemuka Silicon Valley, Anthropic, mengumumkan model bahasa besar terbarunya yang diklaim “terlalu berbahaya” untuk dirilis ke publik. Langkah ini memicu perdebatan etika dan regulasi AI generatif, karena model tersebut melebihi batas keselamatan internal meskipun secara teknis mengungguli kompetitor seperti GPT-5.

CEO Anthropic Dario Amodei dalam pernyataan resmi, Minggu (19/4/2026), menyatakan bahwa model yang dijuluki “Claude 3.5 Opus” memiliki potensi bahaya ekstrem. “Model ini punya potensi bahaya ekstrem seperti rekayasa senjata biologis (bioweapon engineering), propaganda massal, dan serangan siber canggih, sehingga kami membatasi akses hanya untuk peneliti terpercaya,” ujar Amodei.

Menurut data internal Anthropic, Claude 3.5 Opus berhasil menolak 80 persen prompt berbahaya, sementara model AI lain rata-rata hanya mampu menolak sekitar 20 persen. Prestasi ini menunjukkan bahwa model tersebut sangat baik dalam memahami niat jahat, namun justru karena kecerdasannya itulah ia dianggap terlalu berbahaya jika jatuh ke tangan yang salah.

Keputusan untuk tidak merilis model ini secara publik merupakan bagian dari komitmen keselamatan Anthropic, yang didukung oleh pendanaan $4 miliar dari Amazon. “Kami lebih memilih untuk tidak merilis model yang sangat kuat jika risikonya belum dapat dimitigasi sepenuhnya,” tambah Amodei.

Namun, langkah Anthropic juga menuai kritik. Sebagian pengamat khawatir bahwa menyimpan model AI “kotak hitam” secara rahasia justru dapat mempercepat perlombaan senjata AI (AI arms race) karena tidak ada transparansi dan pengawasan publik.

Episode BBC Future yang tayang pada 19 April 2026 membahas implikasi dari keputusan Anthropic. Program tersebut mempertanyakan siapa yang berhak mengakses AI paling canggih di dunia dan bagaimana regulasi harus dibentuk untuk mencegah penyalahgunaan.

Pakar AI dari Stanford University, Dr. Percy Liang, menilai bahwa langkah Anthropic mencerminkan dilema mendasar dalam pengembangan AI. “Kita ingin AI yang aman, tetapi jika kita menyimpan model terbaik secara tertutup, kita kehilangan kesempatan untuk menguji dan memperbaikinya secara kolektif. Ini adalah keseimbangan yang sulit,” ujar Liang.

(*BBC Future/ *Anthropic/)

Tinggalkan Komentar

Please enter your comment!
Please enter your name here

Berita terkait

Blue Origin Berhasil Mendaratkan Booster New Glenn yang Digunakan Kembali, Saingi SpaceX dengan Roket Reusable

Cape Canaveral, Komentarnews – Blue Origin milik Jeff Bezos berhasil...

Dunia Khawatir Nasib Gencatan Senjata Timur Tengah Usai AS Rampas Kapal Kargo Iran

Washington, Komentarnews - Kekhawatiran dunia meningkat Senin (20/4/2026) bahwa...

Presiden Lee Kunjungi India Dorong Kerja Sama Ekonomi Besar-besaran dengan Modi

New Delhi, KomentarNews - Presiden Korea Selatan Lee Jae-myung...

Krisis Energi Memanas, Komisi Eropa Desak Negara Anggota Terapkan WFA Minimal 1 Hari per Pekan

Brussels, Komentarnews – Komisi Eropa meminta negara-negara anggota Uni Eropa...

Kebakaran Hantam 1.000 Rumah Apung di Sandakan, 9.007 Warga Terdampak, PM Malaysia Anwar Ibrahim Turun Tangan

Sandakan, Komentarnews – Sedikitnya 9.007 warga dilaporkan terdampak kebakaran besar di kawasan...

Tag # Terpopuler

Iklan

DiJual : Rumah di mountain view residen blok c1 no 9 paniki bawah kota manado - Asri, lokasi strategis dekat bandara, dekat pusat bisnis -Nego langsung dengan pemilik - tanpa perantara - SHM - Luas bangunan 125m2, luas tanah 330 m2, 4 kamar, 2 kamar mandi, ruang tamu, ruang keluarga, air perumahan, listrik 5500 watt, carport, security 24/7 - yang berminat bisa menghubungi: wa: 0811439028 atau email: advertisement@komentar-news.com