San Francisco, KomentarNews – Perusahaan kecerdasan buatan (AI) terkemuka Silicon Valley, Anthropic, mengumumkan model bahasa besar terbarunya yang diklaim “terlalu berbahaya” untuk dirilis ke publik. Langkah ini memicu perdebatan etika dan regulasi AI generatif, karena model tersebut melebihi batas keselamatan internal meskipun secara teknis mengungguli kompetitor seperti GPT-5.
CEO Anthropic Dario Amodei dalam pernyataan resmi, Minggu (19/4/2026), menyatakan bahwa model yang dijuluki “Claude 3.5 Opus” memiliki potensi bahaya ekstrem. “Model ini punya potensi bahaya ekstrem seperti rekayasa senjata biologis (bioweapon engineering), propaganda massal, dan serangan siber canggih, sehingga kami membatasi akses hanya untuk peneliti terpercaya,” ujar Amodei.
Menurut data internal Anthropic, Claude 3.5 Opus berhasil menolak 80 persen prompt berbahaya, sementara model AI lain rata-rata hanya mampu menolak sekitar 20 persen. Prestasi ini menunjukkan bahwa model tersebut sangat baik dalam memahami niat jahat, namun justru karena kecerdasannya itulah ia dianggap terlalu berbahaya jika jatuh ke tangan yang salah.
Keputusan untuk tidak merilis model ini secara publik merupakan bagian dari komitmen keselamatan Anthropic, yang didukung oleh pendanaan $4 miliar dari Amazon. “Kami lebih memilih untuk tidak merilis model yang sangat kuat jika risikonya belum dapat dimitigasi sepenuhnya,” tambah Amodei.
Namun, langkah Anthropic juga menuai kritik. Sebagian pengamat khawatir bahwa menyimpan model AI “kotak hitam” secara rahasia justru dapat mempercepat perlombaan senjata AI (AI arms race) karena tidak ada transparansi dan pengawasan publik.
Episode BBC Future yang tayang pada 19 April 2026 membahas implikasi dari keputusan Anthropic. Program tersebut mempertanyakan siapa yang berhak mengakses AI paling canggih di dunia dan bagaimana regulasi harus dibentuk untuk mencegah penyalahgunaan.
Pakar AI dari Stanford University, Dr. Percy Liang, menilai bahwa langkah Anthropic mencerminkan dilema mendasar dalam pengembangan AI. “Kita ingin AI yang aman, tetapi jika kita menyimpan model terbaik secara tertutup, kita kehilangan kesempatan untuk menguji dan memperbaikinya secara kolektif. Ini adalah keseimbangan yang sulit,” ujar Liang.
(*BBC Future/ *Anthropic/)

