KOMPAS.com - Sebagian besar perusahaan gagal memenuhi standar Responsible Artificial Intelligence (RAI).
Itu merupakan standar yang membuktikan bahwa perusahaan telah mengembangkan dan menggunakan sistem AI secara etis, aman, dan transparan.
Kesimpulan tersebut berdasarkan pada sebuah studi yang diterbitkan oleh Infosys Knowledge Institute. Studi tersebut bersumber dari survei terhadap 1.500 responden, yang secara kolektif mewakili perusahaan dengan pendapatan tahunan lebih dari 1 miliar dolar AS di tujuh negara dan 14 industri.
Melansir Edie, Senin (18/8/2025) selain temuan di atas survei tersebut mengungkapkan sebanyak 95 persen perusahaan sudah pernah menghadapi insiden terkait lingkungan, keselamatan, atau etika yang berhubungan dengan AI.
Selain itu juga hanya 38 persen perusahaan yang mengambil tindakan untuk mengurangi dampak lingkungan dari AI.
Lebih lanjut, laporan memperingatkan jika standar RAI gagal diintegrasikan ke dalam strategi ESG akan ada risiko finansial dan reputasi yang besar akibat "titik buta" yang signifikan.
Baca juga: Menemukan Keseimbangan antara Produktivitas dan Ketahanan Data lewat AI
Hasil temuan ini pun menunjukkan bahwa keberlanjutan tidak lagi terbatas pada isu karbon, melainkan meluas hingga komputasi.
Sayangnya, kendati kebutuhan energi model AI meningkat tajam seiring dengan pertumbuhannya. Hanya 38 persen perusahaan yang mengambil langkah nyata, seperti memantau emisi, berinvestasi dalam efisiensi energi, atau mengadopsi praktik cloud yang ramah lingkungan.
Persoalan tata kelola juga tak kalah penting. Sebanyak 77 persen perusahaan melaporkan kerugian finansial akibat penerapan AI yang tidak tepat, dan 86 persen para eksekutif memprediksi munculnya tantangan kepatuhan baru yang berkaitan dengan sistem agen yang lebih maju.
Selanjutnya, berdasarkan studi tersebut, perusahaan yang berinvestasi dalam RAI melihat manfaat yang nyata. Perusahaan-perusahaan ini menghadapi biaya insiden 39 persen lebih rendah dan berkurangnya tingkat keparahan risiko.
Penulis penelitian pun percaya bahwa standar RAI dapat menjadi pendorong pertumbuhan dan ketahanan, bukan sekadar persyaratan kepatuhan.
Uni Eropa sendiri merupakan wilayah hukum pertama yang menerapkan kerangka kerja hukum yang komprehensif untuk AI melalui EU AI Act.
Menurut deskripsi Komisi Eropa, EU AI Act adalah hukum AI pertama di dunia. Tujuannya adalah untuk memastikan bahwa sistem AI dapat dipercaya, berpusat pada manusia, dan sejalan dengan nilai-nilai Eropa, termasuk keselamatan, demokrasi, dan hak-hak dasar.
Baca juga: Gunakan AI, Kerugian Infrastruktur karena Bencana Alam Bisa Berkurang 15 Persen
Peraturan ini mulai diluncurkan pada Agustus 2024, dengan tenggat waktu penegakan hukum pertama pada Februari 2025 yang melarang aplikasi tertentu. Contohnya adalah pengambilan gambar wajah tanpa pandang bulu dari internet atau kamera CCTV.
Pada tanggal 2 Agustus 2025, undang-undang tersebut diperluas untuk mencakup model AI serbaguna yang berpotensi menimbulkan risiko sistemik.
Model-model ini termasuk produk dari penyedia global seperti OpenAI, Google, Meta, dan Anthropic.
Meskipun penyedia layanan AI yang baru harus segera mematuhinya, penyedia yang sudah ada diberi waktu hingga Agustus 2027 untuk memenuhi semua persyaratan.
Google telah menyatakan akan mendukung kode etik sukarela milik Uni Eropa untuk AI ini, meskipun ada kekhawatiran bahwa undang-undang tersebut dapat memperlambat daya saing Eropa dalam pengembangan dan penerapan AI.
Lebih lanjut EU AI Act menjadi tonggak penting dalam tata kelola AI, akan tetapi para ahli memperingatkan bahwa undang-undang tersebut belum cukup menekankan pada uji tuntas lingkungan.
Baca juga: Dorong Pebisnis Go Digital, SDS 2025 Tawarkan Solusi AI Siap Pakai
Mari berkontribusi langsung dalam upaya mencegah dan mengatasi masalah STUNTING di Indonesia. Ikut berdonasi dengan klik Kompas.com Jernih Berbagi.Artikel ini merupakan bagian dari Lestari KG Media, sebuah inisiatif untuk akselerasi Tujuan Pembangunan Berkelanjutan. Selengkapnya