Artikel ini adalah kolom, seluruh isi dan opini merupakan pandangan pribadi penulis dan bukan cerminan sikap redaksi.
KOMPAS.com - Penggunaan kecerdasan buatan (AI) kini sudah menjadi bagian tak terpisahkan dari kehidupan manusia. AI amat praktis, tapi justru karena itulah penggunaannya sering kebablasan. Maka dari itu, penting untuk mengaudit audit sistem kerja internal AI sebagai bagian dari transparansi, akuntabilitas, dan keamanan teknologi.
AI bisa menghasilkan output (luaran) yang bias dan bisa membawa sejumlah risiko serius terhadap hak-hak dasar, kesehatan, hingga keselamatan nyawa manusia.
Di sektor bisnis misalnya, AI amat memudahkan penggunanya menciptakan konsep iklan hanya dengan perintah teks saja. Namun, tak jarang hasil karya AI meniru karya orang lain, tidak memiliki karakteristik, dan tidak orisinil.
Dalam kasus tertentu seperti penilaian kelayakan kredit (credit scoring), luaran AI bisa bias dan berpotensi mendiskriminasi kelompok tertentu serta menghalangi mereka untuk memperoleh hak-hak dasar.
Risiko lainnya adalah kegagalan sistem yang bisa berujung kecelakaan. Di sektor transportasi, kasus-kasus kecelakaan mobil otonom yang sedang berjalan dalam mode otomatis menunjukkan bagaimana kegagalan sistem AI dapat berujung fatal.
Selain itu, subset AI tertentu seperti large language model (LLM) juga rentan berhalusinasi—kondisi AI yang menghasilkan informasi yang tidak akurat, bahkan bersifat tuduhan. Hal ini berpotensi menyuburkan penyebaran misinformasi, khususnya di kalangan masyarakat dengan literasi digital rendah.
Urgensi audit AI dan aturan mainnya
Risiko-risiko tersebut menunjukkan kebutuhan mendesak akan mekanisme yang dapat memastikan AI bekerja secara transparan, akuntabel, dan aman. Salah satu mekanisme yang saat ini mulai diadopsi secara global adalah audit terhadap sistem kerja internal AI.
Audit terhadap sistem kerja internal AI meliputi berbagai pemeriksaan terhadap komponen-komponen AI, mulai dari data sebagai input, algoritma, hingga luaran yang dihasilkan.
Idealnya, audit dilakukan terhadap seluruh siklus hidup AI, mulai dari perancangan hingga penggunaannya oleh masyarakat. Sebab, risiko-risiko yang telah dijelaskan sebelumnya bisa muncul di setiap tahapan dalam pengembangan AI. Misalnya, bias bisa muncul akibat data yang tidak representatif, desain algoritma yang diskriminatif, atau faktor-faktor lainnya.
Baca juga: Riset DBS Sebut AI dan Sustainability Bisa Optimalkan Biaya Modal Perusahaan
Sayangnya, hingga saat ini, Indonesia belum memiliki regulasi yang secara khusus mewajibkan audit AI.
UU ITE sebagai landasan hukum penyelenggaraan sistem elektronik memang memuat beberapa ketentuan yang sejatinya dapat menjadi entry point bagi pelaksanaan audit AI. Namun, ketentuan-ketentuan tersebut bersifat sangat umum untuk sistem elektronik.
Meskipun AI tergolong ke dalam sistem elektronik, AI memiliki karakteristik khusus dengan segala kerumitan teknologi di dalamnya, sehingga ketentuan dalam UU ITE tidak bisa menjangkau AI secara spesifik.
Demikian pula dengan UU Perlindungan Konsumen yang mengatur hak konsumen atas keamanan dan kejelasan informasi bagi pengguna. Aturan ini bisa menjadi landasan bagi pelaksanaan audit AI, namun tetap belum cukup tanpa ketentuan operasional pelaksanaannya.
Hal yang sama terjadi pada UU PDP yang mengatur prinsip dan kewajiban transparansi dalam pemrosesan data pribadi. Karena data pribadi bisa menjadi input dalam sistem AI, regulasi ini relevan sebagai landasan.
Artikel ini merupakan bagian dari Lestari KG Media, sebuah inisiatif untuk akselerasi Tujuan Pembangunan Berkelanjutan. Selengkapnya