Seiring dengan semakin cepatnya perlombaan untuk mengembangkan layanan kecerdasan buatan yang lebih kuat seperti ChatGPT, beberapa regulator mengandalkan undang-undang lama untuk mengendalikan teknologi yang dapat mengubah cara masyarakat dan bisnis beroperasi.
Uni Eropa berada di garis depan dalam menyusun aturan AI baru yang dapat menjadi tolok ukur global untuk mengatasi masalah privasi dan keamanan yang muncul dengan kemajuan pesat dalam teknologi AI generatif di balik ChatGPT OpenAI.
Namun, dibutuhkan waktu beberapa tahun agar peraturan tersebut dapat diberlakukan.
“Dengan tidak adanya peraturan, satu-satunya hal yang dapat dilakukan pemerintah adalah menerapkan aturan yang ada,” kata Massimiliano Cimnaghi, pakar tata kelola data Eropa di konsultan BIP.
“Jika ini tentang melindungi data pribadi, mereka menerapkan undang-undang perlindungan data, jika ini adalah ancaman terhadap keselamatan orang, ada peraturan yang belum didefinisikan secara khusus untuk AI, tetapi masih berlaku.”
Pada bulan April, pengawas privasi nasional Eropa membentuk gugus tugas untuk menangani masalah dengan ChatGPT setelah regulator Italia Garante menonaktifkan layanan tersebut, menuduh OpenAI melanggar GDPR Uni Eropa, rezim privasi yang luas yang diberlakukan pada tahun 2018.
ChatGPT dipulihkan kembali setelah perusahaan AS tersebut setuju untuk memasang fitur verifikasi usia dan mengizinkan pengguna Eropa memblokir informasi mereka agar tidak digunakan untuk melatih model AI.
Badan tersebut akan mulai memeriksa alat AI generatif lainnya secara lebih luas, kata sumber yang dekat dengan Garante kepada Reuters. Otoritas perlindungan data di Prancis dan Spanyol juga meluncurkan penyelidikan pada bulan April terhadap kepatuhan OpenAI terhadap undang-undang privasi.
MENDATANGKAN PARA AHLI
Model AI generatif telah terkenal karena membuat kesalahan, atau “halusinasi”, memuntahkan informasi yang salah dengan kepastian yang luar biasa.
Kesalahan seperti itu dapat menimbulkan konsekuensi serius. Jika bank atau departemen pemerintah menggunakan AI untuk mempercepat pengambilan keputusan, seseorang dapat ditolak secara tidak adil untuk mendapatkan pinjaman atau pembayaran tunjangan. Perusahaan teknologi besar termasuk Google (GOOGL.O) milik Alphabet dan Microsoft Corp (MSFT.O) telah berhenti menggunakan produk AI yang dianggap tidak jelas secara etis, seperti produk keuangan.
Regulator bertujuan untuk menerapkan aturan yang ada yang mencakup segala hal mulai dari hak cipta dan privasi data hingga dua masalah utama: data yang dimasukkan ke dalam model dan konten yang mereka hasilkan, menurut enam regulator dan pakar di Amerika Serikat dan Eropa.
Badan-badan di kedua wilayah tersebut didorong untuk “menafsirkan dan menafsirkan kembali mandat mereka,” kata Suresh Venkatasubramanian, mantan penasihat teknologi Gedung Putih. Dia mengutip penyelidikan Komisi Perdagangan Federal AS (FTC) terhadap algoritma untuk praktik diskriminasi di bawah kekuasaan regulasi yang ada.
Di Uni Eropa, proposal untuk Undang-Undang AI blok tersebut akan memaksa perusahaan seperti OpenAI untuk mengungkapkan materi berhak cipta apa pun – seperti buku atau foto – yang digunakan untuk melatih model mereka, membuat mereka rentan terhadap tantangan hukum.
Membuktikan pelanggaran hak cipta tidak akan mudah, menurut Sergey Lagodinsky, salah satu dari beberapa politisi yang terlibat dalam penyusunan proposal Uni Eropa.
“Ini seperti membaca ratusan novel sebelum Anda menulis novel Anda sendiri,” katanya. “Jika Anda benar-benar menyalin sesuatu dan mempublikasikannya, itu satu hal. Namun jika Anda tidak secara langsung menjiplak materi orang lain, tidak masalah apa yang telah Anda latih.
‘BERPIKIR SECARA KREATIF’
Regulator data Prancis, CNIL, telah mulai “berpikir kreatif” tentang bagaimana hukum yang ada dapat diterapkan pada AI, menurut Bertrand Pailhes, pimpinan teknologinya.
Sebagai contoh, di Prancis, klaim diskriminasi biasanya ditangani oleh Defenseur des Droits (Pembela Hak). Namun, kurangnya keahlian dalam bias AI telah mendorong CNIL untuk memimpin dalam masalah ini, katanya.
“Kami melihat berbagai macam efek, meskipun fokus kami tetap pada perlindungan data dan privasi,” katanya kepada Reuters.
Organisasi ini sedang mempertimbangkan untuk menggunakan ketentuan GDPR yang melindungi individu dari pengambilan keputusan otomatis.
“Pada tahap ini, saya tidak bisa mengatakan apakah itu cukup, secara hukum,” kata Pailhes. “Perlu waktu untuk membangun opini, dan ada risiko bahwa regulator yang berbeda akan memiliki pandangan yang berbeda.”
Di Inggris, Otoritas Perilaku Keuangan adalah salah satu dari beberapa regulator negara yang telah ditugaskan untuk menyusun pedoman baru yang mencakup AI. Lembaga ini berkonsultasi dengan Alan Turing Institute di London, bersama dengan lembaga hukum dan akademis lainnya, untuk meningkatkan pemahaman mereka mengenai teknologi ini, kata seorang juru bicara kepada Reuters.
Sementara para regulator beradaptasi dengan laju kemajuan teknologi, beberapa orang dalam industri ini menyerukan keterlibatan yang lebih besar dengan para pemimpin perusahaan.
Harry Borovick, penasihat umum di Luminance, sebuah perusahaan rintisan yang menggunakan AI untuk memproses dokumen hukum, mengatakan kepada Reuters bahwa dialog antara regulator dan perusahaan sejauh ini masih “terbatas”.
“Ini bukan pertanda yang baik untuk masa depan,” katanya. “Regulator tampaknya lambat atau tidak mau menerapkan pendekatan yang akan memungkinkan keseimbangan yang tepat antara perlindungan konsumen dan pertumbuhan bisnis.”