Berita Informasi

Cara memantau dan mengatur input data AI

Pada tahun lalu, terdapat lonjakan signifikan dalam pengaruh AI, sehingga menimbulkan pertanyaan apakah AI akan mendominasi umat manusia, sekadar tren teknologi yang berlalu begitu saja, atau merupakan fenomena yang lebih kompleks. Situasinya rumit. Meskipun pencapaian ChatGPT dalam lulus ujian pengacara memang mengesankan, namun hal ini menimbulkan kekhawatiran, terutama bagi para pengacara. Namun demikian, terdapat masalah yang muncul pada kemampuan perangkat lunak tersebut, seperti sebuah insiden ketika seorang pengacara menggunakan ChatGPT di ruang sidang, yang menyebabkan bot menghasilkan elemen palsu dalam argumen mereka.

AI siap untuk membuat kemajuan lebih lanjut dalam kemampuannya, namun masih terdapat ketidakpastian yang signifikan. Memastikan kepercayaan kita terhadap AI masih menjadi sebuah tantangan. Kita harus menjamin bahwa hasilnya tidak hanya akurat tetapi juga bebas dari bias dan sensor. Selain itu, penting untuk memahami asal usul data yang digunakan untuk melatih model AI dan memastikan bahwa data tersebut tidak dimanipulasi.

Gangguan menciptakan risiko tinggi bagi semua model AI, dengan konsekuensi yang lebih besar bagi model yang diperuntukkan bagi penerapan di bidang keselamatan, transportasi, pertahanan, dan bidang lain yang membahayakan nyawa manusia.

Verifikasi AI: Diperlukan regulasi untuk AI yang aman

Meskipun lembaga-lembaga nasional di seluruh dunia menyadari semakin pentingnya AI dalam prosedur dan kerangka kerja kita, hal ini tidak berarti bahwa penerapan AI harus dilanjutkan tanpa perhatian yang cermat. Pertanyaan-pertanyaan utama yang memerlukan penyelesaian adalah sebagai berikut:

  1. Apakah sistem tertentu menerapkan model AI?
  2. Jika model AI digunakan, apa saja fungsi yang dapat diawasi atau dipengaruhi model tersebut?

Jika kita tahu bahwa suatu model telah dilatih sesuai tujuan yang dirancang, dan kita tahu persis di mana model tersebut diterapkan (dan apa yang dapat dilakukannya), maka kita telah menghilangkan sejumlah besar risiko penyalahgunaan AI.

Ada banyak metode berbeda untuk memverifikasi AI, termasuk pemeriksaan perangkat keras, pemeriksaan sistem, verifikasi berkelanjutan, dan analisis radiasi Van Eck.

Inspeksi perangkat keras merupakan pemeriksaan fisik elemen komputasi yang berfungsi untuk mengidentifikasi keberadaan chip yang digunakan untuk AI. Sebaliknya, mekanisme inspeksi sistem menggunakan perangkat lunak untuk menganalisis model, menentukan apa yang dapat dikontrolnya, dan menandai fungsi apa pun yang seharusnya dilarang.

Sistem ini beroperasi dengan mengidentifikasi dan mengisolasi zona karantina sistem, yang sengaja dikaburkan untuk melindungi kekayaan intelektual dan informasi rahasia. Sebaliknya, perangkat lunak ini memeriksa komponen transparan di sekitarnya untuk mengidentifikasi dan menyorot setiap pemrosesan AI dalam sistem, sambil menjaga kerahasiaan data sensitif dan kekayaan intelektual.

Pendekatan verifikasi yang lebih komprehensif

Prosedur validasi berkelanjutan dilakukan setelah pemeriksaan awal, yang berfungsi untuk menjamin bahwa setelah model dioperasikan, model tersebut tetap tidak berubah dan bebas dari gangguan. Metode anti-perusakan tertentu, termasuk hashing kriptografi dan kebingungan kode, diintegrasikan langsung ke dalam model.

Hashing kriptografi memungkinkan pemeriksa mengidentifikasi perubahan dalam keadaan dasar suatu sistem sambil menjaga kerahasiaan data atau kode yang mendasarinya. Metode pengaburan kode, yang masih dalam pengembangan awal, mengacak kode sistem pada tingkat mesin sehingga tidak dapat diuraikan oleh kekuatan luar.

Analisis radiasi Van Eck meneliti pola radiasi yang dipancarkan selama operasi suatu sistem. Mengingat sistem yang rumit menjalankan beberapa proses paralel, emisi radiasi sering kali tampak acak-acakan, sehingga sulit untuk mengekstrak kode tertentu. Meskipun demikian, metode Van Eck dapat mengidentifikasi perubahan signifikan, seperti pengenalan AI baru, tanpa perlu menguraikan informasi rahasia apa pun yang ingin dilindungi oleh operator sistem.

Data pelatihan: Menghindari input berkualitas buruk yang menghasilkan output yang tidak diinginkan

Yang terpenting, sangat penting untuk memastikan keaslian data yang diberikan ke model AI langsung dari sumbernya. Sebagai ilustrasi, pertimbangkan skenario di mana musuh, alih-alih mencoba menghancurkan armada jet tempur Anda secara fisik, memilih untuk memanipulasi data pelatihan yang digunakan untuk menginstruksikan model AI pemrosesan sinyal pada jet tersebut. Setiap model AI bergantung pada data untuk pelatihannya, yang membentuk cara model memahami, menganalisis, dan merespons masukan baru. Meskipun proses pelatihan melibatkan sejumlah besar seluk-beluk teknis, proses pelatihan pada dasarnya berkisar pada membantu AI dalam menangkap informasi dengan cara yang mirip dengan pemahaman manusia. Prosesnya serupa, begitu pula potensi jebakannya.

Idealnya, kumpulan data pelatihan kami harus mencerminkan data aktual yang akan ditemui model AI pasca pelatihan dan penerapan. Misalnya, seseorang dapat mengumpulkan kumpulan data karyawan sebelumnya dengan catatan kinerja luar biasa dan menggunakan karakteristik tersebut untuk melatih model AI yang mampu mengevaluasi kualifikasi kandidat potensial berdasarkan resume mereka.

Contoh dari pendekatan ini adalah pengalaman Amazon. Hasilnya? Dari sudut pandang obyektif, model ini terbukti sangat berhasil dalam melaksanakan tugasnya. Sisi negatifnya? Data tersebut tanpa disadari menimbulkan bias dalam model. Mayoritas karyawan dengan kinerja terbaik dalam kumpulan data tersebut adalah laki-laki, sehingga menghasilkan dua kemungkinan kesimpulan: laki-laki memiliki kinerja lebih baik daripada perempuan, atau kumpulan data tersebut tidak seimbang karena tingkat perekrutan laki-laki yang lebih tinggi. Model AI tidak mempunyai kapasitas untuk mempertimbangkan faktor kedua dan, akibatnya, harus mengasumsikan faktor pertama, sehingga memberikan bobot yang tidak semestinya pada gender kandidat.

Penetapan kemampuan verifikasi dan transparansi sangat penting untuk menciptakan AI yang aman, tepat, dan etis. Pengguna akhir berhak mendapatkan informasi bahwa model AI dilatih berdasarkan data yang benar. Memanfaatkan kriptografi tanpa pengetahuan untuk memverifikasi integritas data memberikan jaminan bahwa AI dilatih pada kumpulan data yang akurat dan tidak berubah sejak awal.

Menilik kedepan

Pemimpin bisnis harus memiliki pemahaman mendasar tentang metode verifikasi yang tersedia dan efektivitasnya dalam mengidentifikasi penggunaan AI, perubahan model, dan bias dalam data pelatihan asli. Langkah awalnya adalah mengidentifikasi solusi. Platform yang bertanggung jawab untuk mengembangkan alat-alat ini bertindak sebagai pertahanan penting terhadap potensi masalah yang disebabkan oleh ketidakpuasan karyawan, spionase industri atau militer, atau kesalahan manusia, yang dapat menyebabkan masalah signifikan pada model AI yang kuat.

Meskipun verifikasi mungkin tidak mengatasi setiap tantangan dalam sistem berbasis AI, verifikasi memainkan peran penting dalam memastikan bahwa model AI berfungsi sebagaimana mestinya dan segera dikenali jika model tersebut mengalami perubahan atau gangguan yang tidak terduga. Mengingat semakin terintegrasinya AI ke dalam kehidupan kita sehari-hari, membangun kepercayaan terhadap teknologi ini sangatlah penting.

Sumber :

https://venturebeat.com/ai/how-to-police-the-ai-data-feed/

https://techyworld.co.uk/how-to-police-the-ai-data-feed/