Secara rasminya: Regulasi risiko berdasarkan Kesatuan Eropah untuk aplikasi kecerdasan buatan telah berkuat kuasa pada hari Khamis, 1 Ogos 2024.

Ini memulakan kira-kira masa untuk siri tarikh akhir penyerahan yang akan dikenakan undang-undang kepada pelbagai pembangun dan aplikasi AI. Kebanyakan peruntukan akan digunakan sepenuhnya menjelang pertengahan tahun 2026. Tetapi tarikh akhir pertama, yang menguatkuasakan larangan penggunaan tertentu yang dilarang dalam konteks tertentu seperti penggunaan biometrik jauh dalam tempat awam oleh penguatkuasa undang-undang, akan dikenakan dalam masa enam bulan.

Di bawah pendekatan blok, kebanyakan aplikasi AI dianggap sebagai risiko rendah/tidak ada jadi mereka tidak akan terjejas oleh regulasi sama sekali.

Subset penggunaan potensial AI diklasifikasikan sebagai risiko tinggi, seperti biometrik dan pengenalan wajah, atau AI yang digunakan dalam bidang pendidikan dan pekerjaan. Sistem yang digunakan dalam bidang ini perlu didaftarkan dalam pangkalan data EU dan pembangun mereka perlu memastikan pematuhan dengan tanggungjawab pengurusan risiko dan kualiti.

Satu lagi tier risiko terhad dikenakan kepada teknologi AI seperti chatbots atau alat yang boleh digunakan untuk menghasilkan deepfakes. Ini perlu memenuhi beberapa keperluan ketelusan untuk memastikan pengguna tidak ditipu.

Laluan penting yang lain dalam undang-undang dikenakan pada pembangun AI umum (GPAI). Sekali lagi, EU telah mengambil pendekatan berasaskan risiko, dengan kebanyakan pembangun GPAI menghadapi keperluan ketelusan ringan. Hanya satu subset model yang paling kuat dijangka perlu menjalankan langkah penilaian risiko dan pengurangan juga.

Apakah tepatnya pembangun GPAI perlu lakukan untuk mematuhi Akta AI masih diperbincangkan, kerana Kod Amalan belum lagi disusun. Pada awal minggu ini, Pejabat AI, badan pengawasan strategik dan pembangunan ekosistem AI, memulakan konsultasi dan panggilan untuk penyertaan dalam proses membuat peraturan ini, mengatakan ia mengharapkan untuk menyiapkan Kod pada April 2025.

Dalam primer sendiri bagi Akta AI pada akhir bulan lalu, OpenAI, pembuat model bahasa besar GPT yang menggerakkan ChatGPT, menulis bahawa mereka menjangkakan untuk bekerja “rapat dengan Pejabat AI EU dan pihak berkuasa relevan lain ketika undang-undang baru dilaksanakan dalam beberapa bulan akan datang.” Ini termasuk menyusun dokumen teknikal dan panduan lain untuk pembekal dan penyebar downstream model GPAI mereka.

“Jika organisasi anda cuba untuk menentukan bagaimana mematuhi Akta AI, anda harus terlebih dahulu cuba mengklasifikasikan sistem AI dalam skop. Kenal pasti apa GPAI dan sistem AI lain yang anda gunakan, tentukan bagaimana mereka diklasifikasikan, dan pertimbangkan apa kewajipan yang mengalir dari kes penggunaan anda,” tambah OpenAI, menawarkan beberapa panduan pematuhan mereka sendiri kepada pembangun AI. “Anda juga perlu menentukan sama ada anda pembekal atau penyebar berhubung dengan apa-apa sistem AI dalam skop. Isu ini boleh rumit jadi anda harus berunding dengan peguam jika anda mempunyai soalan.”



Source link

Leave a Reply