Model Matematik Baharu untuk Meningkatkan Privasi dan Keselamatan dalam AI

Para saintis telah mencipta model matematik yang inovatif untuk menangani risiko privasi AI, bertujuan untuk melindungi maklumat peribadi sambil mengekalkan faedah teknologi canggih. Kejayaan ini boleh merevolusikan proses pengenalan dalam persekitaran yang berisiko tinggi, seperti hospital dan penguatkuasaan undang-undang.

Dalam era di mana kecerdasan buatan ada di mana-mana, daripada perbankan dalam talian kepada penguatkuasaan undang-undang, penemuan terobosan oleh penyelidik dari Oxford Internet Institute, Imperial College London dan UCLouvain menawarkan penyelesaian yang menarik untuk mengurangkan risiko privasi. Model matematik inovatif mereka, diterbitkan dalam Nature Communications, berjanji untuk meningkatkan pemahaman dan pengawalseliaan teknologi pengenalan dipacu AI.

Alat AI telah menjadi penting untuk menjejak dan memantau aktiviti dalam talian dan secara bersemuka. Walau bagaimanapun, kemajuan ini membawa risiko privasi yang ketara.

Kaedah yang baru dibangunkan ini menonjol kerana ia menyediakan rangka kerja saintifik yang kukuh untuk menilai teknik pengenalan, terutamanya apabila mengendalikan sejumlah besar data.

Luc Rocher, seorang penyelidik kanan di Institut Internet Oxford dan pengarang utama kajian itu, menyatakan potensi transformatif model ini.

“Kami melihat kaedah kami sebagai pendekatan baharu untuk membantu menilai risiko pengecaman semula dalam keluaran data, tetapi juga untuk menilai teknik pengenalan moden dalam persekitaran yang kritikal dan berisiko tinggi. Di tempat-tempat seperti hospital, penyampaian bantuan kemanusiaan atau kawalan sempadan, pertaruhannya sangat tinggi dan keperluan untuk pengenalan yang tepat dan boleh dipercayai adalah yang paling penting,” kata Rocher dalam Siaran akhbar.

Berdasarkan statistik Bayesian, model ini mempelajari cara individu yang boleh dikenal pasti berada pada skala kecil dan meramalkan pengenalan dengan tepat dalam populasi yang lebih besar, yang mempunyai prestasi sehingga 10 kali lebih baik daripada heuristik sebelumnya.

Wawasan ini penting dalam memahami sebab teknik AI mungkin cemerlang dalam ujian terkawal tetapi goyah dalam aplikasi dunia sebenar.

Cabaran yang timbul yang ditimbulkan oleh AI dalam memastikan kerahasiaan pengguna menggariskan kesegeraan penyelidikan ini. Teknik AI, seperti cap jari pelayar, pengecaman suara dalam perbankan dalam talian, pengenalan biometrik dalam bantuan kemanusiaan dan pengecaman muka dalam penguatkuasaan undang-undang, memerlukan pendekatan yang seimbang untuk memaksimumkan faedah sambil melindungi privasi.

“Undang-undang penskalaan baharu kami menyediakan, buat kali pertama, model matematik berprinsip untuk menilai bagaimana teknik pengenalan akan berprestasi pada skala. Memahami kebolehskalaan pengenalan adalah penting untuk menilai risiko yang ditimbulkan oleh teknik pengenalan semula ini, termasuk untuk memastikan pematuhan dengan undang-undang perlindungan data moden di seluruh dunia,” tambah pengarang bersama Yves-Alexandre de Montjoye, seorang profesor bersekutu di Institut Sains Data di Kolej Imperial London.

Penggunaan model ini membolehkan organisasi mengenal pasti kelemahan dan membuat penambahbaikan sebelum menggunakan sistem pengenalan AI secara berskala, memastikan keselamatan dan ketepatan. Pendekatan preemptive ini penting untuk mengekalkan keberkesanan dan kebolehpercayaan sistem AI dalam melindungi maklumat peribadi.

"Kami menjangkakan bahawa kerja ini akan membantu para penyelidik, pegawai perlindungan data, jawatankuasa etika dan pengamal lain yang bertujuan untuk mencari keseimbangan antara perkongsian data untuk penyelidikan dan melindungi privasi pesakit, peserta dan rakyat," tambah Rocher.

Penyelidikan ini bukan sahaja menandakan satu langkah penting ke hadapan dalam teknologi AI tetapi juga sejajar dengan misi yang lebih luas untuk memastikan kemajuan teknologi menegakkan dan melindungi nilai manusia yang penting seperti privasi dan keselamatan.