Penyelidik MIT telah membangunkan kaedah terobosan untuk melindungi data latihan AI tanpa menjejaskan prestasi model. Digelar Privasi PAC, rangka kerja inovatif ini meningkatkan privasi data dan kecekapan pengiraan, menjanjikan aplikasi dunia sebenar yang ketara.
Dalam bidang kecerdasan buatan yang berkembang pesat, memastikan privasi data sensitif kekal sebagai cabaran kritikal. Teknik untuk melindungi maklumat seperti alamat pelanggan sering mengurangkan ketepatan model AI, menghalang keberkesanannya. Walau bagaimanapun, satu pasukan penyelidik MIT baru-baru ini telah membangunkan kemajuan ketara yang menjanjikan untuk mengimbangi privasi dan prestasi seperti tidak pernah berlaku sebelum ini.
. Rangka kerja baru, berdasarkan metrik privasi inovatif yang dipanggil Privasi PAC, bukan sahaja mengekalkan prestasi model AI tetapi juga melindungi data sensitif, daripada imej perubatan kepada rekod kewangan, daripada penyerang yang berpotensi.
Kemajuan ini menandakan peningkatan yang ketara dalam kecekapan pengiraan dan mempersembahkan pendekatan yang diperhalusi untuk menswastakan hampir mana-mana algoritma.
"Kami cenderung menganggap keteguhan dan privasi sebagai tidak berkaitan dengan, atau mungkin bercanggah dengan, membina algoritma berprestasi tinggi. Mula-mula, kami membuat algoritma yang berfungsi, kemudian kami menjadikannya teguh, dan kemudian peribadi. Kami telah menunjukkan bahawa ia tidak selalunya pembingkaian yang betul. Jika anda menjadikan algoritma anda berprestasi lebih baik dalam pelbagai tetapan, anda pada asasnya boleh mendapatkan privasi secara percuma, "kata seorang pengarang utama dalam siaran berita siswazah Mayuri Sridhar.
Kejayaan dalam Privasi Data
Salah satu cabaran kritikal dalam melindungi data sensitif dalam model AI ialah keperluan untuk menambah hingar atau data rawak untuk mengaburkan maklumat asal daripada musuh. Proses ini sering mengurangkan ketepatan model.
Versi baharu Privasi PAC, walau bagaimanapun, boleh menganggarkan dan menambah jumlah hingar minimum yang diperlukan secara automatik untuk mencapai tahap privasi yang diingini, sekali gus mengekalkan utiliti model.
Algoritma Privasi PAC yang disemak memudahkan proses dengan hanya memerlukan varians output, bukannya keseluruhan matriks korelasi data.
"Oleh kerana perkara yang anda anggarkan adalah jauh, lebih kecil daripada keseluruhan matriks kovarians, anda boleh melakukannya dengan jauh, lebih cepat," tambah Sridhar.
Ini membolehkan penskalaan kepada set data yang lebih besar, dengan itu meningkatkan utiliti praktikal.
Kestabilan Sama dengan Privasi
Wawasan utama daripada kajian penyelidik ialah korelasi antara kestabilan algoritma dan privasinya. Algoritma yang stabil, yang mengekalkan ramalan yang konsisten walaupun terdapat sedikit pengubahsuaian dalam data latihan, sememangnya lebih mudah untuk diswastakan.
Kaedah Privasi PAC baharu secara berkesan menswastakan algoritma sedemikian dengan meminimumkan varians antara outputnya, menyebabkan keperluan untuk kurang bunyi dan, akibatnya, ketepatan yang lebih tinggi.
"Dalam kes terbaik, kami boleh mendapatkan senario menang-menang ini," tambah Sridhar, menyerlahkan situasi di mana kedua-dua privasi dan prestasi dioptimumkan.
Prospek dan Kesan Masa Depan
Para penyelidik menjalankan satu siri ujian yang menunjukkan bahawa jaminan privasi kaedah mereka kekal teguh terhadap serangan lanjutan. Kecekapan rangka kerja baharu menjadikannya lebih sesuai untuk menggunakan AI yang memelihara privasi dalam aplikasi dunia sebenar, seperti penjagaan kesihatan, kewangan dan seterusnya.
"Kami ingin meneroka bagaimana algoritma boleh direka bentuk bersama dengan Privasi PAC, jadi algoritma itu lebih stabil, selamat dan teguh dari awal," tambah pengarang kanan Srini Devadas, Profesor Kejuruteraan Elektrik Edwin Sibley Webster di MIT.
Pasukan penyelidik bertujuan untuk menguji kaedah mereka dengan algoritma yang lebih kompleks dan memperhalusi lagi keseimbangan antara privasi dan utiliti.
Sokongan dan Persembahan
Penyelidikan terobosan ini, disokong oleh Cisco Systems, Capital One, Jabatan Pertahanan AS dan MathWorks Fellowship, akan dipamerkan di Simposium IEEE yang berprestij mengenai Keselamatan dan Privasi, menawarkan arahan baharu untuk meningkatkan privasi data dalam AI.
"Persoalannya sekarang ialah, bilakah situasi menang-menang ini berlaku, dan bagaimana kita boleh membuatnya berlaku lebih kerap?" Sridhar menambah, meletakkan asas untuk penerokaan masa depan dalam privasi dan prestasi AI.
sumber: Institut Teknologi Massachusetts