Kecerdasan Buatan Harus Tahu Bila Meminta Bantuan Manusia

Published:

Dikemaskini:

Sistem perisikan tiruan adalah alat yang berkuasa untuk perniagaan dan kerajaan untuk memproses data dan bertindak balas kepada situasi yang berubah, sama ada di pasaran saham or di medan perang. Tetapi masih terdapat beberapa perkara yang belum siap.

Kami adalah ulama dari Sains Komputer bekerja untuk difahami dan memperbaiki cara algoritma berinteraksi dengan masyarakat. Sistem AI melakukan yang terbaik apabila matlamatnya adalah jelas dan terdapat data berkualiti tinggi, seperti ketika mereka diminta untuk membezakan antara muka yang berbeza selepas belajar dari banyak gambar orang yang dikenal pasti dengan betul.

Kadang-kadang sistem AI melakukannya dengan baik sehingga pengguna dan pemerhati terkejut bagaimana persepsi teknologi itu. Walau bagaimanapun, kadangkala kejayaan sukar untuk diukur or didefinisikan secara tidak betul, atau data latihan tidak sepadan dengan tugas di tangan. Dalam kes ini, algoritma AI cenderung gagal dalam cara yang tidak dapat diramalkan dan hebat, walaupun ia tidak selalu dengan jelas bahawa sesuatu telah menjadi salah. Akibatnya, penting untuk berhati-hati dengan gembar-gembur dan keseronokan tentang apa yang boleh dilakukan AI, dan tidak menganggap penyelesaian yang didapati selalu betul.

Apabila algoritma sedang bekerja, harus ada jaring keselamatan manusia untuk menghalang orang yang merosakkan. Penyelidikan kami menunjukkan bahawa dalam beberapa situasi algoritma dapat mengenali masalah dalam cara mereka beroperasi, dan minta bantuan manusia. Khususnya, kami menunjukkan, meminta bantuan manusia dapat membantu mengurangkan kecenderungan algoritma dalam beberapa keadaan.

Betulkah algoritma itu?

Sistem perisikan buatan sedang digunakan dalam hukuman jenayah, profil personaliti muka muka, saringan semula, enrolmen penjagaan kesihatan dan tugas-tugas sukar yang lain di mana kehidupan dan kesejahteraan rakyat dipertaruhkan. Agensi-agensi kerajaan AS mula meningkatkan penerokaan dan penggunaan sistem AI, sebagai tindak balas kepada yang baru-baru ini perintah eksekutif dari Presiden Donald Trump.

Penting untuk diingat, walaupun, AI dapat menyusun salah tanggapan tentang bagaimana tugas ditangani, atau memperbesar ketidaksamaan yang ada. Ini boleh berlaku walaupun tiada sesiapa memberitahu algoritma secara eksplisit untuk merawat orang lain dengan cara yang berbeza.

Sebagai contoh, banyak syarikat mempunyai algoritma yang cuba menentukan ciri-ciri seseorang dengan wajah mereka - katakanlah meneka jantina mereka. Sistem yang dibangunkan oleh syarikat AS cenderung dilakukan dengan ketara lebih baik mengelaskan lelaki putih daripada mereka wanita dan orang berkulit gelap; mereka terburuk dalam wanita berkulit gelap. Sistem yang dibangunkan di China, bagaimanapun, cenderung melakukan lebih buruk pada muka putih.

Perbezaannya bukan kerana satu kumpulan mempunyai wajah yang lebih mudah diklasifikasikan daripada yang lain. Sebaliknya, kedua-dua algoritma lazimnya dilatih pada koleksi data yang tidak sama seperti populasi manusia keseluruhannya. Jika set data dikuasai oleh jenis lelaki putih muka tertentu di Amerika Syarikat, dan muka Cina di China - maka algoritma mungkin akan lebih baik untuk menganalisis wajah-wajah daripada yang lain.

Tidak peduli bagaimana perbezaannya timbul, hasilnya ialah algoritma yang boleh bias dengan lebih tepat pada satu kumpulan daripada yang lain.

Menjaga mata manusia pada AI

Untuk situasi yang tinggi, keyakinan algoritma dalam hasilnya sendiri - anggarannya tentang kemungkinan sistem itu datang dengan jawapan yang betul - sama pentingnya dengan hasil itu sendiri. Orang yang menerima keluaran daripada algoritma perlu tahu bagaimana untuk mengambil keputusan dengan serius, daripada mengandaikan bahawa ia betul kerana ia melibatkan komputer.

Hanya baru-baru ini para penyelidik mula mengembangkan cara untuk mengenal pasti, percubaan yang lebih kurang untuk diperbaiki, ketidaksamaan dalam algoritma dan data. Algoritma boleh diprogramkan untuk mengiktiraf kelemahan mereka sendiri - dan ikuti pengiktirafan dengan a meminta seseorang untuk membantu tugas itu.

Ramai jenis algoritma AI sudah mengira dalaman tahap keyakinan - ramalan betapa baiknya ia dilakukan untuk menganalisis sebahagian daripada input. Dalam analisis muka, banyak algoritma AI mempunyai keyakinan yang lebih rendah pada muka yang lebih gelap dan wajah wanita daripada muka putih lelaki. ia tidak jelas berapa banyak ini telah diambil kira oleh penguatkuasaan undang-undang untuk penggunaan tinggi algoritma ini.

Matlamatnya adalah untuk AI itu sendiri untuk mencari kawasan-kawasan di mana ia tidak mencapai ketepatan yang sama untuk kumpulan yang berbeza. Mengenai input ini, AI boleh menangguhkan keputusannya kepada moderator manusia. Teknik ini amat sesuai untuk tugas konteks-berat seperti kesederhanaan kandungan.

Penyederhana kandungan manusia tidak dapat bersaing banjir imej yang disiarkan di laman media sosial. Tetapi kesederhanaan kandungan AI terkenal kerana gagal mengambil kira konteks di sebalik perbincangan pasca - misidentifikasi orientasi seksual kandungan eksplisit, atau mengenal pasti Deklarasi Kemerdekaan sebagai ucapan benci. Ini boleh menyebabkan penembusan tidak tepat demografik or politik kumpulan yang lain.

Untuk mendapatkan yang terbaik daripada kedua-dua dunia, penyelidikan kami mencadangkan menjaringkan semua kandungan secara fizikal, menggunakan kaedah AI yang sama pada hari ini. Kemudian pendekatan kami menggunakan teknik baru yang dicadangkan untuk secara automatik mencari ketaksamaan yang berpotensi dalam ketepatan algoritma pada kumpulan yang dilindungi yang berlainan, dan menyerahkan keputusan mengenai individu tertentu kepada manusia. Akibatnya, algoritma ini boleh menjadi tidak berat sebelah tentang orang-orang yang sebenarnya ia memutuskan. Dan manusia menentukan individu-individu tersebut di mana keputusan algoritmik mungkin tidak dapat dielakkan bias.

Pendekatan ini tidak menghilangkan bias: Ia hanya "menumpukan" potensi untuk berat sebelah pada satu set keputusan yang lebih kecil, yang kemudiannya dikendalikan oleh orang-orang, menggunakan akal sehat manusia. AI masih boleh melakukan sebahagian besar daripada kerja membuat keputusan.

Inilah demonstrasi situasi di mana algoritma AI yang bekerja bersama dengan manusia dapat meraih faedah dan kecekapan keputusan yang baik AI, tanpa terkunci pada yang buruknya. Manusia kemudian akan mempunyai lebih banyak masa untuk bekerja pada keputusan yang kabur dan sukar yang penting untuk memastikan keadilan dan keadilan.Perbualan

Authors: Sarah Scheffler, Ph.D. Pelajar dalam Sains Komputer, Boston University, Adam D. Smith, Profesor Sains Komputer, Boston University, dan Ran Canetti, Profesor Sains Komputer, Boston University

Artikel ini diterbitkan semula daripada Perbualan di bawah lesen Creative Commons. Membaca artikel asal.

Percubaan 6 bulan PERCUMA

Kemudian, nikmati Amazon Prime pada separuh harga - diskaun 50%!

TUN AI – Pembantu Pendidikan anda

TUN AI

Saya di sini untuk membantu anda dengan biasiswa, carian kolej, kelas dalam talian, bantuan kewangan, memilih jurusan, kemasukan kolej dan petua belajar!

Universiti Network