Senin, 26 September 2016

Keadilan dan etika masa depan sistem robot cerdas buatan


Oh tidak, tidak Harvard Moral psikologi argumen sekali lagi, Anda tahu tentang individu yang melihat 5 orang di jalur di bawah ini dengan kereta yang bergerak cepat mereka tidak dapat melihat, dan lagu lain dengan hanya satu orang, sedangkan individu pada jarak yang duduk di kotak beralih untuk mengubah kereta dari satu lagu lain , apa yang harus mereka lakukan? Ini adalah salah satu tantangan dilema moral tersebut, jika mereka beralih jalur mereka menyebabkan seseorang mati, jika mereka melakukan apa-apa yang orang-orang 5 akan dibunuh, dan mereka memiliki detik untuk bertindak, apa yang mereka lakukan?

Nah, dalam berjalan dunia masa depan baru kecerdasan buatan dan mobil otonom. Kami sudah semua dalam situasi kita harus menghindari hal, dan daya lengkung kadang-kadang kita mengambil risiko merusak mobil kami untuk mencegah memukul seorang anak yang hanya naik di depan kami sepedanya. Jadi, di sini pergi tantangan - Anda melihat;

Ada sebuah artikel menarik di "Alam - International mingguan Journal of Science" berjudul; "Mesin etika: dilema robot - bekerja keluar bagaimana membangun etika robot adalah salah satu tantangan thorniest di bidang kecerdasan buatan," oleh Boer Deng pada 1 Juli 2015. Artikel menyatakan:

"Pada bulan Mei, panel berbicara tentang driverless mobil di institusi Brookings, sebuah tangki pemikir di Washington DC, berubah menjadi sebuah diskusi tentang bagaimana otonom kendaraan akan berperilaku dalam krisis. Bagaimana jika upaya kendaraan untuk menyelamatkan sendiri penumpang, mengatakan, membanting pada rem mempertaruhkan tumpukan-up dengan kendaraan di balik itu? Atau bagaimana jika mobil otonom meliuk ke menghindari anak, tapi mempertaruhkan memukul seseorang dekat?"

Baik, ya ada orang-orang jenis dilema tetapi sebelum kita masuk ke dalam semua itu, atau logika berbasis, aturan probabilitas, ada bahkan lebih dilema yang bahkan lebih serius untuk merenungkan sebelumnya. Mari kita bicara akan kita?

Anda lihat, apa yang beberapa di dunia hitam putih pemrograman gagal untuk memahami bahwa undang-undang, dan peraturan tidak pernah itu, karena ada pengecualian dan keadaan. Buruk diprogram AI akan menjadi bencana bagi "Apa yang tepat" di mata mereka mereka seharusnya melayani. Etis berbicara ini memang berakhir akan melawan segala sesuatu yang kita berdiri di negara bebas.

Jadi, bagaimana harus programmer pendekatan dilema ini karena mereka pra-memutuskan yang mungkin hidup atau mati dalam beberapa situasi hypothetic di masa depan? Ya, melihat filosofis moral pasir apung di sini - lebih dari ini dan tantangan lain akan mengikuti konsep masa depan mobil otonom, tapi pikiran Anda, mereka akan berada di sini sebelum kau tahu itu.

Tidak ada komentar:

Posting Komentar