moonkan: (Standart)
[personal profile] moonkan
На мордокниге нарыл интереснейшею ссылку про этику в программировании ИИ для автомобилей. В принципе основной вопрос содержится в картинке.

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/

Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?
This account has disabled anonymous posting.
If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting

Profile

moonkan: (Default)
moonkan

March 2023

S M T W T F S
   1 234
567891011
12131415161718
19202122232425
262728293031 

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 24th, 2025 08:40 pm
Powered by Dreamwidth Studios