moonkan: (Standart)
moonkan ([personal profile] moonkan) wrote2015-10-25 05:42 pm

Хороший вопрос

На мордокниге нарыл интереснейшею ссылку про этику в программировании ИИ для автомобилей. В принципе основной вопрос содержится в картинке.

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/

Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?

Post a comment in response:

This account has disabled anonymous posting.
If you don't have an account you can create one now.
HTML doesn't work in the subject.
More info about formatting