Хороший вопрос
Oct. 25th, 2015 05:42 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
На мордокниге нарыл интереснейшею ссылку про этику в программировании ИИ для автомобилей. В принципе основной вопрос содержится в картинке.

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/
Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/
Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?