moonkan: (Standart)
На мордокниге нарыл интереснейшею ссылку про этику в программировании ИИ для автомобилей. В принципе основной вопрос содержится в картинке.

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/

Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?
moonkan: (Standart)


Завтра кстати поеду на районные по стрельбе. На точность 25 метров, пистолет калибром до 9мм. Короче с Глоком.
moonkan: (Standart)
В фейсбучике показали замечательное


Хотя наши местные проще на такое выходят - нашли при проверке документов в кошельке у 19-летнего гашиш, немного. Глянули в машину - там пакет на 100+ грам конопли. Заехали домой - там 50 кустов растет.

http://www.polizei.bayern.de/mittelfranken/news/presse/aktuell/index.html/215173

Profile

moonkan: (Default)
moonkan

March 2023

S M T W T F S
   1 234
567891011
12131415161718
19202122232425
262728293031 

Syndicate

RSS Atom

Style Credit

Expand Cut Tags

No cut tags
Page generated Jun. 24th, 2025 07:49 am
Powered by Dreamwidth Studios