moonkan (moonkan) wrote,
moonkan
moonkan

Хороший вопрос

На мордокниге нарыл интереснейшею ссылку про этику в программировании ИИ для автомобилей. В принципе основной вопрос содержится в картинке.

Итак у нас машина под управлением ИИ. На дорогу неожиданно выскакивает несколько человек, тормозить машина не успевает и гарантировано убьет или покалечит пешеходов, а при попытке вырулить - ударится в стену и убьет пассажиров (или например пешехода на пути выруливания ...). Вопрос - какой вариант действия этичнее запрограммировать? Можно еще поиграться количеством, 1 пассажир 10 пешеходов, 5 пассажиров и один пешеход ...
И не забываем про очевидный факт, если будет известно что ИИ запрограммирован убивать пасажиров (вне зависимости от условий), будут ли покупать такие машины?
Source - http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/

Ну и добавлю от себя вопрос номер два. А намеренный наезд машиной, например на преступника с оружием, стоит ли програмировать?
Tags: мысли вслух, фейсбуком принесло
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 62 comments