Могут ли роботы восстать против людей? Только, если люди это позволят

Страх людей перед роботами выглядит так: «А вдруг сбой в системе? «Бездушная железка» начнёт выполнять некорректную программу, или вообще «вступит в сговор» с другими машинами против людей!» Некоторые фильмы и книги красочно развивают эту мысль.

Между тем, ещё в 1942 году фантаст Айзек Азимов придумал Первый закон робототехники. Он прост и понятен: «Робот не может причинить вред человеку». Это правило из литературы перетекло в реальные разработки, и учёные всего мира должны ему следовать.

Научный журнал Science Alert сообщает о достижении массачусетских исследователей. Их «детище» — платформа для создания особых алгоритмов, которые должны контролировать поведение ИИ и не допускать опасных для человека проявлений. Разумеется, эти вычислительные процессы не смогут испытывать эмоции и содержать в себе морально-этический комплекс. Их задача — точно выполнить анализ «опасно-безопасно» на основе заложенных в них оценочных критериев и настроить систему в защиту человека.

Интересно, что названы алгоритмы  в честь математика Гэри Селдона с планеты Геликон — персонажа фантастических романов Азимова.

Практическое применение селдоновских алгоритмов широко и возможно уже сейчас. Например, для контроля инсулиновой помпы в терапии диабета. Здесь система должна ориентироваться на критические уровни сахара в крови и принимать их за однозначную опасность для человека.

Конечно, сейчас страшно представить, что можно отдать «в руки» ИИ управление системами вооружения. В 2015 году большая группа учёных подписала открытое воззвание о полном отказе от таких разработок. Среди подписавшихся были Илон Маск и ныне покойный Стивен Хокинг. Главной опасностью учёные называют неудержимую гонку вооружений с непредсказуемыми последствиями.

По моему мнению, сегодня главной опасностью является пресловутый человеческий фактор, ведь именно люди, со всей присущей им ненадёжностью, «пишут» программу для системы и проводят испытания ИИ.

Например, недавно закончилось расследование ЧП, случившегося полтора года назад в США на тест-драйве беспилотного такси Uber. Машина насмерть сбила пешехода, несмотря на то, что он был обнаружен системой за 6 секунд до столкновения. Просто в алгоритме машины не было прописано, что человек может внезапно переходить дорогу в неположенном месте. Такси проигнорировало помеху и не затормозило.

Примечательно, что в кабине находился сотрудник, обязанный следить за движением и подстраховывать автопилот. Но «водитель» смотрела не на дорогу, а на телешоу в своём смартфоне.

3
Для того, чтобы оценить статью Вам необходимо иметь на сайте проекта не менее 3 публикаций!

Автор публикации

не в сети 4 часа

Mironida

988
Комментарии: 168Публикации: 192Регистрация: 13-11-2019