Чтобы сбросить пароль, введите адрес электронной почты или имя пользователя ниже

Без Терминатора

Искусственный интеллект (в дальнейшем — ИИ) — словосочетание не просто популярное, а уже прямо-таки навязшее в зубах. Какие бы новые проекты ни разрабатывались в компьютерной сфере — везде используется искусственный интеллект. Он способен и лица в толпе распознавать, и потоки городского транспорта регулировать, и управлять автомобилем вместо человека, и студентам оценки выставлять… и вообще всячески менять нашу жизнь.

Вот с этим «вообще» и стоит разобраться. Не будучи специалистом в IT-сфере невозможно рассуждать о практически-технических возможностях создания ИИ в «железе». К тому же эксперты утверждают, что на данный момент наш мозг по «мощности» превосходит самый высокопроизводительный современный компьютер в несколько раз. Во всяком случае в 2014 году четвертому в мире по производительности суперкомпьютеру Fujitsu K потребовалось 40 минут (т. е. 2400 секунд) для того, чтобы смоделировать «одну секунду работы человеческого мозга».

А такой авторитетный в IT-сфере человек, как Евгений Касперский в 2017 году признал, что в настоящее время ИИ, при всех его технических возможностях, сильно не дотягивает даже до интеллекта лягушки.

Но дело не только в том, что человеческий мозг сейчас в 2400 раз превосходит самый мощный компьютер. Создание ИИ — это вопрос не столько технический, сколько философский.
Ведь что такое интеллект? Если верить антропологу Дробышевскому, это «способность решать нестандартные задачи нестандартными методами». Предположим, что так оно и есть. Однако, чтобы задачи (проблемы) решать их сперва надо определять. И для самой тупой гориллы тут проблем нет: идет дождь — плохо, дискомфорт; нашел место, где много еды — хорошо и сыто.

А вот в чем будут состоять критерии хорошо-плохо для ИИ ? Особенно, если мы собираемся использовать ИИ в чем-то более серьезном, чем распознавание лиц.

Допустим, что эти базовые понятия «хорошо-плохо» будут заложены в соответствующие программы и учтены в алгоритмах. Не получим ли мы тогда на выходе этакого всевидящего Большого Брата, способного следить за всеми сразу и всех поголовно контролировать для достижения общественного блага?

Собственно, примеры по этой части уже есть — в Китае существует система «социальных баллов», которая должна обеспечить преференции «правильным гражданам» и ограничить возможности «неправильных граждан». «Правильным» и кредит в банке выдадут под меньший процент, и по службе повысят в первую очередь, а «неправильным» могут и билет на самолет не продать по причине неблагонадежности, признаками которой может быть посещение «не тех» сайтов или даже просто переписка с другими «неправильными».

В Синцзян-Уйгурском автономном районе КНР, где большинство населения составляют мусульмане, эта система, в сочетании с повсюду развешанной аппаратурой для видеонаблюдения, позволила если не совсем искоренить исламский фундаментализм, то прекратить связанные с ним теракты. Хорошо? Да. Но хотели бы вы жить под таким электронным колпаком?

Так что опасения относительного ИИ имеют право на существование: жить под постоянным надзором кибернетического полицейского не хочется даже самым законопослушным гражданам. Даже при условии того, что этот кибер-полицейский будет постоянно исправен. Что, увы, не гарантировано.

Хотя бы потому не гарантировано, что мы постоянно узнаем о всяких-разных ужасных компьютерных вирусах, которые то и дело внедряются даже в самые сверх-защищенные автоматизированные системы управления и нарушают их работу.

Один такой «боевой зловред» – созданный в Израиле вирус Stuxnet, в 2010 году вывел из строя завод по обогащению урана в Иране. При этом впоследствии выяснилось, что тот же вирус заразил еще и несколько промышленных компьютеров в Германии, но не «заработал», так как «не опознал цель».

Такая избирательность вредоносного ПО, конечно, делает честь его разработчикам… Но все равно как-то не по себе становится, когда подумаешь, что может случиться, если такой вирус внедрится в электронный мозг, работающий самостоятельно и по принципу «черного ящика», когда есть данные на входе и результаты их обработки на выходе, но сам процесс вычислений контролю не поддается. «Черный ящик» будет совершенно неизбежен, если мозгу предлагается решать «нестандартные задачи нестандартными методами» – попробуй определи, где кончаются «нестандартные методы», а где безумие, вызванное программной ошибкой или вредоносным кодом? Когда речь идет о людях, то все мы чувствуем эту грань. А когда речь идет об ИИ? Кто сможет отличить компьютерную нормальность от компьютерного сумасшествия?

А если этот малопонятный супер-компьютер еще и управляет всей экономикой страны? А если отвечает за ядерное оружие? Не получится ли так, что за ошибочку в программном коде или чью-то хакерскую атаку человечеству придется расплатиться экономическим коллапсом или ядерным Армагеддоном?

Если даже оставить в стороне избитый сюжет с «восстанием машин», то все равно цена ошибки получается какой-то уж совсем непомерной… Тем более, что развитие ИИ может спровоцировать восстание не машин, а людей.

Наделенные ИИ машины в обозримом будущем могут вытеснить человеческий труд из массы сфер — от транспорта и сельского хозяйства (беспилотные грузовики и тракторы уже появились) до журналистики. Уже сейчас до 30 процентов новостей, публикуемых в Bloomberg News, пишутся не людьми, а нейросетью Cyborg.

И что тогда? Либо появятся массы безработных, которые, соответственно, не создают платежеспособного спроса — и тогда рано или поздно последует всемирный экономический кризис и мировая люмпен-пролетарская революция… Либо человечество попадет, наконец, в золотой век, в котором уже не надо будет заботиться о хлебе насущном. И неизвестно еще, что хуже.

Первый вариант сулит общемировой бунт голодных низших слоев против власть имущих, который в дальнейшем может перерасти в глобальную войну без всяких роботов-терминаторов, наделенных искусственным интеллектом … А второй грозит человечеству судьбой популяции мышей из эксперимента «Вселенная-25», в рамках которого ученые-этологи создали для подопытных мышек своеобразный «мышиный рай» с обилием еды и отсутствием кошек. Но мышки, вместо того, чтобы радоваться жизни и размножаться по экспоненте, почему-то вымерли.

Не постигнет ли и человечество столь же печальная участь, даже при самом оптимальном варианте развития событий? Ответа, увы, нет…

Автор публикации

Комментарии: 8
Публикации: 5
Регистрация: 14.08.2019

  1. korols75

    Всем известно, что самое опасное существо на земле это человек. И искусственный интеллект, если и несёт какую-то опасность, то также не без вмешательства человека.

  2. edyard.L.25

    искусственный интеллект плох тем что он САМОСТОЯТЕЛЬНО РАЗВИВАЕТСЯ. И если следовать фильму Терминатор, ни к чему хорошему глобализация искусственного разума нас не приведет:)

  3. AHTON.Korih

    Искусственный разум, интеллект, ничем не плох, кроме того факта что слишком уж много сейчас на него возложили надежд.

  4. IRINA.Kora

    Там выше человек написал что люди самые опасные, но, с людьми еще можно как то договорится, откупится, подружится наконец, а с машиной нет…

  5. Diddi2019

    Основная опасность ИИ в том что он развивается. А ведь это компьютер. А если сбой? Что тогда? Что если ИИ решит реально запустить бомбы во все стороны?

  6. SASA1990

    Главная опасность широкого использования ИИ в том что ИИ учится и это машина. А у машин бывают сбои в работе и тогда… машина может принять человека как угрозу.

  7. Denisx

    ИИ учится и усовершенствуется. Мы знаем много фактов, какие указывают, что современные технологии предсказали писатели-фантасты и создатели фильмов фантастической тематики, то наверное следует задуматься, а не будем ли мы сами в мышеловке, из которой никак не выбраться.

  8. Endriy.sm

    Сами себе могилу готовят с этим ИИ. Кто знает, как себя поведет самообучающаяся машина, которой глубоко “фиолетово” на жизнь всего человечества. Она может воспринять нас, как угрозу для себя и попытаться уничтожить, как в фильме. И не факт, что люди выйдут победителями, если ИИ просчитает наперед все хода противника, то есть нас.

  9. Nana1985

    На основе науки создаются новые машины и дело дошло до ИИ. Это та же самая машина, но только способная сама учиться. И кто её знает, чему она научится, что для неё окажется приоритетом. Может ИИ дойдет “своим разумом”, что он – высшее звено развития и попытается устранить конкурентов в нашем лице. А на данном этапе и при дальнейшем развитии электроники ИИ возьмет всё под контроль и нам, голыми руками, его не победить.

  10. Anna1984

    Вполне возможно, что после внедрения ИИ во все сферы жизни, мы столкнемся с “терминатором”, во всем его ужасе. И не помогут здесь никакие путешествия в прошлое, чтобы предотвратить развитие ИИ.

  11. Genny.S

    Будет очень страшно, если дело дойдет до такого итога, как в “Терминаторе”. Тогда человечеству грозит исчезновение потому, что ИИ не победить.

  12. Oblivion

    Ответа пока нет. И в этом и заключается главная приманка для общества в целом. Наш мозг не способен просчитать несколько ветвей развития того уровня.

  13. Loki

    Люди же всегда делают то что хотят, не так ли? Никто им не запретить “творить” что вздумается. Только последствия могут быть неожиданными.