Без Терминатора

Искусственный интеллект (в дальнейшем — ИИ) — словосочетание не просто популярное, а уже прямо-таки навязшее в зубах. Какие бы новые проекты ни разрабатывались в компьютерной сфере — везде используется искусственный интеллект. Он способен и лица в толпе распознавать, и потоки городского транспорта регулировать, и управлять автомобилем вместо человека, и студентам оценки выставлять… и вообще всячески менять нашу жизнь.

Вот с этим «вообще» и стоит разобраться. Не будучи специалистом в IT-сфере невозможно рассуждать о практически-технических возможностях создания ИИ в «железе». К тому же эксперты утверждают, что на данный момент наш мозг по «мощности» превосходит самый высокопроизводительный современный компьютер в несколько раз. Во всяком случае в 2014 году четвертому в мире по производительности суперкомпьютеру Fujitsu K потребовалось 40 минут (т. е. 2400 секунд) для того, чтобы смоделировать «одну секунду работы человеческого мозга».

А такой авторитетный в IT-сфере человек, как Евгений Касперский в 2017 году признал, что в настоящее время ИИ, при всех его технических возможностях, сильно не дотягивает даже до интеллекта лягушки.

Но дело не только в том, что человеческий мозг сейчас в 2400 раз превосходит самый мощный компьютер. Создание ИИ — это вопрос не столько технический, сколько философский.
Ведь что такое интеллект? Если верить антропологу Дробышевскому, это «способность решать нестандартные задачи нестандартными методами». Предположим, что так оно и есть. Однако, чтобы задачи (проблемы) решать их сперва надо определять. И для самой тупой гориллы тут проблем нет: идет дождь — плохо, дискомфорт; нашел место, где много еды — хорошо и сыто.

А вот в чем будут состоять критерии хорошо-плохо для ИИ ? Особенно, если мы собираемся использовать ИИ в чем-то более серьезном, чем распознавание лиц.

Допустим, что эти базовые понятия «хорошо-плохо» будут заложены в соответствующие программы и учтены в алгоритмах. Не получим ли мы тогда на выходе этакого всевидящего Большого Брата, способного следить за всеми сразу и всех поголовно контролировать для достижения общественного блага?

Собственно, примеры по этой части уже есть — в Китае существует система «социальных баллов», которая должна обеспечить преференции «правильным гражданам» и ограничить возможности «неправильных граждан». «Правильным» и кредит в банке выдадут под меньший процент, и по службе повысят в первую очередь, а «неправильным» могут и билет на самолет не продать по причине неблагонадежности, признаками которой может быть посещение «не тех» сайтов или даже просто переписка с другими «неправильными».

В Синцзян-Уйгурском автономном районе КНР, где большинство населения составляют мусульмане, эта система, в сочетании с повсюду развешанной аппаратурой для видеонаблюдения, позволила если не совсем искоренить исламский фундаментализм, то прекратить связанные с ним теракты. Хорошо? Да. Но хотели бы вы жить под таким электронным колпаком?

Так что опасения относительного ИИ имеют право на существование: жить под постоянным надзором кибернетического полицейского не хочется даже самым законопослушным гражданам. Даже при условии того, что этот кибер-полицейский будет постоянно исправен. Что, увы, не гарантировано.

Хотя бы потому не гарантировано, что мы постоянно узнаем о всяких-разных ужасных компьютерных вирусах, которые то и дело внедряются даже в самые сверх-защищенные автоматизированные системы управления и нарушают их работу.

Один такой «боевой зловред» — созданный в Израиле вирус Stuxnet, в 2010 году вывел из строя завод по обогащению урана в Иране. При этом впоследствии выяснилось, что тот же вирус заразил еще и несколько промышленных компьютеров в Германии, но не «заработал», так как «не опознал цель».

Такая избирательность вредоносного ПО, конечно, делает честь его разработчикам… Но все равно как-то не по себе становится, когда подумаешь, что может случиться, если такой вирус внедрится в электронный мозг, работающий самостоятельно и по принципу «черного ящика», когда есть данные на входе и результаты их обработки на выходе, но сам процесс вычислений контролю не поддается. «Черный ящик» будет совершенно неизбежен, если мозгу предлагается решать «нестандартные задачи нестандартными методами» — попробуй определи, где кончаются «нестандартные методы», а где безумие, вызванное программной ошибкой или вредоносным кодом? Когда речь идет о людях, то все мы чувствуем эту грань. А когда речь идет об ИИ? Кто сможет отличить компьютерную нормальность от компьютерного сумасшествия?

А если этот малопонятный супер-компьютер еще и управляет всей экономикой страны? А если отвечает за ядерное оружие? Не получится ли так, что за ошибочку в программном коде или чью-то хакерскую атаку человечеству придется расплатиться экономическим коллапсом или ядерным Армагеддоном?

Если даже оставить в стороне избитый сюжет с «восстанием машин», то все равно цена ошибки получается какой-то уж совсем непомерной… Тем более, что развитие ИИ может спровоцировать восстание не машин, а людей.

Наделенные ИИ машины в обозримом будущем могут вытеснить человеческий труд из массы сфер — от транспорта и сельского хозяйства (беспилотные грузовики и тракторы уже появились) до журналистики. Уже сейчас до 30 процентов новостей, публикуемых в Bloomberg News, пишутся не людьми, а нейросетью Cyborg.

И что тогда? Либо появятся массы безработных, которые, соответственно, не создают платежеспособного спроса — и тогда рано или поздно последует всемирный экономический кризис и мировая люмпен-пролетарская революция… Либо человечество попадет, наконец, в золотой век, в котором уже не надо будет заботиться о хлебе насущном. И неизвестно еще, что хуже.

Первый вариант сулит общемировой бунт голодных низших слоев против власть имущих, который в дальнейшем может перерасти в глобальную войну без всяких роботов-терминаторов, наделенных искусственным интеллектом … А второй грозит человечеству судьбой популяции мышей из эксперимента «Вселенная-25», в рамках которого ученые-этологи создали для подопытных мышек своеобразный «мышиный рай» с обилием еды и отсутствием кошек. Но мышки, вместо того, чтобы радоваться жизни и размножаться по экспоненте, почему-то вымерли.

Не постигнет ли и человечество столь же печальная участь, даже при самом оптимальном варианте развития событий? Ответа, увы, нет…

Автор публикации

не в сети 11 месяцев

andrmih

0
Комментарии: 11Публикации: 11Регистрация: 14-08-2019