Выполняю, подождите...
 
 
Журнал

Искусственный интеллект: то ли человеку ждать от технологий, о чем воображает он?

В прошлом веке, переживая индустриальный подъем, человек с нетерпением предполагал будущее, в котором его ждали путешествия в космосе, города с летающими машинами и умными роботами, беспроводная связь и многое другое. Всё это предвкушалось уже к началу 21-го века. Не смотря на то, что в некоторых деталях фантасты угадали, в общем же всё пошло, так сказать, не по плану. «Мир завтрашнего дня», каким его видели прошлые поколения, оказался утопией, а современные визионеры стали отодвигать его наступление подальше на целые века.

Дистанционное обучение и видеосервисы прошлого века

Дистанционное обучение и видеосервисы, предсказанные в советском журнале 1958 года.

Ховерборды и дроны доставки 1958 года

Ховерборды и дроны доставки предсказаны в том же журнале 1958 года

Электросамокаты, гироскутеры и прочие срества индивидуальной мобильности

Прорицательный советский журнал 1958 года также предрёк электросамокаты, гироскутеры и прочие средства индивидуальной мобильности в городах.

Звонки через устройство видеосвязи предсказанные в прошлом веке

Иллюстрация прошлого века, на которых герои делают видеозвонки через устройство, которое может напомнить смартфон и приложения видеосвязи.

Кадр из фильма «Космическая одиссея 2001 года»

Кадр из фильма «Космическая одиссея 2001 года» снятый в 1968 году. Дейв Боумен деактивирует компьютер с искусственным интеллектом HAL 9000.

Кадр из фильма «Бегущий по лезвию» 1982 года

Кадр из фильма «Бегущий по лезвию» 1982 года, представляющий город начала 21 века. И хотя экраны во всё здание действительно можно встретить, летающих машин, увы, нет и не ожидается.

Представление городов 21 века в 90х годах прошлого века.

Таким было представление городов 21 века в 90-х годах прошлого века. И тут фантасты явно сели в лужу с ожиданиями.

Можно заметить по изображениям, как снижается точность «прогноза» фантастов при уменьшении дистанции до настоящего времени. Немного уходя от темы, хочется отметить, что, к сожалению, эта тенденция возрастания ожиданий и сокращении сроков их появления не прекращается. Сегодня люди склонны верить даже в совершенно безумные вещи, например такие, как экспедиции людей на Марс в ближайшие десятилетия и даже возможность терраформирования планет.

Действительно, нынешняя реальность совершенно иная — информационная. Она располагает технологиями, о применении которых не могли правильно догадываться в индустриальную эпоху прошлого века. Одной из таких технологий, которая в последние года упоминается все чаще и чаще, является искусственный интеллект. Как и революционные технологии прошлого века были подхвачены утопичным и антиутопичным видением художников, так и «ожившая» технология современности попала в поле безудержного воображения. Но правильно ли современный человек видит своё будущее? Ошибки фантастов ушедшей эпохи заключались в плохой технической осведомленности, по большей части из-за того, что уровень распространения информации в то время был низок. Сегодня таких проблем нет, однако, заблуждений не стало меньше, а будущее становится еще более сложнопрогнозируемым. Чтобы разобраться, с чем это связано и чего же все-таки ждать от будущего и технологий, нужно немного погрузится в детали происходящего.

Что представляет собой искусственный интеллект

Пожалуй, одной из самых главных проблем для понимания того, что из себя представляет «Искусственный интеллект», является некорректная интерпретация этого названия. Смысл этого выражения внедрен в общественность фантастическими произведениями и кино. Но в действительности, этот смысл неадекватен настоящим обстоятельствам. Сегодня «Искусственный интеллект» — это обобщенное понятие разделенных, обычно узкоспециализированных, моделей и систем с совершенно разным, но ограниченным уровнем возможностей. Подобно тому, как прижилось слово «робот», впервые упомянутое в пьесе чешского писателя Карела Чапека, выражение «Искусственный интеллект» так же устоялось из научной фантастики; однако, его фантазийное значение, до реализации которого нам еще далеко, пока не совсем удачно совпадает с действительностью. Тем не менее, ныне сложно преуменьшать возможности машин.

Человек, не имеющий отношения к информационным технологиям и изучению искусственного интеллекта в частности, и представления не имеет, на что уже сегодня (в 2020 году) способны модели машинного обучения. Если сразу начать рассказывать о всех возможностях машин, то, вероятно, возникнут чувства неприятия и сомнения. Поэтому, позвольте начать с истоков, затем, последовательно перемещаясь к нашему времени, перейти к знакомству с цифровыми технологиями.

История развития

В сфере вычислений существует множество подходов и методов решения задач, но наибольшие успехи в области искусственного интеллекта и машинного обучения были достигнуты благодаря искусственным нейронным сетям — математическим моделям имитирующим работу биологических нейронных сетей (многочисленными, связанными между собой нервными клетками). Первыми понятие искусственной нейронной сети предложили нейрофизиолог Уоррен Мак-Каллок и нейролингвист и математик Уолтер Питтс, разработав модель искусственного нейрона. Спустя несколько лет идею развил американский нейрофизиолог Фрэнк Розенблатт, предложив устройство, моделирующую процесс восприятия информации мозгом, которое назвал «перцептроном». Возможности перцептрона заключаются в том, что его можно обучить классифицировать образы, используя метод обучения с повторением и подкреплением желаемых результатов. В 1960 году была смоделирована работа перцептрона на первом нейрокомпьютере «Марк-1», который мог распознавать буквы английского алфавита.

Нейрокомпьютер Марк 1, симулирующий работу модели перцептрона

Нейрокомпьютер Mark 1, симулирующий работу модели перцептрона. Можно видеть, как машина воспринимает и воспроизводит символ алфавита.

В 1965 году искусственные нейронные сети получили новый толчок развития благодаря украинскому ученому Алексею Григорьевичу Ивахненко и его коллеге Валентину Григорьевичу Лапе. Они предложили первую глубокую сеть с произвольным количеством слоев и полиномиальными функциями активации для решения задач обнаружения закономерностей в наборах данных. Ивахненко и Лапа стали основоположниками глубокого обучения. Тогда еще никто не понимал, что эти работы лягут в основу глубокого обучения и запустят настоящую цифровую революцию в развитии искусственного интеллекта.

Пять лет спустя в 70 году финский математик Сеппо Линнаинмаа в своей диссертации описал метод обратного распространения ошибки, который впоследствии стал применяться в многослойных нейронных сетях и дал еще один важный импульс дальнейшей эволюции. И по сей день этот метод широко применяется в машинном обучении.

До конца столетия можно указать еще на несколько вех в развитии нейросетей, однако можно заметить, что развитие происходило относительно медленно. Это объясняется несколькими факторами. Во-первых, вплоть до конца 20 века вычислительных мощностей было недостаточно, чтобы реализовать сколь бы то не было серьезные алгоритмы. Требовалось очень много времени на операции. Некоторые вычисления, которые сегодня происходят за секунды, тогда выполнялись днями. Во-вторых, для глубокого обучения нейронных сетей требуется много обучающих данных, которых в то время не существовало. Процесс обучения заключается в пропускании через нейросеть большого объема информации, в котором она находит сходства и закономерности, и, чем больше этой информации, тем лучше результат обучения.

С сильным ускорением роста данных, которые стали появляться благодаря различным персональным устройствам в первом десятилетии текущего столетия, и ростом вычислительных мощностей, искусственные нейронные сети получили новое дыхание. Однако, только во втором десятилетии машины стали превосходить человека в отдельных задачах. Так в 2011 году сверточная нейронная сеть DanNet впервые достигла свехчеловеческих результатов в распознавании изображений, а в 2012 выиграла в Международной Ассоциации по Распознаванию Образов конкурс на выявление рака груди. В 2013 году британская компания DeepMind представила систему ИИ абсолютно самостоятельно научившуюся играть в 49 аркадных консольных игр Atari, из которых в 22 играх смогла превзойти человека. В октябре 2015 года программа AlphaGo, так же разработанная компанией DeepMind, победила чемпионат Европы по игре в Го. Принято считать, что это стало переломным моментом, когда машина доказала свое превосходство над человеком. Дело в том что Го считается игрой, в которую традиционным для искусственного интеллекта методом перебора ходов выиграть практически невозможно, а AlphaGo проявил логику в своих действиях, выиграв при этом у одного из сильнейших гоистов мира Ли Седоля со счетом 4-1. В 2020 году в виртуальном бою истребителей Lockheed Martin F-16 искусственный интеллект победил профессионального пилота, а языковой модели GPT-3 от OpenAI позволили временно стать журналистом The Guardian и написать эссе о том, почему не стоит боятся искусственного интеллекта. Так же OpenAI представила нейронную сеть Jukebox, которая способна генерировать полноценные музыкальные исполнения с приличной музыкой и осмысленным текстом. Это действительно впечатляющие результаты, но эти примеры лишь капля в море. Как же это все становится возможным?

Устройство систем искусственного интеллекта и интернет вещей

В 2009 году количество устройств, подключённых к глобальной сети, превысило численность населения Земли, тем самым «интернет людей» стал «интернетом вещей». Сегодня более 80% информации генерируется датчиками и сенсорами интернета вещей, автономными устройствами и устройствами, которыми пользуются люди, предоставляя огромные объемы материалов для обучения систем машинного обучения. Если бы существовал общий централизованный искусственный интеллект, имеющий собственную мотивацию к обучению, он мог бы знать о людях всё и был бы способен предсказывать их действия. Впрочем, с предсказаниями поведения людей и событий и сейчас уже всё хорошо, но об этом чуть позже.

К сожалению или к счастью, на сегодняшний день нет никакого общего искусственного интеллекта. Сегодня мы имеем разрозненные и изолированные друг от друга интеллектуальные приложения для решения узкоспециализированных задач по классификации и распознаванию. Например, система распознавания лиц и улыбок в вашем смартфоне никак не связана с системой распознавания речи. Это две отдельные модели, которые не могут взаимодействовать между собой без посредничества человека, хотя и доступны в рамках одного устройства. Точно так же и виртуальные ассистенты, автопилоты, бытовые устройства и др. — являются изолированными друг от друга системами. Решение вопроса сосуществования и взаимодействия всех этих моделей в рамках одной системы является одной из самых желанных целей исследователей ИИ. Реализация этой цели означала бы создание сверхсильного (общего) искусственного интеллекта, превосходящего все возможности человечества. По некоторым оценкам футурологов и специалистов сферы цифровых технологий, это (т. н. «Точка Омега» или «Технологическая сингулярность») будет достигнуто примерно к 2040 году.

Хотя, то, что мы имеем сегодня, принято обобщенно называть «Слабым искусственным интеллектом», отдельные его приложения уже оставляют человеческие возможности далеко позади. Конечно, модели этих интеллектуальных приложений имеют существенные ограничения и недостатки, но прежде, чем рассказать о них, давайте сначала, хоть и чрезмерно упрощенно (за что прошу извинить меня), разберемся, что же из себя представляют эти модели обученных нейросетей.

Искусственный интеллект и машинное обучение

Речь в статье акцентирована в основном на машинном обучении основанном на нейронных сетях (глубоком обучении) — одному из подмножеств искусственного интеллекта. Важно понимать, что искусственный интеллект включает в себя и другие подмножества (основные из них сокращенно представлены ниже для понимания), однако, машинное обучение и глубокое обучение в частности, приобрели наибольшую популярность из-за высокой пригодности для решения широкого спектра задач по классификации и предсказанию.

Искусственный интеллект

  • Машинное обучение
    • Символические рассуждения
      Используются стратегии дедукции и индукции для решения задач.
    • Нейронные сети (глубокое обучение)
      Использование алгоритмов стремящиеся воспроизвести функции мозга.
    • Эволюционные алгоритмы
      Основаны на выживании наиболее приспособленных решений и удалении любых других, которые не соответствуют желаемому результату.
    • Байесовский вывод
      Для решения задач используются статистические методы, теория вероятностей. На такой стратегии основываются, например, фильтры спама.
    • Аналогисты (системы, учащиеся на аналогиях)
      Метод основан на распознавании шаблонов данных посредством сравнения. Используется, например, для рекомендательных систем.
    • ...
  • Графы знаний
  • Экспертные системы
  • ...

Можно дать краткое определение машинному обучению — это процесс, заключающийся в поиске математической функции, которая при применении к набору входных (обучающих) данных даст желаемые результаты (требуемые выходные данные). Рассмотрим это на следующем примере.

Графическое представление механизма распознавания символов обученным многослойным перцептроном. На каждом нейроне внутренних слоев при обучении определяются веса, которые затем характеризует модель для работы с требуемым набором данных.

Изначально, существует некоторая заготовка — алгоритм, подготовленный под конкретный род задачи, то есть программа, имитирующая деятельность нейронной сети. Предположим, ее назначение распознавать кошек на фотографиях. Это стандартная задача по классификации данных. Сама по себе эта программа бестолковая и ни к чему не способна. Чтобы она могла что-то делать, ее нужно обучить. Для этого ей необходимо показывать фотографии с кошками и каждый раз, когда она угадывает их, подкреплять ее положительной оценкой, а когда ошибается, отрицательной. Либо заранее отмечать на каких фотографиях кошки и предоставлять их сети. Такие подходы называются обучением с учителем или итеративным обучением с разметкой входных данных. Сложившиеся результат после такого обучения называется моделью распознавания. Чем больше попыток (итераций) произведено, тем лучше модель распознает кошек. Когда, результативность обучения значительно падает или начинает негативно влиять на корректность выходных данных (переобучение), считается, что достигнута оптимальная модель распознавания. Теперь эта модель нейросети (обученная программа) может быть интегрирована, например, в какое-то мобильное приложение или прошита в чип камеры, где будет работать без дальнейших модификаций.

Пожалуй, это один из самых примитивных примеров и не стоит рассматривать его как основополагающий понятию «Искусственный интеллект». В действительности, для создания некоторых моделей применяться суперкомпьютеры, что означает их необычайную сложность. Но здесь стоит отметить, что даже рассмотренная примитивная, но обученная в достаточной мере модель по выявления кошек, может существенно превосходить возможности человека как по скорости, так и по качеству распознавания. Самое время выяснить, в чем искусственный интеллект превосходит человека, а в чем уступает ему.

Преимущества и примитивность искусственного интеллекта

Скорость и точность вычисления машин не у кого не вызывают сомнений. Человек уступает по этим показателям даже самому архаичному электронному калькулятору. Точно так же машина, располагая некоторыми данными, способна в доли секунды принять сложнейшее решение, которое окажется верным в процентном соотношении близком к абсолютному. К примеру, наилучшим показателем по выявлению пневмонии на рентгеновских снимках врачами является — 95%. Точность распознавания достигнутая с помощью искусственных нейросетей — 97%. Стоит также отметить, что точность повышается до 98.5%, когда к распознаванию привлекаются одновременно и машины, и люди. 1

Превосходство машин перед людьми заключается не только в скорости и точности простых операций, но и в возможности одновременного рассмотрения огромного числа аргументов. Человек же способен удерживать в своем сознании одновременно около 7 элементов. 2 Помимо этого, машина может быть многопоточна (многозадачна), в то время, как человек в единицу времени может быть сосредоточен только на одной задаче. Если прибавить к этому возможности сенсорного ввода и вывода данных у машин, то человеческие возможности в сравнении кажутся совсем ничтожными. Ограниченные возможности человека объясняют не только чрезвычайно узкое по сравнению с машинами восприятие, замедленное принятие решений, но и большее число ошибок в принятых решениях.

Однако, на сегодняшний день и у искусственного интеллекта есть свои существенные недостатки, которые не позволяют ему достичь человеческого аналитического уровня и заменить его в определенных сферах деятельности. Одним из таких недостатков является невозможность долгосрочных суждений. Машины способны пока собрать и обработать большое количество данных в короткий промежуток времени (то есть, в преимущественно пространственном охвате), в то время как мир человека, в силу ограниченности сенсорного восприятия, строится на нарративах (то есть, по временным цепочкам событий). Здесь обнаруживается фундаментальное отличия искусственного и естественного интеллекта.

Мы естественным образом создаем для себя инструмент компенсации недостатков пространственного восприятия. В некотором философском понимании ИИ можно представить как новый дискретный орган человечества объективного и объемного восприятия реальности и гносеологическую функцию. Возрастающая информация, которая человеком в силу биологических установок выстраивается относительно времени и имеет свои пределы восприятия, возможно и индуцирует то самое ощущение ускорения времени (а также складок времени — снижение дальности видения будущего), которое сегодня всё чаще отмечается.

Искусственный интеллект сегодня очень плохо справляется с построением длинных последовательностей действий, приводящих к желаемому результату. При обучении, искусственная нейросеть получает подкрепление за конечный результат, но она ничего не может знать об эффективности результатов промежуточных действий, поэтому типичный для нейронных сетей метод обучения перебором плохо работает для задач с длинной цепочкой действий. Человек же напротив способен быстро сложить в голове цепочку действий и их итогов, которые приведут его к нужному результату. По этой причине во множестве задач искусственный интеллект бесполезен без участия человека, поскольку не способен размышлять как человек и оценивать все обстоятельства.

Другим недостатком искусственного интеллекта является ограничения в суждениях, основанных на данных. Взгляните на следующий диалог:

Боб: «Я ухожу!»
Энн: «Кто она?»

Люди сразу представляют из диалога, что происходит. Наверное, Боб встретил кого-то другого и решил уйти, поэтому сказал об этом Энн. Хороший ли он мужчина? Наверное, нет. Расстроена ли Энн? Вероятно, да. Возможно они в браке и т. д. И хотя у нас нету больше никакой информации, кроме этого краткого диалога, мы сразу понимаем все детали происходящего. Но для машины это будет бессмысленный диалог, так как у нее нет данных, которые накапливаются людьми в процессе их жизни. Это будет для нее просто набор слов, которые она может обработать по-своему, но не сможет осмыслить в контексте исторических жизненных обстоятельств людей.

Вот еще один пример из двух предложений отличающихся всего одним выражением:

Комитет отказал группе в разрешении на проведение парада, потому что они выступали за насилие.

Комитет отказал группе в разрешении на проведение парада, потому что они опасались насилия.

В этих двух предложениях человек сразу понимает к кому относится местоимение «они» и может правильно истолковать ситуацию, но искусственные нейросети очень плохо воспринимают эти различия. Это называется «предложение винограда». Суть заключается в недостаточности данных о том, что такое группа, что такое комитет и чем он занимается, что происходит на парадах и т.д. На текущий момент не существует решений того, как передать эти знания программе.

Можно привести много разнообразных примеров, касающихся ограниченности суждений из-за недостатка данных, будь то интерпретации ситуации на изображениях, в тексте или в видео потоке реального времени; однако, существуют и другие ограничения для искусственного интеллекта и одним из самых проблемных, которому стоит уделить отдельное внимание, оказывается предвзятость. Данная проблема не является следствием несовершенства или примитивности искусственного интеллекта, поскольку машины работают по математическим алгоритмам, а значит и строго логично (рационально). Предвзятость передается моделям искусственных нейронный сетей из обучающих данных. Источником предвзятости, как можно догадаться, является человек, как поставщик набора обучающих данных. К сожалению, человек не может быть абсолютно не предвзят, а поэтому алгоритмы искусственного интеллекта всегда наследуют предубеждения, следствием чего становиться снижение ценности (объективности) выходных данных. Так, например, некоторое время Google распознавал афроамериканцев на фотографиях как горилл, потому что из обучающих данных (фотографий темнокожих) было получено недостаточно биометрической информации о внешних расовых признаках темнокожих, чтобы отделить их от животных. Или другой пример: компания Nikon выпустила камеру с алгоритмом распознавания людей, которые моргают во время съемки, но часто случались ложные срабатывания, которые были связанны с азиатами. Модель распознавания была обучена на изображениях европейцев и американцев, поэтому она ничего не знала об азиатском разрезе глаз и принимала азиатов за моргающих.

Эти два примера указывают больше на отсутствие достаточного разнообразия данных в обучающих наборах из-за банальных упущений, но предвзятость моделей машинного обучения может быть заложена непосредственно из неосознаваемых предрассудков людей. Например, алгоритмы распознавания склонны определять людей по половому признаку на кухне как женщину, потому что это предубеждение уже заложено в наборах данных. Здесь, чтобы избежать предвзятости выходных данных, должны быть приложены дополнительные усилия для подборки материалов обучения, чтобы в них количество мужчин и женщин на кухне было приблизительно равно, но подобные вещи не всегда очевидны, так как они привычны для людей. Предубеждения моделей могут также возникать и при некорректной оценке выходных данных учителем.

Проблема предвзятости является одной из главных в науке о данных и охватывает все сферы применения искусственно интеллекта, будь то подборка рекомендаций для пользователей, распознавание образов, беспилотный транспорт, бизнес или что-либо другое.

В 2016 году в Microsoft разработали алгоритм для чат-бота Tay, для которого завели аккаунт TayTweets, чтобы он учился, общаясь с аудиторией Twitter. 3 Это было исследование в области понимания разговора. Бот был таргетирован преимущественно на аудиторию 18-24 года. В средствах массовой информации не указывается, что данная выборка пользователей является наиболее активной, настроенной на тренды информационного поля и политически ангажированной (к слову, благодаря этим же СМИ). Таким образом, Tay получал предвзятые суждения от самих пользователей, что в конце концов привело его к склонности к расистским заявлениям. В последствии чат-бот был исключен из социальной сети.

«I think she got shut down because we taught Tay to be really racist»

Пользователь Twitter

Эксперимент с Tay ярко показал, что нельзя допускать в машинном обучении цензурируемых, поляризованных, не являющиеся нейтральными данных. Процесс обучения должен основываться на чистых данных и исключать какие либо взгляды, дабы избежать внедрения предвзятостей на любом этапе формирования модели обучения.

И так, из сказанного выше, я надеюсь, можно понять, что искусственный интеллект (а в частности подмножества машинного обучения) это не живая сущность, как воспринимается массовым сознанием, а набор алгоритмов и математических функций, подстраивающихся (обучающихся) под определенную связь между входными и выходными данными. Это новый инструмент человечества, который имеет развитие, и весь вопрос только в том, правильно ли человечество им воспользуется. Сможет ли эта технология вообще когда-то ожить и стать самостоятельной сущностью — это большой вопрос и сейчас никто на него не способен дать ответа. Актуальная задача современного мира — уберечь эту технологию от агрессивных капиталистических и политических мотиваций.

Реальные и виртуальные вызовы человечеству

Если искусственный интеллект является всего лишь инструментом, может ли он представлять потенциальную угрозу человеку? Конечно. Молоток и пила тоже могут быть оружием. Но сами по себе инструменты на людей не нападают, они становятся оружием только в руках человека. А если человек не имеет злого умысла, может ли ИИ быть вреден? И здесь ответ будет — да. Подобно тому, как неумелое использование молотка и пилы может привести к отпиленным и отбитым пальцам, неумелое использование искусственного интеллекта так же может привести к необратимым последствиям. Из этого следует, что искусственный интеллект, как и все то, чем пользуется человек, несет потенциальную угрозу. Но продукты новых технологии и без систем искусственного интеллекта представляют реальные опасности и эти опасности находятся не в той плоскости, на которую навязчиво обращают внимание информационного потребителя, но в той, которая остается из-за этого в тени.

Искусственный интеллект в медиа и кино

Наверное, все мы видели кино про восставших машин, про сбрендивший искусственный интеллект и все такое прочее. Эти замечательные художественные идеи появились еще в прошлом веке, и вот уже более 50 лет они продолжают успешно жить и пугать людей. Вот-вот, уже близко — намекает нам и современное документальное кино, пленя внимание зрителя. Дескать, посмотрите, эта лабораторная игрушка уже научилась ползать и узнавать вас в лицо! На самом деле это банальная спекуляция на страхах, а при детальном рассмотрении становиться понятно, что алгоритмы просто выделяют часто встречающиеся паттерны и не имеют понятия кто перед ними, человек или вещь. Ни один известный факт сегодня даже не намекает на развитие событий, которое можно расценивать как осознанное и агрессивное по отношению к человеку. Фундаментальные отличия искусственного интеллекта, который не имеет природных мотиваций, от естественного, который зрел на основе выживания, исключают техно-апокалиптические идеи из реальности, но оставляет ответственность за своё существо на самом человеке. В чем же секрет такой популярности этих художественных концепций? Тут все просто — чего мы способны испугаться, того и будем бояться. Так уж устроена психика человека — сначала «очеловечиваем» выдуманную сущность, поскольку мы социальные существа и неизбежно так поступаем (как и с домашними животными, кстати, с которыми разговариваем), а затем боимся «своих» же интроецированных плохих желаний. Страх же перед живыми мертвецами не означает их наличие в реальном мире — верно?

Конечно, технологии не стоят на месте и они явно показали миру фантастов, что те не только облажались с прогнозами, но и пошли сильно в сторону от реальности. Сегодня сложно удивить читателя или зрителя каким-то терминатором и SkyNet, которые в свое время просто будоражили воображение, зато теперь на волне воспетых до апофеоза либеральных ценностей и прав человека в умах населения успешно паразитирует концепция цифровой диктатуры. Хотя, надо признать, в этом есть доля правды, но опять не там, где её пытаются показать.

Диктатура (не важно, в руках одного человека или группы) существовала всегда, без нее не могло бы существовать общество в принципе. Социальная иерархия устроена таким образом, что всегда есть кто-то выше, кто имеет право диктовать свои условия в силу тех признанных причин (преимуществ), которые позволили ему добиться авторитетного положения. Диктат — это слово носит негативный оттенок и даже насильственный; однако, в обширном смысле оно означает авторитетность мер, которым мы вынуждены осознанно или пребывая в неведении подчиняться делегируя ответственность вышестоящему субъекту. В школе мы тоже подчинялись учителям против воли (это справедливо не для всех, хотя это и не имеет значения), делегируя ответственность за своё будущее, того не осознавая. На работе мы тоже подчиняемся руководителям и обязанностям, а на уровне государства законам. Сильно огрубляя, можно сказать, что никаких других базовых форм устройства общества не существует, поскольку не существует общества без организации иерархии и доминирующих убеждений. Любые другие формы, носящие иные и красивые названия, являются лишь производными от диктатуры, имеющие функции, способные маскировать иерархическое доминирование и создавать иллюзию равного права для снижения общественной напряженности, а значит и стабильности, с помощью пропагандистских механизмов. Разрушение иерархий и идентичности, устоявшейся в этих иерархиях, ведет к диссоциальному поведению субъектов общества и общественному хаосу (анархии).

Информация и социальные институты

Уже в начале 20 века информация стала серьезным инструментом и оружием. Да, методы ее распространения были весьма скромными и осуществлялись только через социальное общение и печать. Однако, уже эти возможности смогли предопределить судьбу целой империи, интегрировав теории марксизма в общественность, а нацистская пропаганда и самая тиражируемая литература того времени, удачно вписываясь в идеологии многих государств, помогли мотивировать и подтолкнуть колоссальные народные массы к бесчеловечным действиям и самой кровопролитной войне в истории человечества.

«Повесе, чтобы соблазнить женщину, нужно больше тонкого понимания людей, чем Бисмарку, чтобы одурачить Европу.»

Ключевский В.О.

Не нужно быть семи пядей во лбу, чтобы понимать невообразимые превосходства возможностей влияния современных информационных технологий перед средствами распространения информации в первой половине 20 века. Но понять то, как могут существовать социальные институты в современной среде уже сложнее. Забегая немного вперед, можно сказать, что современная среда не благоволит существованию каких либо социальных институтов. Актуальные идеологии, собирающие под собой группы, движения и народные единства, в перенасыщенной информационной среде, пестрящей разнообразными идеями, больше напоминающими информационный хаос, разрушаются. Общество, теряя возможность идеологической организации и авторитетов идеологий, утрачивает функциональные качества и все больше напоминает ни на что не способное стадо.

Не стоит рассматривать методики организации больших масс людей и прививание им идей как нечто негативное только потому, что ими пользовались неблаговидно. Пропаганда, популяризация и другие способы распространения воззрений и учений сейчас преподносятся в плохом свете и осуждаются. Но только благодаря им стало возможно сплочение большого числа людей, существование институций, организации сложных процессов и невероятных научных и технических достижений, а также приличных условий жизни.

В 79-м году прошлого века была издана замечательная книга «The Third Wave: The Classic Study of Tomorrow», написанная известным футурологом Элвином Тоффлером, в которой он описал три волны развития человечества — аграрная, индустриальная, постиндустриальная. Не говоря о первых двух, во многих аспектах третьей технологической волны Тоффлер попал, что называется, в яблочко. Но он совершенно не мог и подозревать, что мы пролетим ее без всяких переходных периодов и характерных для них рывков, а войдем в четвертую волну, которую можно назвать цифровой, так и не успев адаптироваться к предыдущей. Предреченные Тоффлером структурные изменения общества для третьей технологической волны, включая разрушение привычных социальных институтов, стали ещё более обостренными для нас сейчас.

«Единственный способ сохранить какое-то подобие равновесия в ходе сверхиндустриальной революции – ответить изобретением на изобретение: создать новые личные и социальные механизмы, регулирующие изменения. Следовательно, нам нужно не слепое принятие или слепое сопротивление, а множество творческих стратегий, чтобы избирательно формировать, отклонять, ускорять или замедлять изменение. Индивидууму нужны новые принципы, чтобы задавать темп своей жизни и планировать её вместе с кардинально новой формой образования.»

Э. Тоффлер

Общество оказалось совершенно не готовыми и не способным адаптироваться к новым технологическим изменениям, вызывающим футурошок 4, а также к возросшей в невероятных объемах информации. Изменения происходят не только в масштабах всего общества, но и для каждого субъекта общества отдельно.

Социальная атомизация

Понятие социальной атомизации существует в социальной философии более века и означает, если вкратце — разобщение и эгоистическое обособление людей. Такой процесс связывают с переходными периодами, кризисами и выпадением из устоявшихся культурных традиций. Но не сложно проследить, что с развитием цифровых технологий, тенденции атомизации общества приобрели постоянный и возрастающий характер. Люди все чаще предпочитают общаться посредством сообщений, проводить время с компьютером или смартфоном, пребывать в социальных сетях, играх и т.д. и т.п. Проще говоря, современный человек всё больше и больше дистанцируется от реального социального взаимодействия, отдавая предпочтение миру виртуальному, который создает иллюзию богатства выбора и доступности, например, общения, знаний, заработка и других возможностей.

Стоит отметить, что живое социальное взаимодействие для человека, как для социального существа, является если не основным, то одним из самых важных аспектов интеллектуального развития. А наличие реальных и значимых авторитетов в обществе оказывает сильное стимулирующее влияние на качество и направление такого развития. Сложные навыки по большей части нам передаются от более опытных людей, в то время как самостоятельное освоение чрезвычайно затратно и неэффективно, а в некоторых случаях и вообще невозможно. В нынешнюю цифровую эпоху значимость реальных авторитетов нивелируется, поскольку существует иллюзия доступности знаний в информационном пространстве. Но биологически детерминированная психика человека, как социального субъекта, продолжает существовать в плоскости иерархической относительности, поэтому возрастает количество так называемых ложных медийных авторитетов.

Исключая социальное взаимодействие мы лишаем себя приобретения сложных прикладных и мыслительных навыков. Кроме того, социальные обязательства являются главным мотивирующим фактором. Всё, что мы делаем, мы делаем это для кого-то и ответственны за результат перед кем-то. Без социальных обязательств остаются примитивные потребности, которые, благодаря нынешнему комфортному и безопасному существованию не требуют серьезных когнитивных нагрузок. Подводя итог последствий социальной атомизации, можно отметить, что такой социальный процесс ведет к возрастающей необязательности, безответственности и инфантильности.

К сожалению, возрастающая цифровая зависимость становиться реальной проблемой и многие страны уже озаботились мерами по предупреждению этого на законодательном уровне. А в некоторых странах цифровая зависимость официально признана психическим заболеванием. Например, в Южной Корее первыми выделили такие понятия, как «Цифровой аутизм» и «Цифровая деменция». 5

Примитивизация мышления

Мышление — процесс весьма энергозатратный, а каждый организм стремиться к сохранению энергии. Наш мозг потребляет 20% энергии всего тела, несмотря на то что его масса составляет лишь около 2% от массы тела. Совершенно естественно, что когда нет жизненной необходимости прилагать усилия для решения задач, мозг будет всеми возможными для него способами избегать немотивированных когнитивных действий. Это типичное состояние лени или, как еще его красиво называют — прокрастинации.

Появление персональных вычислительных устройств и приложений так же снимает с нас бремя мышления. Поиск информации, ориентация на местности, планирование, расчеты, выбор и многое другое — все эти непростые для мозга функции мы делегируем машинам.

Социальное взаимодействие также является непростой умственной работой, где приходится соблюдать этику, отслеживать обратную связь, учитывать чужие интересы и находить способы удовлетворять свои. Сегодня, не имея острых потребностей в социальных действиях, но имея выбор между реальной агрессивной социальной средой с одной стороны и красочным, открытым и физически безопасным виртуальным миром, пусть и сильно упрощенным, с другой, большинство из нас, конечно же выбирает второе.

В атмосфере сниженной социальной ответственности все чаще можно наблюдать при возникновении непростой ситуации, например, в решении какой-то задачи или конфликта, когда стороны (или одна из сторон) предпочитают все бросить и молча разойтись, так и не попытавшись достигнуть возникших перед ними целей. Это явление носит названия «Эффекта страуса», указывающее на упрощенное поведение, к которому больше склонны дети, полагающиеся на старших.

Такое положение дел во всех отношениях не проходит бесследно. Снижение вынужденной когнитивной нагрузки ограничивает развитие и приводит к размыванию сложных навыков мышления, которое мы, кстати говоря, сами за собой заметить не можем.

Информационное потребление

Человек — существо жадное до информации, как и до калорий. Ни того, ни другого в прошлом не было в избытке. Еду приходилось добывать трудом, а информацию пристально отслеживать. Эти настройки вшиты длительной эволюцией; однако, она не успела подготовить человека к миру, в котором, и еда, и информация, внезапно, оказались в избытке. «Инстинкты» потребления продолжают работать по инерции с той же интенсивностью. Могут ли биологически функции, несоответствующие средовым факторам, работать корректно и не приводить к побочным эффектам? Ответ очевиден. Но если с калориями все понятно, что же получается, когда информация буквально сыпется на нас отовсюду?

В условиях информационного шума наш мозг следит за всем сразу и неспособен сосредоточиться на чем-то конкретном. Он пытается не упустить что-то важное, но ни одна мысль в таких обстоятельствах не способна завладеть вниманием человека целиком. Мозг также последовательно совершает выбор в пользу всё более и более простой для восприятия информации, а индустрия, производящая контент, подстраивается под этот запрос, предлагая всё более и более примитивный контент. Эти тенденции легко прослеживаются по следующим проявляющимся признакам когнитивных искажений:

  • Странные, смешные, привлекательные внешне и антропоморфные вещи привлекают больше внимания, чем обычные.
    В большом разнообразии информации мы будем склонны выбирать юмористический контент, сатиру, необычные и красочные материалы, яркие социальные явления, странную и будоражащую информацию. А сложные и углубленные материалы будут отложены на потом (а скорее всего бессрочно), поскольку существует иллюзия их постоянной доступности. Кроме того, в них может и нет особой ситуационной необходимости.

  • Привлекают частности, подтверждающие существующие убеждения.
    Если у нас уже были какие-то убеждения, например, что искусственный интеллект несет потенциальную угрозу, то мы с большей охотой будем выбирать материал, который будет подтверждать эти убеждения.

  • Охотнее замечаем то, что часто запоминали либо часто встречали.
    Мы будем отдавать предпочтение тому, что чаще попадало в поле нашего внимания, даже если оно нам совершенно не нужно.

  • Избегаем информации, которая может вызвать психологический дискомфорт.
    Как правило, дискомфорт вызывает сложная, объемная и узконаправленная информация, а также та информация, которая вступает в противоречие с нашими убеждениями.

Очевидным следствием нашего эволюционного пристрастия к потреблению информации в мире без угроз и чрезвычайных нужд (т. н. «Зона комфорта») является невозможность воспринимать информацию целенаправленно и объективно, то есть, по делу. Люди все больше уходят в истеричное бесконтрольное потребление, когда возрастает ценность красоты и яркости подачи материала, а не суть и структурная целостность. Но утрата системного и критического восприятия это еще полбеды.

Коммерческое техноуродство: потребитель — это товар

Как уже говорилось выше, социальные институты в новой цифровой эпохе разрушаются или претерпевают серьезные изменения. Процессы затрагивают как весь общественный строй, так и отдельные его формации, например, экономические модели (имеется в виду капитализм, как самая распространенная система). Экономическая деятельность общества, которая замечательно работала в индустриальном и постиндустриальном мире, начинает испытывать метаморфозы, обостряя ранее несущественные проблемы. Чтобы понять, о чем идет речь, давайте рассмотрим некоторые примеры, которые касаются информационных технологий.

Не секрет, что создатели информационного контента преследуют цель заработать деньги или самовыразиться (организовать себе популярность с целью последующей выгоды). В спросе на примитивный контент такая ситуация создает тенденцию, когда производители контента стараются не донести актуальную информацию, как например это делают настоящие популяризаторы науки, имеющие соответствующее образование, достижения в научной сфере и совершенно иные мотивы, а просто «пошуметь». Одним из распространенных свидетельств такой жажды наживы является прием «хайпа» на громких событиях. Опытный автор, зарабатывающий деньги на своих материалах, редко упустит возможность привлечь публику рассуждениями и выводами на актуальную тему, при этом не имея на руках не то что фактов, а даже какие либо объективных доводов. Современную публику это удовлетворяет, ведь она хочет ответы здесь и сейчас, пренебрегая истинностью всех причинно-следственных связей, которые ещё только предстоит исследовать, приложив усилия.

В сетевых ресурсах можно часто встретить рассказы о старых, но известных исследованиях, в которых уже полностью исковеркана суть. Сравнивая настоящие доклады авторов экскрементов и современные интерпретации контент-мейкеров, просто диву даешься, как можно было так поиздеваться над фактами. Но скучный и сухой доклад мало кто станет читать, гораздо интересней слушать и смотреть харизматичного рассказчика.

Карикатура — как распространяется информация

Когда опора на совокупности фактов обесценивается, возрастает ценность художественной подачи. Как известно, спрос рождает предложение, а потому на популярный монетизируемых информационных площадках наблюдается склонность к яркой и веселой подаче, иронии и высмеиванию, язвлению и гипертрофированию фактов, а также к искажению или подтаскиванию иных фактов «за уши» в угоду солидарности со своей целевой аудиторией.

Популярные контент-мейкеры часто являются заложниками убеждений собственной аудитории (или своих сверхценных убеждений) и вынуждены готовить то, что не входит в противоречие с этими убеждениями, чтобы удержать популярность, а соответственно и монетизируемый трафик.

Помимо описанного, для широкой публики материалы необходимо аппроксимировать, иначе процент отказов от усложненного для восприятия контента будет возрастать. Поэтому действительно сложные и познавательные научные, технические и подобные им материалы крайне непопулярны. В связи с этим можно наблюдать уже упомянутую печальную тенденцию примитивизации информации и её возрастающее потребление, а у потребителей, в свою очередь, проявления Эффекта Даннинга — Крюгера.

«Интерес к диссидентам-интеллектуалам неизбежно должен угаснуть после того, как интернет распахнул врата в мир развлечений, а глобализация открыла дорогу консюмеризму. В современной России немыслимо появление фигуры, подобной Андрею Сахарову. Но даже если такой человек появится, он, вероятно, будет пользоваться меньшим влиянием на национальный дискурс, чем Артемий Лебедев, который ежедневно устраивает в своем блоге фотоконкурс для женщин с красивой грудью.»

Евгений Морозов
(«Интернет как иллюзия. Обратная сторона сети»)

Нравящийся контент, учитывая перекос современного восприятия среднестатистического потребителя в истероидную форму, вызывает симпатии у этого потребителя к автору контента. Благодаря такому положению дел, контент-мейкеры нередко становятся авторитетными фигурами перед своими потребителями. Надо понимать, что здесь работает эволюционно обусловленная особенность для всех высших приматов, включая гоминидов (к этому семейству относится человек), которые учатся только у авторитетов. Но зная, что настоящие авторитеты ныне утрачивают значимость, не помешало бы испугаться того, чему может научиться человек у импозантного сетевого невежды.

“Nullius addictus jurare in verba magistri”
«Не присягнув на верность словам никакого учителя.»

Гораций, послания

Если взглянуть на более высокий уровень, то картина открывается еще более прискорбная и искусственный интеллект занимает в ней плохую роль.

Рассмотрим в качестве примера социальные сети и социально ориентированные приложения, как самые агрессивные агрегаторы данных. Сегодня эти сервисы имеют самую большую аудиторию пользователей, которая по численности обходит даже самые густонаселенные страны. К примеру, Facebook по состоянию на июль 2020 года имел 2.6 млрд активных аккаунтов пользователей.

Статистика по аудиториям социальных сетей за 2020 год

Социальные сети являются одними из самых эффективных площадок распространения информации. И дело тут совершенно не в массовости аудитории (хотя, и в этом тоже), а в том, что, например, новостные дискурсы получают целевого потребителя. Говоря простым языком, пользователь сети получает ту информацию, которую желает потреблять, игнорируя все остальное. Казалось бы, ну хочет пользователь читать и смотреть то, а не это — что в этом плохого? Лица и организации, заинтересованные как в общественной позиции, так и в интересах отдельных лиц, прекрасно понимают, что эта особенность великолепный инструмент для манипуляций общественным мнением и предпочтениями потребителей. Если, допустим мы, будем давать ту информацию, которую хочет видеть пользователь, мы, во-первых, все больше убеждаем его в верности выбора, а во-вторых, вызываем благосклонность к получению данной информации из этого источника, так как по своей природе люди склонны искать подтверждение своих суждений, нежели опровержения.

«Легче одурачить людей, чем убедить их в том, что они одурачены.»

Марк Твен

Таким образом, создается не только зашоренность, но и сужается кругозор и область интересов потребителя. Однако, это не интересует владельцев сети и партнеров, поскольку в их интересы входят только выгоды, в которых заинтересованы они сами (финансы, привилегии, власть и т.п.), а лучший потребитель — это потребитель, которым легко управлять. Управлять мнением не только пользователей, но и группами, когда они сконцентрированы в одном месте, достаточно просто — надо всего лишь корректировать предоставляемую информацию с небольшими искажениями в область своих интересов или подбирать материал соответствующий интересам пользователя, но все более склоняющий его к определенной, выгодной бенефициару, позиции. Такие коммерческие и политические технологии манипуляции с помощью алгоритмов машинного обучения и колоссальных объемов психометрических данных о пользователях, которые они сами того не ведая предоставляют, работают как часы. К слову, ныне популярный мем “Fake News” имеет прямое отношение к этим серьезным обстоятельствам, хотя и воспринимается потребителями информации легкомысленно.

Стоило бы задуматься, что используя зависимости и пристрастия пользователей, небольшим задуриванием фильтрованной и таргетированной информацией, можно не просто убедить и выгнать толпы ничего не подозревающих «карманных революционеров» на улицы, но еще и собрать с них не малые деньги. Что ж, это новый уровень «теневой» диктатуры, которую стоит опасаться, а не той классической и идеологической диктатуры, которая порицается системами конкурирующих сторон (стран или внутрегосударственных элит).

В коммерческой сфере также не мало манипуляций, которые не всегда удается отследить даже тем, кто имеет отношение к созданию таких механизмов. Сегодня рекламные сети, на основе собранных о нас и нашем поведении данных, полностью автоматизировано и не заметно для нас проводят между собой аукцион за пользователей. Предположим, пользователь зашел на какую-то web-страницу или ролик в видеохостинге. Рекламная сеть осуществляет анализ интересов на основе данных о пользователе, по результатам которого проводит автоматический аукцион среди компаний, реклама которых совпадает с предпочтениями этого пользователя, то есть, она продает его той компании, которая, во-первых, платит больше за его внимание, а во-вторых, рекламой которой пользователь заинтересуется с наибольшей вероятностью. Все это происходит за доли секунды.

Скорее всего вы уже замечали, как подбирается для вас реклама и, вероятно, вы могли бы сказать, что это происходит слишком примитивно. Но не торопитесь с выводами. Вся ваша оценка относиться к простейшим алгоритмам рекомендательных систем и их достаточно легко заметить, но те сложные алгоритмы глубокого обучения, учитывающие ваши данные и психометрические параметры, уже повсеместно и эффективно работают, оставаясь для нас практически незаметными. Чтобы разобраться, что это за алгоритмы, лучше всего рассмотреть то, как работает таргетирование контента в социальных сетях.

Современные программные средства, выполненные посредством глубокого обучения, осуществляют предсказания, в нашем же примере ваших предпочтений и поведения с возможностью их корректировки. Я предлагаю вам хотя бы временно отказаться от иллюзии, что вы сознательно выбираете контент для себя. Возможно, вы уже обращали внимание на комментарии пользователей о том, что они не собирались что-то смотреть, но посмотрели, потому что им было это рекомендовано.

Комментарии пользователей

Тот факт, что вы вдруг осознали, что смотрите не то, чем интересовались, подталкивает на размышления о том, что алгоритмы способны угадать то, за что ухватится ваше сознание, прежде чем вы сможете возжелать это сами. Да, можно было бы возразить, что это просто баг и случайность, но, к сожалению, это фича, и так же к сожалению, большинство этого не осознает. Можно сколь угодно это отрицать, но факт остается фактом, а монетизация свободного потребления в том и заключается, чтобы пользователь был продуктом, который можно хорошо продавать.

Важная цель информационных сервисов — создать «информационный туннель», состоящий из последовательности материалов, которыми будет заинтересован пользователь. Пользователь не должен задаваться вопросом «чего бы мне еще посмотреть/почитать» или покинуть сервис, поскольку с точки зрения коллаборации рекламной площадки и рекламодателя это является убыточным обстоятельством.

Так же важно отметить явление коацервации и изоляции убеждений в отдельных группах/каналах, то есть пристрастного и исключительно одностороннего взгляда целой группы, которые исключают носителей иных взглядов. Это прослеживается по отметкам (нравиться / не нравится) близким к абсолютным значениям на материалах, смыслы которых имеют полярные утверждения. Данное обстоятельство сильно поляризует общественность, доводя иногда до чрезмерно радикальных позиций. У людей с устоявшимся радикальным взглядом возникает иллюзия истинности их убеждений и чрезвычайной нетерпимости к отличным взглядам. Конечно же, сплоченные группы единомышленников, всегда хорошо концентрируются в сообществах социальных сетей, а ими, как мы выяснили, очень легко управлять.

Кажется, монополизирующиеся информационные гиганты и властные лица уже заигрались в манипуляциях и частной выгоде и не осознают последствий такой игры в новой реальности. Пора бы задуматься о социальной ответственности, образовании и будущем молодых поколений, в то время как преподаватели университетов уже не скромно намекают, а кричат, что молодежь способна освоить лишь шаблонный навык и не способна к творчеству, а в технологических компаниях жалуются, что не хватает молодых инженеров и архитекторов. Происходящее похоже на театр абсурда, где новые технологии по большему счету используются не во благо общества в целом, а как придется и чаще в личных интересах или интересах организованных групп, усугубляя тем самым адаптационные проблемы человека к новой цифровой эпохе.

Новые технологии не являются плохими и не созданы для того (по крайней мере теми, кто их создавал), чтобы загнать народ в рабство или тоталитаризм (который, кстати говоря, как это ни странно, в современном цифровом мире невозможно организовать). Цифровизация — это наша неизбежность, в которую мы уже окунулись с головой. Это оптимизирует все сферы деятельности человека, ускоряет многие, как производственные, так и социальные процессы. Проблема заключается в идеологиях и социальных институтах, в которых появляются эти технологии. В новых реалиях старые системы устройства общества функционируют иначе и не в выгодном для человеческого развития свете. Весь общественный строй должен быть пересмотрен и трансформирован в соответствии с новыми возможностями. А пока этого не сделано, происходящее выглядит будто бы человекообразная обезьяна снова взяла в руки непонятную палку, которой не знает как пользоваться.

Польза искусственного интеллекта

Не смотря на отрицательные по отношению к развитию человечества манеры применения, все же новые цифровые технологии создаются как ответ на запросы по улучшению качества жизни людей. Мы можем и не догадываться, но сегодня искусственный интеллект сопровождает нас практически везде. Он призван сохранить наше время и биологические ресурсы, чтобы мы могли их потратить на что-то по-настоящему важное для нас.

Безопасность

Большое количество людей крайне негативно относится к появлению на улицах не только большого количества камер, но и других систем отслеживания, сетуя на утрату приватности, при этом, люди совершенно нечувствительны к тому, что носят с собой устройства напичканные сенсорами, включая те же камеры, к которым имеют неограниченный доступ недобросовестные коммерческие монополии, а иногда и преступники. Конкурирующие стороны часто используют эти предрассудки общества в целях сдерживания развития технологий оппонента, а соответственно и социально-экономического климата. В действительности, системы распознавания образов людей, идентификации и предсказания являются мощным инструментом предотвращения преступлений и регуляции общественно значимых процессов, помогающих законопослушным гражданам почувствовать себя в безопасности и комфортных условиях. Помимо этого, в густонаселенных городах, такие технологии снижают риски несчастных случаев, отслеживая опасные ситуации и оптимизируя трафик.

Система распознавания пешеходов и транспортных средств SenseVideo, а также система распознавания лиц SenseFace одной из самых известных в мире компаний в области искусственного интеллекта SenseTime.

Искусственный интеллект помогает не только улучшить криминальную обстановку и жизнь городов, но и предотвращать бедствия. Например, с помощью систем предсказания, на основе статистических гидрологических, геологических и прочих данных, предотвращаются серьезные последствия разливов рек, лесных пожаров и других стихийных бедствий. ИИ также помогает в проектировании безопасных магистралей и сооружений. И это лишь малая часть того, что можно описать в рамкам данной статьи.

Медицина

Искусственный интеллект занимает важное положение в медицине в качестве клинических систем диагностики и принятия решений. Как уже рассказывалось выше, специально обученные модели распознавания выявляют болезни по рентгеновским и томографическим снимкам, диаграммам и симптомам, консультируют и назначают лечение. Роботы-ассистенты, например, такие как «da Vinci», которые используются в сотнях клиник по всему миру, помогают проводить хирургические операции. Людям с утраченными конечностями стали доступны «умные» протезы; например, в ножном протезе с серво-машинками в суставах закладывается модель машинного обучения, которая обучается так, чтобы распознавать движения и намерения пользователя, что позволяет ему перемещаться значительно свободней, чем с обычным механическим протезом. ИИ не обошел стороной и сферу психологической помощи в медицине — уже существуют интеллектуальные приложения для работы с психологическими проблемами.

Транспорт

Возможно, уже чуть ли не каждому удалось увидеть на улицах городов беспилотные автомобили. Но автономные системы управления используются не только на автомобилях. Так, компания Cognitive Pilot в 2020 году выпустила на поля беспилотные комбайны для уборки урожая. Фантастические сцены из фильма «Интерстеллар» превратились в реальность. Комбайны с автопилотом 6 не только лучше справляются со сборкой урожая, а также замечают и объезжают гнезда птиц, спасая их от гибели. Внедряются системы автономного вождения в трамваи и поезда, которые способны осуществлять мониторинг ситуации на путях на расстоянии до 1 км. Руководитель компании Cognitive Pilot Ольга Ускова на конференции AI Journey 2020 рассказала трагикомичный случай, как одному мужчине не удалось покончить жизнь самоубийством из-за того, что локомотив заметил подозрительное поведение на путях на достаточном расстоянии и успел остановиться.

Энергетика и промышленность

Сложно представить себе производственный цех без роботов (например на автомобильном заводе); но применение ИИ на производствах распространено гораздо шире, от логистики и складов до проектирования и контроля качества высокотехнологичных деталей. Модели машинного обучения осуществляют также контроль работы на электростанциях, в особенности на атомных, что сокращает размер персонала. Маломощные станции могут работать полностью в автоматическом режиме без участия человека.

Сфера услуг и поддержка

Все чаще встречаются рекомендательные сервисы, где людям предлагают наиболее подходящие для них варианты товаров и услуг, избавляя от длительного и мучительного выбора. В домах появляются устройства «умного дома». В службах поддержки компаний работают автоматы, которые понимают вопросы и способны консультировать людей по телефону. Некоторые из них практически невозможно отличить от живых людей, если не использовать специальные приемы. Вероятно, виртуальными помощниками, такими как Siri, Google, Алиса, Кортана, Афина и т.д, никого уже не удивить. Они все больше интегрируются в нашу жизнь и уже способны за нас заказывать продукты в магазинах, бронировать номера в отелях, записывать вас на прием по телефону без нашего участия.

СБЕРБАНК: Чем я могу помочь?
КЛИЕНТ: Соедините с оператором!
СБЕРБАНК: Я много могу, назовите ваш вопрос!
КЛИЕНТ: Период полураспада радия?
СБЕРБАНК: Похоже ваш вопрос слишком сложен для меня, соединяю с оператором...

...некоторое время спустя...

СБЕРБАНК: Чем я могу помочь?
КЛИЕНТ: Период полураспада радия?
СБЕРБАНК: 1600 лет, я тоже люблю физику.

Экономика

Вот уж где точно не обойдется без цифр и математики, так это в экономике. Одной из самых важных задач экономики является планирование и автоматизация производства. Василий Васильевич Леонтьев, нобелевский лауреат по экономике утверждал, что планирование — это решение множества систем линейных уравнений. Однако, даже в прошлом веке объем вычислений необходимых для такого планирования был весьма велик. Что уж говорить про нынешние дни. Поэтому задачей искусственного интеллекта в сфере экономики является, как автоматизация технологических процессов, так и создания сложных систем планирования оптимизированных под современные вычислительные возможности, без которых сегодня совершенно нельзя обойтись.

Медиа и развлечения

ИИ используется издателями статей и новостей для увеличения трафика путём таргетированного размещения статей на платформах социальных сетей. Развлекательные компании, поставщики фильмов и сериалов также пользуются подобными средствами, предлагая пользователям то, что по предсказаниям систем искусственного интеллекта будет наиболее интересно для них. Уже несколько лет существуют технологии машинной генерации музыки, которая нередко используется блогерами для озвучивания видео или даже исполнителями песен. Искусственный интеллект способен симулировать и виртуальную реальность. Например, компания Microsoft в своей игре Flight Simulator использует возможности ИИ, чтобы воспроизвести города и ландшафты в разных концах планеты. Результаты получились настолько хорошими, что некоторые города невозможно отличить от реальных видов с воздуха. Это невольно напоминает о симуляции мира в фильме «Матрица». ИИ также используется для создания дополненной реальности. Нельзя обойти стороной и искусственный интеллект, который уже не один десяток лет используется в играх. В некоторых играх поведение ботов настолько реалистичны, разнообразны и умны, что создается ощущение, будто в игре присутствуют живые игроки.

Разработка и исследования

Как это ни странно, но искусственный интеллект оказывается весьма полезным для разработки приложений и самого же себя, а также для обучения специалистов области. Алгоритмы способны самостоятельно синтезировать программный код для решения конкретных задач. Возможности ИИ ускоряют разработку и снижают зависимость от low-end разработчиков.

Методы машинного обучения используются и в науке, например, в биологии (биоинформатика) и химии (химоинформатика). Так, например, в последней алгоритмы машинного обучения применяются для планирования синтеза органических соединений и прогнозирования свойств химических соединений. Использование искусственного интеллекта не ограничивается только этими двумя областями наук.

Что ж, это была лишь краткая справка того, где ощутима польза искусственного интеллекта. Охватить все области применения и детализировать их не представляется возможным. Системы искусственного интеллекта пронизывают почти все сферы деятельности человека и являются неоценимыми ассистентами в нашей жизни, которые ускоряют технологическое развитие и улучшают качество жизни человека.

Подводя итоги

Понятие «Искусственный интеллект» является общепринятым обобщением, означающим огромный набор инструментов, приходящих на помощь интеллектуальным способностям человека, но ошибочно воспринимаемых, как целостное существо. В силу того, что человек не может мыслить вне рамок антропоморфизма, представления об искусственном интеллекте неизбежно наделяются человеческими мотивациями и приобретают антропоморфные формы.

Точно так же и механические инструменты приходят на помощь физическим возможностям человека, однако, обобщенное понятие «инструмент» не означают некую целостную сущность с неограниченными самостоятельными возможностями и мы это прекрасно понимаем. Цифровые технологии менее очевидны для людей нежели технологии физических механизмов, поэтому представления о первых сильнее подвержены искажениям.

Следует понимать, даже учитывая высокие возможности инструментов искусственного интеллекта, что эти технологии чрезвычайно примитивного уровня организации сложности и не способны работать без участия и мотивации человека. Кроме того, искусственный интеллект имеет принципиальные отличия от естественного, хотя многие концепции и были заимствованы именно из биологии. Это подобно тому, как планер самолета был создан благодаря наблюдениям за птицами, но имеет мало общего с тем, как они летают. Человек, имея гносеологическую и онтологическую функции, способен имитировать физические процессы мира в своих изобретениях, познавая его, но он не может воспроизводить эти процессы в деталях. Точно так же мозг и функции мозга, начавшие свое формирование миллиарды лет назад чрезвычайно тонкими процессами, не могут быть изучены всецело и искусственно воспроизведены человеком (пока неразрешимые проблемы в этом также создают загадки на квантовом уровне). Это означает, что и общий искусственный интеллект, если он будет достигнут, будет иметь совершенно иные принципы, но те, которые мы сейчас не способны предсказать. А уж сможет ли сверхсильный искусственный интеллект осознать свое бытие и возыметь мотивации — это и тем паче пока предмет научных споров.

Серьезные заблуждения о перспективах ИИ подливает современная философская мысль. Чтобы избежать методологических и теоретических ошибок в области машинного интеллекта необходимо иметь глубокие знания сразу в нескольких предметных областях (математика, программирование, алгоритмика, нейрофизиология, наука о данных и т.д.). Проблема современной философии в данной сфере в том, что один человек не в состоянии всецело охватить знания даже пары-тройки дисциплин. Таким образом рассуждения, отдаляясь от адекватной состоянию дисциплин аргументации, сильно искажаются, чего уж говорить о тех «философах», которые имеют к этим дисциплинам косвенное отношение. Большинство из них даже не понимает о чем рассуждают, имея лишь иллюзию понимания.

Вероятно, у нас получится сделать искусственный мозг, который сможет действовать по собственному разумению, но ИИ сегодня застрял в ассоциациях и аппроксимациях, пусть это и делается во впечатляющих масштабах (например, GPT-3), но в принципе, в этом пока нет никакой «думающей» модели как таковой.

Искусственные глаза (импланты)

Искусственные глаза (импланты) Бато. Кадр из фильма «Призрак в доспехах».

Не нужно беспокоиться, что искусственный интеллект сможет нас уничтожить или взять какие-то важные функции на себя. Здесь гораздо больше предубеждений, что может поставить людей в невыгодное положение. Создавая ИИ, мы создаем фундаментально отличный мозг и он действует на основе того багажа который в него заложили ученые, политики, коммерсанты. Путь который выбирает ИИ зависит от обучения, через которое мы его пропускаем, а также от того, какие задачи мы на него возлагаем. И все же, нет оснований полагать, что ИИ унаследует цели и предвзятости больших лидеров. Нынешние проблемы развития цифровых технологий гораздо прозаичней. Следствием демографического упадка конца 20 и начала 21 века, является нынешняя нехватка молодежи, и в первую очередь интеллектуальной, которая необходима для развития инфраструктуры. Из-за этого ИИ развивается медленно, в то время как когнитивные навыки людей несравнимо быстрее утрачиваются из-за дезадаптации и дезорганизации общества в атмосфере новых цифровых технологий. В таких условиях есть шансы «не доползти» до общего искусственного интеллекта и его невероятных возможностей, а поэтому и нет смысла сейчас беспокоится о том, каким он будет. Гораздо важнее сегодня озаботится образованием и интересами молодых людей.

Если же смотреть в будущее с оптимизмом, то можно предположить симбиотическое слияние. Одной из важных особенностей организмов является то, что они адаптируются к среде, меняя свои биологические функции под эту среду, в каком-то смысле сливаясь с ней и становясь ее частью. А особенностью человеческого вида является то, что он умеет в значительной степени менять среду под себя и делает это быстрее, чем сам может приспособиться к ней. Учитывая растущее обилие технологий (без сомнений являющиеся новыми средовыми факторами) и функции организмов сливаться со средой, предполагает слияние технологий с биологией. У человека много проблем со здоровьем и ограниченными возможностями. И действительно, технологии могли бы нам позволить избавиться от многих болезней, решить проблемы с несовершенством и ограниченностью нашего биологического мозга, увеличить прочность наших тел, устойчивость к окружающим средам, получить дополнительные сенсоры и неограниченный обмен информацией с возможностью ее быстрой обработки, имея при этом постоянную связь с глобальным искусственным интеллектом и доступ ко всем накопленным знаниям. На самом деле такое представление имеет неплохое сходство с тем, что происходит сейчас. И если эти зачатки, которые сегодня есть, правильно развивать, то вполне можно ожидать, что почившему в бозе Homo Sapiens, точно так же как и его предок, придет новый вид Homo Deus.

Примечания

1. Стивен Бробст, Teradata. AI Journey 2020 — Снижение влияния стереотипов при создании систем искусственного интеллекта.

2. Джордж Миллер, 1956г. — «Магическое число семь — плюс-минус два»

3. «Чат-бот Tay от Microsoft с искусственным интеллектом, получил ускоренный курс расизма от Twitter» — Theguardian.com 2016г.

4. Футурошок — Шок будущего характеризуется внезапной, ошеломляющей утратой чувства реальности, умения ориентироваться в жизни, вызванной страхом перед близким будущем. Он вызывается усиливающимся давлением событий, потоком знаний, науки, техники, различного рода информации. Термин сформулирован в книге Элвина Тоффлера «Шок будущего», вышедшей в свет в 1970 году.

5. Цифровая зависимость и деменция — cyberleninka.ru

6. Комбайны с искусственным интеллектом собрали 720 тыс. тонн урожая — cognitivepilot.com