"ЗАВТРА". Константин Вячеславович, хотелось бы начать с самого термина "искусственный интеллект". В ваших работах вы пишете о том, что он не совсем корректен. Как же тогда правильно?
Константин ВОРОНЦОВ, доктор физико-математических наук, профессор РАН, профессор МГУ и МФТИ, эксперт в области машинного обучения и искусственного интеллекта. Термин "Artificial Intelligence" (AI) был предложен Джоном Маккарти летом 1956 года на знаменитой конференции в Дартмутском университете, которая считается стартовой точкой в развитии AI как области исследований. На тот момент название отражало не вполне ясную мечту учёных, отдалённую перспективу. Это была метафора. И ею остаётся по сей день. Не очень удачное название и ещё менее удачный русский перевод. В английском языке термин AI не имеет той антропоморфной окраски, которая возникает в русском. Слово intelligence скорее означает "умение рассуждать разумно", а вовсе не "интеллект", для которого есть английский аналог intellect. Пока мы не создали ничего искусственного, что можно было бы по праву называть интеллектом. Это зонтичный термин для обозначения кучи компьютерных технологий, с меньшим или большим успехом решающих разнообразные трудные задачи. Сначала программы научились играть в шашки, потом в шахматы. Потом осилили задачи прогнозирования и принятия решений в некоторых профессиональных областях, например, в медицинской диагностике, в геологии, в экономике. Да, название неудачное. Набор технологий не стоит называть интеллектом.
"ЗАВТРА". А какое было бы удачным?
Константин ВОРОНЦОВ. Позволяя себе лёгкий троллинг, предлагаю расшифровывать аббревиатуру ИИ как "Имитацию Интеллекта". По сути, ровно так оно и есть. Корректней было бы говорить о математических моделях восстановления зависимостей по эмпирическим данным. Термин звучит громоздко и слишком наукообразно, поэтому применяется реже.
"Машинное обучение" — тоже очень старый термин, его в 1959 году предложил Артур Сэмюэль, автор первой программы для игры в шашки. Когда мы говорим про "обучение", то имеем в виду, что программа обучается по данным, то есть сама оптимизирует свои параметры так, чтобы на имеющихся данных её предсказания были максимально точными. Современный ИИ практически невозможен без данных. Раньше было не так. На первом этапе развития ИИ, с 50-х годов примерно до 80-х, преобладали технологии экспертных систем. Эксперт, хорошо решающий трудную профессиональную задачу, должен был сформулировать правила, с помощью которых он это делает. Затем инженеры по знаниям и программисты кодировали эти правила, перенося их в "экспертную систему". Бум экспертных систем завершился, когда стало понятно, что отследить логику взаимодействия большого числа правил крайне трудно. Инженеры упёрлись в "потолок сложности" таких систем. Стало ясно, что проще сделать программу, которая сама будет выводить правила из данных. Это и есть машинное обучение. Альтернативное название — эмпирическая индукция. Вполне точное и красиво звучит, но, увы, не прижилось.
"ЗАВТРА". Это сильно ускоряет процесс разработки интеллектуальных систем?
Константин ВОРОНЦОВ. Да, радикально. Можно убрать долгий процесс интервьюирования экспертов. Эксперты не всегда в состоянии формализовать свои знания, зачастую они интуитивные, неполные, противоречивые. Разные эксперты применяют свои знания и рассуждают по-разному. Например, врачи, учившиеся в разных научных школах.
Машинное обучение автоматизирует процесс извлечения знаний из данных. Обучение глубоких нейронных сетей идёт ещё дальше, автоматизируя ещё и предварительную обработку сложноструктурированных данных, таких как изображения, видео, сигналы или тексты на естественном языке. Всё это вместе мы и называем искусственным интеллектом. Хотя интеллекта там нет на самом деле, есть его имитация.
"ЗАВТРА". Была такая научно-фантастическая теория, что после смерти человека ИИ изучил его страничку в соцсетях, и потом мессенджер отвечал так же, как тот человек. Насколько это возможно?
Константин ВОРОНЦОВ. Да, это возможно. Если у вас есть много текстов, написанных тем человеком, то можно имитировать его знания и стиль высказываний. Можно даже заставить имитатор рассуждать на тему новых событий, о которых человек не мог знать при жизни. Если объединить стиль человека с текущими новостями, то можно создать иллюзию, что он заговорил о современных событиях. Это не фантастика, это уже работает, и это даже не очень сложно. Но речь идёт опять-таки об имитации.
"ЗАВТРА". Расскажите о трендах ИИ. Как они меняют и будут менять жизнь людей в ближайшем будущем?
Константин ВОРОНЦОВ. Основной девиз всех трендов — "больше автоматизации". ИИ будет помогать людям выполнять рутинную работу повсюду. Вообще говоря, нет такой самостоятельно цели — воспроизводить какие-то когнитивные способности человека. Есть прагматичные цели помогать людям делать их работу, делать её более творческой, оставляя за человеком целеполагание и ответственное принятие решений. Пусть машины делают всю рутину. Чем машина умнее, тем лучше. Одно дело, когда бригада рабочих на экскаваторе может срыть гору, вырыть яму, прорыть туннель. Теперь представьте себе интеллектуальный копатель земли, которому вы говорите: "Срой вот эту гору, сделай анализ породы, проверь, нет ли там руды какой-то или ещё чего-то полезного". Он едет, выполняет задание, да ещё оптимизирует расход топлива и стоимость работ. Таким задачам ИИ вполне может научиться уже в ближайшие годы. К этому идёт.
"ЗАВТРА". А что ещё?
Константин ВОРОНЦОВ. Интеллектуальных роботов будут отправлять туда, куда человеку трудно пробраться или трудно эффективно функционировать — места радиоактивного заражения, океанские глубины, открытый космос. Туда, где среда агрессивна к человеческому организму. Элементы интеллекта необходимы, чтобы роботы адекватно реагировали на непредвиденные ситуации. Как добывать полезные ископаемые с глубины в пять километров в океане? А ведь захочется, и в какой-то момент очень сильно.
Другое применение — офисная автоматизация. Например, в фильме "Она" американского режиссёра и сценариста Спайка Джонса показана операционная система, которая общается с пользователем на естественном языке, берёт на себя обязанности секретаря, всю деловую переписку. Проанализировав кучу информации, подсказывает оптимальные решения на переговорах. Такого сорта интеллектуальные помощники — тоже наше недалёкое будущее.
"ЗАВТРА". То есть это уже даже не научная фантастика…
Константин ВОРОНЦОВ. Самым фантастичным в этом фильме была любовная история, когда главный герой начал воспринимать "операционку" как настоящую женщину. Абсурдная ситуация. Здравомыслящий человек не станет воспринимать машину как личность, как бы она ни прикидывалась. Просто мы к этому пока не привыкли. Нам придётся учиться правильно воспринимать такие устройства не как разумных существ, а как имитации. Если мы поддадимся этому когнитивному искажению, то следующим ходом зададимся вопросом, "не наделить ли их юридическими правами?" Ввести кроме физических и юридических лиц ещё и электронные лица… Этого нельзя допускать, так как у них нет и не может быть ни личности, ни собственной воли; может быть только имитация, заложенная разработчиком. Мы строим нашу человеческую цивилизацию, нам не нужна машинная цивилизация, в которой они принимают решения за нас.
"ЗАВТРА". Теоретически если, например, человек испытывает чувство любви, привязанности, это же тоже определённые команды. Если ИИ научится их распознавать и имитировать. Может быть такое?
Константин ВОРОНЦОВ. Может. Смоделировать можно всё, что угодно. Но человек не должен обманываться. На самом деле мы быстро научимся и привыкнем. Вспомните, вы идёте по торговому центру, там стоит манекен. Вы боковым зрением его замечаете и дёргаетесь, потому что вам кажется, что это человек. Секунду посмотрели внимательнее: "Ой, манекен!" Улыбнулись и пошли дальше. В этот момент вы прервали своё когнитивное искажение. Мы тут же замечаем и относимся с юмором к тому, что ошиблись и приняли манекен за человека. Так же должно быть, когда интеллектуальное устройство прикидывается человеком. Оно может делать вид, будто понимает ваши тайные движения души. В этот момент вы должны улыбнуться и сказать себе: "Стоп. Ты — машина. Я могу тебя выключить. Ты будешь делать ровно то, что мне нужно. Никаких манипуляций со мной. Ты не мыслишь, ты вычисляешь. Я здесь хозяин ситуации. Мы создали тебя для того, чтобы ты нам помогал". Никаких здесь не может быть разговоров на равных. Никогда. Потому что, если они начнутся… да, "Матрицу" мы все смотрели.
Кстати, я неожиданно обнаружил, что многие люди, насмотревшись таких фильмов, начали об этом мечтать. Сначала я думал, что они шутят. Оказалось, нет. Их и в самом деле очаровал этот страшный мир, этот ад, и им туда захотелось. Это ведь манипуляция, обман нашей психики, и с этим надо обращаться очень осторожно.
"ЗАВТРА". Стремление к саморазрушению?
Константин ВОРОНЦОВ. Стремление к любой красивой картинке, которую показали достаточное число раз, чтобы она стала навязчивой идеей. Искусственные миры могут обладать привлекательностью не потому, что это достойные образы будущего, а только потому, что они реалистичны, детально продуманы и прорисованы, они сначала цепляют за эмоции, затем вызывают привязанность. Форма может вызывать восхищение, а содержание — оказывать деструктивное воздействие на психику. Или кто-то авторитетный может прийти и сказать одно только слово "прикольно". Это всё примеры манипуляций, паразитирующих на наших когнитивных искажениях. Что можно этому противопоставить? Знание того, как это работает. Правильное образование, систему ценностей, идеологию. Про когнитивные искажения, методы научного познания и рационального мышления надо рассказывать в школах и университетах, снимать популярные видео. Про то, что к технологиям искусственного интеллекта надо относиться как к имитации, как к манекену, тоже надо знать. Если система пытается играть на наших чувствах, то это манипуляция от её производителя. Следующий вопрос — с какой целью он это делает. Догадались, улыбнулись, идём дальше.
"ЗАВТРА". Причём, это мало просто знать. Это нужно ещё постоянно помнить.
Константин ВОРОНЦОВ. Конечно! Да и мало помнить, надо ещё практиковать постоянный самоконтроль.
"ЗАВТРА". Мы часто слышим опасения, что ИИ может привести к тому, что человеческий труд станет ненужным. Насколько эти риски в целом реальны?
Константин ВОРОНЦОВ. Люди всегда боялись, что технологии лишат их работы. Вспомним восстание луддитов против чулочных машин. Однако новые технологии, возникая, всегда создают новые профессии. Мы плохо умеем прогнозировать, какие именно и сколько именно. Здесь я техно-оптимист. Люди всегда найдут себе занятия.
Есть ещё одно расхожее опасение — что автоматизировав промышленные производства и цепочки поставок, затем конструкторскую деятельность, мы создадим мир машин, которые будут воспроизводить сами себя и постепенно совершенствоваться. Они не только лишат людей работы, но и смогут составить конкуренцию людям и всему живому на Земле.
"ЗАВТРА". То есть теоретически такой расклад событий реален?
Константин ВОРОНЦОВ. В очень далёком будущем. Это долгий и безумно дорогой проект. Для этого кто-то должен решиться перейти "красные линии" и целенаправленно десятилетиями работать в этом направлении. Не какой-то безумец-одиночка, а огромные профессиональные сообщества. Чтобы избежать такого сценария, нужна идеология, которая даст людям ценностные ориентиры, направит на созидательное развитие, даст позитивные картины будущего. Ведь риски создают сами люди. Не технологии, а то, как мы ими пользуемся, и наше отношение друг к другу. Самый большой риск для человека создают другие люди, к сожалению. И когда эти риски усиливаются технологиями, становится по-настоящему страшно.
"ЗАВТРА". Хочется как раз на этой теме остановиться. Как сейчас применяется ИИ в военных действиях?
Константин ВОРОНЦОВ. Я человек сугубо гражданский и секретов никаких не знаю. Это и хорошо — ничего не разболтаю! Высокоточное оружие без технологий ИИ точно не обходится. Те самые глубокие нейронные сети для распознавания изображений, видео, обработки сигналов там активно используются. Даже если крылатую ракету или беспилотник наводит оператор, то массу рутинных операций по управлению аппарат производит сам. Идёт к тому, что истребительная авиация скоро станет беспилотной. Пилот не может летать на больших перегрузках, не может мгновенно реагировать на изменение боевой обстановки. Значит, он проиграет воздушный бой беспилотнику. К чему это приведёт? Воевать будет рой беспилотных летательных аппаратов. Можно полностью исключить людей из боевого столкновения просто потому, что люди уже не эффективны. Вооружённое противостояние во всех средах — на земле, в воде и в воздухе одновременно — будет вестись беспилотниками. Вся военная операция будет планироваться алгоритмами. Скорее всего, противники будут знать алгоритмы друг друга. Тогда вопрос — если сражение или даже всю кампанию можно просчитать заранее, то зачем его проводить? Это как в преферансе: сели, посмотрели на наши карты и согласились, что эту партию мы не играем, мы её просчитали и всем понятен результат. Следующий вопрос: если незачем уничтожать в сражениях тонны дорогостоящих роботов, то зачем их вообще производить? Можно, конечно, помечтать, что дальнейшее развитие технологий сделает войны бессмысленными… Хотя, вряд ли. Военная партия всё же разыгрывается, если каждая сторона уверена, что у неё есть секрет, который неизвестен противнику.
Есть и другие, гибридные, способы ведения войны — социально-экономические, миграционные, культурологические. Мы видим, как работает пропаганда, что такое информационная война. Целому народу за 20–30 лет можно перепрошить сознание, вплоть до смены системы ценностей, социокультурного кода. В знаменитом трактате Сунь-Цзы "Искусство войны" (пятый век до нашей эры) идеальной войной называется обман населения противника. "Пусть на улицах вражеской столицы шепчутся, что князь обворовывает народ, советники его предали, чиновники спились, а воины голодные и босые. Пусть жители калечат имя своего князя и произносят его неправильно… Пусть им при сытой жизни кажется, что они голодают. Пусть состоятельные жители завидуют тем, кто в княжестве Вэй пасёт скот. Разжигайте внутренний пожар не огнём, а словом, и глупые начнут жаловаться и проклинать свою родину. И тогда мы пройдём через открытые ворота". Кажется, что с нашей страной воюют именно по этой методичке — слишком уж точно всё совпадает. Причём воюют давно, не 30 лет и даже не 80.
Воздействие на массовое сознание стало высокотехнологичным видом вооружения. Сейчас мы гораздо лучше пониманием, как это работает, чем во времена Первой мировой войны, когда теория пропаганды только зарождалась. В ХХ веке войны развязываются и выигрываются в значительной степени на идеологическом фронте. Для создания обычных вооружений нужны знания технических и естественных наук, а здесь это гуманитарные науки: психология, социология, культурология, история, лингвистика, психолингвистика. А искусственный интеллект и анализ данных нужны сейчас вообще везде, это сквозные технологии.
"ЗАВТРА". А насколько Россия, на ваш взгляд, успешна в этих новых технологиях?
Константин ВОРОНЦОВ. На провокационные вопросы положено отвечать уклончиво, правда же? Знания, наука и технологии интернациональны. Если человечество успешно в технологиях, то и Россия успешна. Возможно, Россия более успешна в своих секретных технологиях, а другие страны — в каких-то своих других. Но я же секретов не знаю!
Если говорить об информационных войнах, то, с одной стороны, Россия явно проиграла Западу информационную войну за Украину. Они долгие годы вкладывали гигантские ресурсы: знания, технологии, деньги, — чтобы переформатировать мышление населения, переписать историю, перенести образы врага из анекдотов в реальную жизнь. Культурологическое оружие не стреляет, оно работает тихо, незаметно, постепенно. С другой стороны, в последнее время бывшие агенты ФБР стали всё чаще говорить, что Россия выигрывает у них информационные войны. И не одну, а много — одну за другой… Врут, наверное, чтобы свалить свои беды на Россию… хотя, в любой пропаганде можно отыскать долю правды.
"ЗАВТРА". То есть технология защиты у нас работает хорошо?
Константин ВОРОНЦОВ. Недостаточно хорошо. Есть ещё что совершенствовать и куда стремиться. Именно поэтому мне интересны технологии искусственного интеллекта, которые можно применять для защиты от пропаганды, информационной войны, идеологических атак.
Недавно мы открыли новую лабораторию в Институте искусственного интеллекта Московского государственного университета. Будем заниматься научными проблемами в области ИИ и нетривиальными задачами понимания текстов естественного языка. В частности, создавать алгоритмы анализа новостного и публицистического контента. Где в тексте манипуляция? Как нас пытаются обмануть? Какие замалчивания используются для пропаганды? Где идеологические установки, идеологемы? Какие месседжи нацелены на изменение системы ценностей, нашего отношения к тем или иным вопросам или событиям. Что нужно рассказывать человеку и с какой регулярностью, чтобы он стал плохо относиться к собственной Родине? Раньше, может быть, хорошо относился, гордился. Считал, что неплохо живёт. Как так случилось, что теперь он считает, что живёт в отсталой стране, при этом продолжая пользоваться многими благами, которых в других странах нет?
Даже экспертам порой трудно идентифицировать такого рода угрозы в медиаматериалах. Мы замахиваемся на амбициозную задачу — научить алгоритмы распознавать угрозы в огромном потоке текстов. Решать эти задачи невозможно без привлечения специалистов гуманитарных профессий: лингвистов, психологов, социологов, политологов, историков.
"ЗАВТРА". Может быть, здесь как раз физикам надо объединиться с гуманитариями, чтобы создать достойное противостояние.
Константин ВОРОНЦОВ. Вы совершенно правы! Именно поэтому мы нацелены на междисциплинарные исследования на стыке искусственного интеллекта и гуманитарных наук. Гуманитарные знания позволяют препарировать такие явления, как речевые манипуляции, психоэмоциональные воздействия текста, идеологемы и мифологемы, поляризации общественного сознания. Человек, читая текст, как правило об этом не задумывается. Воспринимает то, что ему сообщают. Но нам крайне трудно воспринимать то, что нам не сообщают, — улавливать замалчивания. А ведь это один из основных приёмов пропаганды. Компьютеру, наоборот, легче находить замалчивания, поскольку поиск — это задача вычислительная. Зато компьютеру труднее определять смыслы, для этого нужна большая работа по созданию обучающих выборок. Наша цель — создать технологию, которая будет помогать людям находить правду. Подсказывать, где в тексте фейк, где манипуляция, где замалчивание. Где узнать разоблачение фейка или альтернативное мнение, источник информации. По сути, специализированная поисково-рекомендательная система для защиты от пропаганды.
"ЗАВТРА". Получается такое информационное разоружение.
Константин ВОРОНЦОВ. Да, именно так. Коль скоро пропаганда как средство нападения использует продвинутые информационные технологии, значит должно быть и адекватное средство защиты. Вечное противостояние меча и щита. Невозможно выиграть войну, если к вам пришли завоеватели с винтовками, а у вас только копья и деревянные щиты.
"ЗАВТРА". А сколько времени понадобится на разработку такой программы?
Константин ВОРОНЦОВ. Уверен, что такие технологии появятся в ближайшие годы. Не мы сделаем, так кто-то другой. Уровень технологий созрел для решения таких задач. Значит, решения появятся обязательно.
"ЗАВТРА". Хочется остановиться на этических моментах. В своём блоге на "Дзене" вы пишете про цивилизационную идеологию и опасности политики постправды. Что вас к этому привело?
Константин ВОРОНЦОВ. Недавно начал вести блог под названием "Цивилизационная идеология". Привели к этому довольно типичные вопросы, которые задают себе многие учёные. Чем в первую очередь стоит заниматься в области ИИ? Надо ли стремиться к созданию общего искусственного интеллекта — AGI (Artificial General Intelligence), который сможет заменять человеческий разум практически во всём? Почему мне и некоторым моим коллегам это кажется лишним и даже опасным? Куда приведут человечество те технологии, которыми мы с увлечением занимаемся всю нашу профессиональную жизнь? И надо ли туда человечеству?
Ответы на эти вопросы даёт не наука, а идеология. А её нет. Точнее, есть разные идеологии, которые приводят к разным спорным мнениям. Поэтому есть потребность выстроить простую, логичную, естественно-научную картину мира, которая будет давать чёткие ответы на вопросы, с какой целью мы создаём наши технологии, в чём их опасности, и как их избежать.
Начнём с бесспорного — с системы ценностей. Независимо от национальных, культурных, образовательных, социальных и прочих различий, людей объединяет общая цель — все вместе мы строим человеческую цивилизацию. Мы создаём всё более мощные технологии, способные уничтожить не только нас самих, но и жизнь на Земле. Тем самым мы берём на себя ответственность за сохранение этого редчайшего явления, уникальной драгоценности во Вселенной. Цель цивилизации — выживание нас как биологического вида в биосфере Земли — в той среде, к которой мы приспосабливались миллиарды лет эволюции.
Добро — это всё, что способствует достижению этой цели: любовь, познание, созидание. Зло — всё то, что этому препятствует: ненависть, невежество, вандализм.
Главное зло находится в нас самих, это наша архаичная звериная потребность доминирования, тяжёлое наследие миллионов лет эволюции человека как хищного социального животного. Она порождает алчность и агрессию, отравляет экономические, социальные и политические отношения. Кстати, семь смертных грехов: гнев, жадность, леность, зависть, гордыня, похоть, ненасытность, — не что иное как остатки всего звериного в нас.
Главное цивилизационное противоречие в том, что наши технологии уже способны менять окружающую нас социальную и природную среду, тогда как наш мозг всё ещё выстраивает социальные отношения по звериному образцу. Использование технологий в целях доминирования порождает несправедливость, конфликты, войны и увеличивает риски самоуничтожения цивилизации. Мы поставлены перед дилеммой: либо апокалипсис, либо срочно менять себя и становиться цивилизованными — укрощать своего "внутреннего зверя", возвращаться к задаче воспитания нового человека.
Опасны не технологии. Опасно то, как люди их применяют, с какими целями, какая идеология их направляет. Какие образы будущего вдохновляют учёных и политиков, элиту общества. Интеллектуальные машины смогут уничтожить всё живое на этой планете, если мы дадим им такие способности. Если мы будем целенаправленно к этому идти. Общий искусственный интеллект (AGI) — это машина, способная конкурировать с людьми за выживание на Земле. Нам ведь именно для этого даны все наши органы чувств и когнитивные навыки. AGI собирается их воспроизводить. Кажется, что это противоречит цивилизационным целям и ценностям.
Вообще, цивилизационная идеология — это инструмент мышления и поиска ответов на вопросы о будущем. Понятийный аппарат для обсуждения целей, проблем и препятствий на пути цивилизационного развития.
Как относиться к глобализации? С одной стороны, это естественное следствие научно-технического прогресса, свободы перемещения людей, капитала и информации. Это позитивные цивилизационные процессы. Они имеют огромный потенциал для выравнивания уровней благосостояния стран, территорий, социальных групп, отдельных людей. Если этого не происходит, то не по вине прогресса и глобализации. Скорее, по вине элит, использующих эти процессы для усиления собственной власти, то есть доминирования.
Почему для развития цивилизации важно культурное разнообразие? По той же причине, почему биоразнообразие необходимо для эволюции биологической. Если популяцию унифицировать, она начнёт деградировать. Взаимообогащение культур возможно при условии их относительно обособленного самостоятельного развития. Поэтому сохранение культурной идентичности входит в систему цивилизационных ценностей. Поддержание культурного разнообразия требует многополярного политического устройства мира. Если вас не устраивает чья-то модель развития и вы мешаете ему развиваться, то это антицивилизационная деятельность, чистое зло.
Как относиться к идее мирового правительства? Как к высшей форме доминантности и ущербной модели управления. Единый центр власти будет стремиться к упрощению функций управления, унификации мировоззрения, культурному единообразию. Идеология неолиберализма даёт слишком много свободы "внутреннему зверю". На словах это демократия и свобода, а на деле — доминантные элиты впервые в истории человечества подбираются к реальной технологической возможности узурпации власти над миром.
Почему постправда представляет угрозу для цивилизации? Потому что это новая форма пропаганды, к распространению которой подключаются миллионы добровольцев в социальных сетях. Ложные картины мира собирают своих сторонников в "информационных пузырях", способствуя поляризации общества и эскалации конфликтов. Заодно постправда обесценивает стремление человека к познанию. И этим также подрывает фундаментальные основы цивилизационного развития. Политика постправды используется доминантными элитами для ведения информационной войны, сдерживания и дестабилизации конкурентов и геополитических противников. То есть функции постправды — исключительно антицивилизационные.
Получается, что вопрос о целях и трендах развития технологий ИИ приводит в итоге к цивилизационной идеологии — мировоззренческой конструкции, способной давать оценки многим явлениям нашей жизни и отвечать на непростые вопросы о нашем будущем.