Зачем мозгам роботов нужны символы

В настоящее время словосочетание «искусственный интеллект», кажется, на устах практически у всех, от Илона Маска до Генри Киссинджера. Как минимум порядка дюжины стран развивают масштабные программы в области ИИ. Такие компании, как Google и Facebook, соревнуются за талантливых специалистов. Но с 2012 года внимание IT-компаний всё больше привлекает одно конкретное направление — глубокое обучение. Это статистическая методика, в которой для аппроксимации сложной динамики в наборах данных большого объёма используются упрощённо смоделированные «нейроны». Использование глубокого обучения привело к ощутимому прогрессу во многих областях: от распознавания речи и шахматных движков до расстановки тегов на фотографиях. Поэтому бытует мнение, что «сверхинтеллект» — компьютер, который будут гораздо умнее людей, — уже не за горами.

На самом деле, это не так. Научить робота распознавать слова в предложении — это не то же самое, что научить его понимать смысл предложения. Такая система голосового сопровождения, как Amazon Alexa, может понять простой запрос типа «включи свет», но до содержательного разговора ей ещё далеко. Робот, конечно, может пропылесосить пол, но ИИ, который приводит робота в действие, остаётся «слабым». И роботы ещё не настолько умны (и надёжны), чтобы, например, доверить им присматривать за детьми. Есть много вещей, которые люди могут делать, а машины всё ещё нет.

О том, что нужно делать дальше, ведётся много дискуссий. Мне ли не знать: уже тридцать лет я вновь и вновь вступаю в споры о природе человеческого разума и о лучшем способе построения ИИ. Я подключился к этой дискуссии ещё во времена учёбы в аспирантуре Массачусетского технологического института (Massachusetts Institute of Technology), когда учился под научным руководством яркого учёного-когнитивиста Стивена Пинкера (Steven Pinker). Я тогда временами отстаивал довольно непопулярную точку зрения: что глубокого обучения, как и предшественников этой парадигмы, недостаточно для отображения разностороннего потенциала человеческого разума.

На прошлой неделе этот вялотекущий спор неожиданно вспыхнул с новой силой на пространстве Твиттера. В комментарии сбежалось множество светлых голов, от Яна Лекуна (Yann LeCun), автора концепции глубокого обучения и ведущего специалиста по ИИ в Facebook, до Джеффа Дина (Jeff Dean), заведующего отделом ИИ в Google, и Джуды Перла (Judea Pearl), лауреата премии Тьюринга из Калифорнийского университета в Лос-Анджелесе (University of California, Los Angeles).

Когда ста сорока символов, предоставляемых Твиттером, стало недостаточно, я попытался сделать шаг назад и объяснить, почему нужно больше, чем просто глубокое обучение; рассказать, где следует искать идеи, которые в сочетании с глубоким обучением выведут ИИ на следующий уровень. Далее я кратко изложу то, о чём, на мой взгляд, весь этот спор.

Всё началось с того, что я прочитал в журнале Technology Review интервью с Йошуа Бенджио (Yoshua Bengio), одним из родоначальников концепции глубокого обучения. Часто изобретатели преувеличивают значимость своих открытий. Но Бенджио наоборот преуменьшил значимость своего, и вместо этого подчеркнул несколько других важных проблем в области ИИ, которые, возможно, придётся решить в будущем. Вот что он написал:

Я думаю, что мы должны рассматривать сложные задачи в области ИИ, а не довольствоваться краткосрочными постепенными улучшениями. Я не говорю, что нужно забыть про глубокое обучение. Наоборот, нужно на него опираться. Но необходимо расширить его, чтобы он мог выстраивать рассуждения, искать причинно-следственные связи, а также исследовать окружающий мир с целью обучения и нахождения информации.

Я согласился почти с каждым словом. Это потрясающе, что Бенджио сказал об этом публично. Меня поразило несколько вещей: (а) изменение точки зрения по сравнению с тем, что сторонники глубокого обучения говорили несколько лет назад (об этом ниже), (б) движение в том направлении, о котором я давно говорил, и (с) тот факт, что об этом заговорил сам Бенджио.

Поэтому я запостил в Твиттере интервью с ним, ожидая, что его ретвитнут максимум несколько человек. Но неожиданно для меня под постом разразился большой флейм.

Вот мой твит — хотя, наверное, флейм его затмил, и никто его не вспомнит:

«Я не говорю, что нужно забыть про глубокое обучение. Наоборот, нужно на него опираться. Но необходимо расширить его функционал, чтобы оно могло рассуждать, находить причинно-следственные связи и исследовать мир вокруг, находить в нём информацию» — вот что говорит Йошуа Бенджио, — почти то же самое, что я говорил в 2012 в интервью The New Yorker.

А кстати, для сравнения, вот что я сказал почти ровно шесть лет назад, 25 ноября 2012 года:

Глубокое обучение — это важная область исследований, у которой есть непосредственные практические применения.

В действительности, глубокое обучение — это всего лишь часть более сложной задачи по созданию умных машин. Эти методы не позволяют описывать причинно-следственные связи (например, между болезнями и симптомами) и, вероятно, столкнутся с трудностями при освоении абстрактных идей, таких как «брат» или «идентичный». У нейронных сетей нет очевидных способов построения логических выводов. Они ещё далеки от использования абстрактных знаний, таких как

Источник: 22century.ru

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий

Вы должны быть авторизованы, чтобы разместить комментарий.