Будущее machine learning | robot_dreams
Для отслеживания статуса заказа — авторизируйтесь
Введите код, который был выслан на почту Введите код с SMS, который был выслан на номер
 
Код действителен в течение 5 минут Код с sms действителен в течение 5 минут
Вы уверены, что хотите выйти?
Сеанс завершен
На главную
Могут ли компьютеры учиться сами

Могут ли компьютеры учиться сами

Будущее machine learning.

Несмотря на успехи в диагностике или переводе, возможности нейросетей еще далеки от способностей человеческого интеллекта. Как учить нейросети эффективнее? Мы перевели статью NYT, в которой ученые обсуждают пути развития алгоритмов. 

Что ждет нейросети
 

Сейчас происходит расцвет supervised learning: мы учим компьютеры видеть закономерности так же, как учим детей читать. Но чтобы достичь уровня человеческого интеллекта, компьютерам придется выйти за рамки supervised learning. Будущее ИИ — в руках систем, которые учатся самостоятельно.

«Мы хотим перейти от систем, требующих большого количества человеческих знаний и решений к все более и более автономным системам», — говорит Дэвид Кокс, директор IBM Watson AI Lab MIT-IBM. Он отмечает, что даже если бы система обучения с учителем прочитала все книги в мире, ее интеллект все равно не достиг бы человеческого уровня. Все из-за того, что большая часть наших знаний не зафиксирована письменно.

Контролируемое обучение проводят на аннотированных данных: изображениях, аудио или текстах, которые размечают люди. Эти данные передаются алгоритмам, показывая им, что искать. После обработки миллионов изображений с метками алгоритмы становятся экспертами в распознавании объектов. Но обучение с учителем ограничено областями, для которых хватает данных.

Методы, которые не полагаются на такой точный контроль со стороны человека, остались в тени контролируемого обучения и его практических приложений — от беспилотных автомобилей до перевода. Хотя обучение с учителем по-прежнему не может делать многое, с чем справляются даже дети.

«Обучения с учителем будет недостаточно для искусственного интеллекта человеческого уровня. Людям не нужен такой тщательный контроль», — уверен Йошуа Бенжио, основатель Квебекского института искусственного интеллекта.

Меньше контроля
 

Теперь ведущие исследователи в области ИИ снова обратили внимание на методы с меньшим контролем. 

«Существует метод самоконтроля и подобные ему. Например, восстановление исходных данных после принуждения модели к компактному представлению; предсказание того, что произойдет в видео или маскировка части входящих данных и попытка восстановить их», — говорит Сами Бенджио, научный сотрудник Google.

Кроме этого, есть обучение с подкреплением с очень ограниченным контролем, не полагающимся на данные. 

Использовать обучение с подкреплением в computer science первым предложил Ричард Саттон, работающий сейчас в Университете Альберты в Канаде. Оно создано по образу и подобию обучения, основанного на вознаграждении: представьте себе крысу, которая должна нажать на рычаг, чтобы получить еду. Стратегия была разработана, чтобы научить алгоритмы действовать. 

Установите цель, и система обучения с подкреплением будет пытаться ее достичь методом проб и ошибок. До тех пор, пока не научится постоянно получать вознаграждение. Именно так делают люди. 

По словам Саттона, более всеобъемлющий термин для будущего ИИ — «прогнозирующее обучение». Оно будет включать системы, которые не только распознают закономерности, но и прогнозируют результаты, а также выбирают курс действий. 

«Все согласны с тем, что нам нужно предиктивное обучение, но расходятся в том, как этого добиться», — говорит Саттон. «Некоторые люди думают, что это возможно, если развивать контролируемое обучение; другие — обучение с подкреплением».

Соревнования и здравый смысл
 

Питер Аббил, руководитель лаборатории обучения роботов в Беркли, использует системы обучения с подкреплением, которые соревнуются друг с другом, чтобы учиться быстрее. Роботы, например, занимаются сумо и спарингуются. Соревнуясь с самим собой или с соперником одного уровня, можно понять, какие действия приводят к нужному результату, и постепенно получить нужные навыки. 

Вице-президент и глава ИИ-лаборатории Facebook Ян Лекун считает, что, хотя обучение с подкреплением сейчас хорошо развито, другие формы машинного обучения более важны для общего интеллекта. Он делает ставку на self-supervised learning (обучение с самоконтролем). Во время него алгоритмы получают огромные объемы немаркированных данных и разбираются в них без надзора или вознаграждения. Лекун работает над моделями, которые учатся на основе наблюдений, накапливая базовые знания. Это позволяет развить что-то вроде здравого смысла.

 «Представьте, что вы даете алгоритму видеоклип, и просите ее предсказать, что произойдет дальше. Чтобы алгоритм мог обучиться этому, он должен разработать какое-то представление данных. Он должен понимать, что существуют одушевленные и неодушевленные объекты. У вторых есть предсказуемые траектории, у первых — нет», — говорит исследователь. 

По его словам, после того, как система с самоконтролем «просмотрит» миллионы видео на YouTube, она извлечет из них некое представление о мире. Затем, когда алгоритму предложат выполнить конкретную задачу, он может использовать это представление. То есть, может обучиться сам.

Доктор Кокс из MIT-IBM Watson AI Lab сочетает более традиционные формы искусственного интеллекта с deep learning в нейросимволическом ИИ. Цель — создание ИИ-систем, которые смогут достичь базового уровня здравого смысла, аналогичного человеческому.

«Наша гипотеза такова: если мы создадим достаточно общие алгоритмы, то нам нужно будет только поместить их в роботов, которые будут делать реальные вещи в реальном мире», — утверждает Сергей Левин, который руководит университетской лабораторией в Беркли.

Он использует модель самостоятельного обучения, при которой роботы исследуют окружающую среду и накапливают базовые знания. Робот взаимодействует со средой и учится. Он представляет себе что-то, что может произойти, а затем пытается выяснить, как это сделать. Так роботы накапливают знания, которые затем могут использовать в других условиях. Таких роботов в итоге можно будет объединить в сеть, чтобы они могли обмениваться знаниями.

Аббель, основатель робототехнической компании Covariant, считает, что в итоге все эти методы обучения будут объединены. Сможем ли мы когда-нибудь построить машины, которые будут такими же умными, как люди? По мнению Лекуна, это только вопрос времени.

Ещё статьи
Экспертки о том, как оценивают кандидатов на нетехнических интервью
Часть 2. Работа с записями: вставка, чтение, изменение и удаление