Нейросеть научили проходить видеоигру при помощи голосовых команд

26 апр 2017 15:35 #56214 от ICT
Группа студентов из Стэнфордского университета научила нейросеть проходить одну из самых сложных игр для видеоприставки Atari 2600 при помощи голосовых команд на английском языке. Препринт исследования был опубликован на портале arXiv.org . Как пишет N+1 , большинство систем искусственного интеллекта, предназначенных для прохождения видеоигр, используют обучение с подкреплением. Это метод, при котором система получает оценку своих действий от игры, зарабатывая очки за прохождение. Алгоритм совершает случайные действия до получения награды, а затем пытается повторить их в будущем. Стэнфордские студенты предложили иной подход к обучению. Чтобы ускорить процесс обучения, они решили сначала научить нейросеть понимать команды, написанные естественным языком, а для обучения использовали данные в виде пар команда - скриншот действия игрового персонажа. В качестве среды разработчики выбрали игру "Месть Монтесумы" , которая часто используется для тренировки искусственного интеллекта. Особенность этой игры состоит в том, что в ней редко встречаются "награды", необходимые для успешного прохождения, и поэтому искусственному интеллекту трудно понять, какие действия ведут к победе. После обучения командам разработчики дали нейросети набор команд, выполнение которых позволяло пройти каждую из игровых комнат. Чтобы проверить, что алгоритм научился понимать команды, авторы дали ему пройти комнату с набором команд вроде "поднимись по лестнице" без накопленных данных о предыдущих тренировках. В ходе этой проверки искусственный интеллект смог правильно интерпретировать команды человека и пройти уровень. При этом программа игнорировала команды, если находила более оптимальную стратегию для прохождения. Оценка, проведенная при помощи платформы для разработки и сравнения алгоритмов обучения с подкреплением OpenAI Gym, показала высокую эффективность новой методики. Разработанный студентами алгоритм набрал 3500 очков, против 2500 у самого успешного конкурента. На данный момент только алгоритм Google DeepMind набрал больше (6600 очков), однако его тренировка продолжалась вдвое дольше. В перспективе разработчики рассчитывают усовершенствовать алгоритм сделав его более независимым за счет уменьшения количества инструкций. Ссылка на источник


  • Сообщений: 103416

  • Пол: Не указан
  • Дата рождения: Неизвестно
  • Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

    Похожие статьи

    ТемаРелевантностьДата
    Оплатить стоянку автомобиля в Москве можно при помощи голосовых команд20.9Пятница, 23 ноября 2018
    Abbyy TextGrabber и FineScanner получили поддержку голосовых команд Siri15.47Понедельник, 17 сентября 2018
    Граждане ОАЭ смогут проходить паспортный конроль в аэропорту Дубая при помощи смартфона13.81Четверг, 08 июня 2017
    Нейросеть научили давать советы о любви13.68Пятница, 27 января 2017
    Нейросеть научили взламывать пароли миллионами13.68Вторник, 19 сентября 2017
    Нейросеть научили распознавать отретушированные снимки13.68Понедельник, 25 июня 2018
    Нейросеть научили составлять рецепт блюда по фотографии13.53Пятница, 21 июля 2017
    В США нейросеть научили распознавать гомосексуалистов и лесбиянок по их фотографиям13.53Пятница, 08 сентября 2017
    В Microsoft научили нейросеть рисовать изображения по их описанию13.53Пятница, 19 января 2018
    Пассажиры пекинского метро смогут проходить турникеты при помощи системы распознавания лиц и сканеров ладоней13.53Вторник, 19 июня 2018

    Мы в соц. сетях