В Google разработали искусственный интеллект, способный играть в видеоигры

Андрей Александров (редакция)

Принадлежащая Google компания DeepMind представила прототип искусственного интеллекта, который способен обучаться разным действиям самостоятельно. В DeepMind отмечают, что использовали совершенно новый подход, отличающийся от программ вроде Deep Blue, обыгравшей в шахматы Гарри Каспарова. Над созданием Deep Blue работала целая команда опытных шахматистов, которые передали программе свои знания. Детищу DeepMind учителя не нужны — программа сама совершает разные действия, смотрит за их результатом, а затем делает выводы, меняя свое поведение.

Для обучения искусственного интеллекта в DeepMind используют старые аркадные игры. Программа изучает происходящее на экране, а затем начинает действовать методом проб и ошибок — подает разные команды, смотрит, что происходит, и отсеивает неверные действия. Обычно это приводит к тому, что через некоторое время компьютер сам разрабатывает стратегию, позволяющую побеждать в игре. По словам разработчиков, этот алгоритм только кажется примитивным — на самом деле, точно так же обучается любой ребенок в первые годы жизни.

В будущем Google планирует использовать разработку DeepMind в самых разных сферах. Например, умение самостоятельно обучаться будет очень полезно в автоматических автомобилях или программах-ассистентах для смартфонов. 

Чат выключен. Включите чат, чтобы видеть, кто есть в сети.
Отсутствует соединение с сервером. Соединение будет восстановлено автоматически.
У вас пока нет друзей.
Ваш аккаунт не верифицирован. Для верификации
укажите номер телефона.
Авторизуйтесь, чтобы общаться с друзьями.
Новое сообщение
Пользователь в игре
Рассылка новостей
Для подписки на новости укажите вашу почту
Подписаться