В средствах массовой информации последнее время очень часто мелькают сообщения о стремительном развитии технологии искусственного интеллекта. Более того, в некоторых сферах ИИ уже способен демонстрировать выдающиеся успехи и в какой-то мере даже превосходство над человеком. Далеко за примерами ходить не нужно. Сайт Hi-News.ru не раз писал о том, как ИИ побеждает человека в настольной логической игре го, шахматах, а совсем недавно показал отличный прогресс в компьютерной стратегической игре StarCraft. На самом деле таких примеров гораздо больше, и они необязательно связаны с развлекательными дисциплинами.
Простому обывателю (человеку, не связанному с IT-сферой) может показаться, что что вот-вот появится настоящий, «большой» искусственный интеллект, о котором пишу фантасты и снимают фильмы. Но на самом деле не так радужно. В онлайн-репозитории научных работ arXiv
Причины неудачи можно объяснить без особого труда. Так, человек при решении задач математического характера задействует следующие способности и возможности:
- Модифицирует для себя символы в сущности, такие как числа, арифметические операторы, переменные (которые в комплексе образуют функции) и слова (определяющие вопрос, смысл задачи);
- Проводит планирование (например, ранжируя функции в порядке, необходимом для решения математической задачи);
- Использует вспомогательные алгоритмы для составления функций (сложение, умножение);
- Использует кратковременную память для хранения промежуточных значений (например, h (f (x)));
- Применяет на практике полученных ранее знаний о правилах, преобразованиях, процессах и аксиомах.
DeepMind обучали и тестировали свой ИИ на подборке различных типов математических проблем и задач. Разработчики не использовали краудсорсинг, вместо этого они синтезировали набор данных для генерации большого количества тестовых задач, контроля уровня их сложности и т.п. Команда разработчиков использовала текстовый формат данных «произвольной формы».
Данные базировались на задачах из подборок заданий для британских школьников возрастом до 16 лет. Задания брались из таких направлений, как арифметика, алгебра, теория вероятностей и других.
При выборе архитектуры нейросети для решения математических задач, команда DeepMind остановилась на LSTM (долгая краткосрочная память) и Transformer (архитектура нейросетей для работы с последовательностями). Специалисты протестировали две модели LSTM для работы с математическими задачами: простой LSTM и Attentional LSTM. Его схема работы показана на рисунке ниже.
Архитектура Attentional LSTM
Модель архитектуры Transformer
В статье, описывающей результаты этого исследования отмечается, что эти результаты оказались не очень хорошими. Искусственный интеллект смог справиться лишь с 35 процентами задач (из 40 предоставленных заданий), дав на них правильные ответы. По стандартам любой школы — неудовлетворительно.
Обсудить новость можно в нашем Telegram-чате.