Ученые продвинулись еще на шаг в совершенствовании искусственного интеллекта, научив компьютер описывать увиденное человеческим языком.

Об этом сообщает iLenta.

Специалисты из Стэнфорда представили свою разработку NeuralTalk, способную описывать человеческим языком то, что она видит.

Впервые NeuralTalk была упомянута еще в прошлом году. Разработкой этой системы руководят директор Лаборатории искусственного интеллекта при Стэнфордском университете Фей-Фей Ли, а также его выпускник Андрей Карпатый. Программное обеспечение, написанное в рамках проекта, способно проанализировать комплексное изображение и точно определить, что на нем происходит, описав все увиденное разговорным человеческим языком.

К примеру, если на фото изображен мужчина в черной футболке, играющий на гитаре, то искусственный интеллект так и опишет увиденное: «мужчина в черной футболке играет на гитаре». Разумеется, работа все еще продолжается, так что алгоритм довольно часто допускает забавные ошибки, но без этого в современной науке никуда.

Искусственный интеллект отыскивает на изображении отдельные объекты, события или действия и назначает им отдельные слова, в итоге складывая их в осмысленное предложение.

При этом различными цветами отмечаются объекты, в правильности распознавания которых искусственный интеллект уверен в той или иной мере. Вы можете самостоятельно увидеть процесс обучения искусственного интеллекта на официальном сайте исследователей.

NeuralTalk использует для своей работы нейронную сеть. Алгоритм сравнивает новое изображение с уже виденными ранее фотографиями, подобно маленькому ребенку осваивая новые слова и запоминая образы объектов. Ученые раз за разом объясняют искусственному интеллекту, как выглядит кошка, гамбургер или ботинок, а NeuralTalk запоминает все это и практически безошибочно распознает эти образы в дальнейшем.