Meta создала самообучающийся ИИ, способный проверять себя и других чат-ботов

Компания Meta, владеющая Facebook, Instagram и WhatsApp, запустила новую модель на основе искусственного интеллекта, которая, как утверждает компания, может учиться на своих ошибках, а также находить неточности ответах других моделей и чат-ботов. Это может уменьшить необходимость участия людей в процессе развития ИИ и повысить точность, правдивость и актуальность ответов, надеется компания. Для неё это выгодно ещё и потому, что снижает необходимость в дорогих и иногда неэффективных проверках работы ИИ людьми-экспертами.

Детали

Meta Platforms 18 октября сообщила о запуске ИИ-модели Self-Taught Evaluator («Самообучаемый оценщик»), которая способна к рассуждениям и может проверять работу других моделей на основе искусственного интеллекта, написал Reuters.

Модель от Meta может проверять точность ответов, которые дают чат-боты и другие ИИ-приложения в таких сложных областях, как наука, написание кода и математика, добавил TipRanks. Meta говорит, что она пытается устранить один из главных поводов для критики ИИ-моделей (таких как ChatGPT): что они часто предоставляют неверную или устаревшую информацию в ответ на запросы, отметило издание.

Зачем ещё нужен «Самообучаемый оценщик»

Возможность использовать искусственный интеллект для оценки работы того же ИИ — это первый шаг на пути к построению автономных ИИ-агентов, которые смогут учиться на своих ошибках, заявили Reuters два исследователя, работающих над проектом Meta (их имена в публикации не называются). Многие в ИИ-сфере рассматривают таких агентов как цифровых ассистентов, достаточно умных, чтобы выполнять большой объём задач без участия человека, пояснили собеседники агентства.

«Мы надеемся, что по мере того, как ИИ будет становиться все более и более сверхчеловеческим, он будет все лучше и лучше проверять свою работу, так что он действительно станет лучше, чем среднестатистический человек», — сказал Reuters исследователь Джейсон Уэстон, работающий над проектом. По его словам, самообучение и способность к оценке себя имеют важнейшее значение для достижения этого «сверхчеловеческого» уровня ИИ.

Умение ИИ проверять себя и другие модели также позволяет уменьшить степень участия людей в развитии ИИ, пишет Reuters. Самообучаемые модели могут устранить необходимость дорогих и зачастую неэффективных процессов проверок людьми, у которых должны быть соответствующие опыт и знания, чтобы корректно размечать данные и подтверждать правильность ответов ИИ на сложные запросы, пишет Reuters.

Исследователи Meta впервые описали технологию в статье в августе 2024 года. В ней говорилось, что эта технология основана на той же технике «цепочек рассуждений», которая используется в модели o1 компании OpenAI (разработчик ChatGPT). Этот метод разбивает сложные задачи на более мелкие логические этапы. По словам Meta, это повышает качество ответов ИИ, отметил TipRanks.

Контекст

Исследования схожих технологий обучения ИИ публиковали также Google и стартап Anthropic, но они, в отличие от Meta, обычно не выпускают свои модели для публичного использования, отметил Reuters.

Искусственный интеллект может стать более умным, чем большинство людей, уже к 2026 году, написал в эссе, опубликованном в октябре 2024 года, гендиректор Anthropic Дарио Амодеи. В интервью Bloomberg он уточнил, что это, по его мнению, «самый ранний срок», когда это может произойти, но «не обязательно самый вероятный».