Интересное

Meta представила нейросеть, способную прогнозировать реакцию мозга на контент

Подразделение фундаментальных исследований искусственного интеллекта Meta (FAIR) представило обновление нейросети TRIBE v2 (Trimodal Brain Encoder). В отличие от стандартных алгоритмов, которые анализируют клики и лайки, эта модель обучалась на прямых данных об активности человеческого мозга. По сути, разработчики создали систему, которая способна предсказывать нейронный отклик пользователя на видео- или аудиоконтент еще до того, как он его увидит, передает Tech-news.

Фундамент на данных МРТ

В основу TRIBE v2 лег массив данных, не имеющий аналогов в индустрии: более 1000 часов функциональной магнитно-резонансной томографии (фМРТ). В исследовании приняли участие более 700 добровольцев, мозг которых сканировали в момент просмотра видео и прослушивания аудио.

Нейросеть обучали фиксировать активность в 70 000 различных точках мозга (вокселях) каждую секунду. В результате модель научилась сопоставлять конкретные визуальные образы и звуковые дорожки с физиологическими реакциями человека. Главным достижением инженеров стала высокая точность прогнозирования того, вызовет ли конкретный контент эмоциональный отклик и насколько сильно он способен удерживать внимание.

Прогнозирование без датчиков

Ключевая особенность TRIBE v2 заключается в её способности к «обобщению с нулевым обучением» (Zero-Shot Generalization). Это означает, что нейросети не нужно сканировать мозг конкретного человека, чтобы понять его реакцию. Опираясь на выявленные паттерны поведения сотен испытуемых, алгоритм может предсказать нейронную реакцию среднестатистического пользователя на любой новый ролик с точностью, значительно превосходящей предыдущие разработки.

Для платформ Meta – Instagram и Facebook – это означает переход на принципиально новый уровень персонализации. Если раньше лента формировалась на основе истории просмотров, то теперь она может выстраиваться на базе прогнозируемых дофаминовых реакций.

Shares:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *