Индустрия

ИИ-поиск Google выдает миллионы ошибок ежедневно

Несмотря на стремительное развитие нейросетей, главная поисковая машина мира столкнулась с «проблемой 10%». Как сообщает TechSpot, даже при точности в 90%, колоссальный объем запросов приводит к тому, что пользователи получают миллионы недостоверных ответов каждый день. Согласно анализу стартапа Oumi, проведенному по заказу The New York Times, каждый десятый ИИ-обзор Google (AI Overviews) содержит ложную информацию, передает Tech-news.

Математика дезинформации: 1 миллион ошибок в минуту

Цифры выглядят пугающе, если наложить их на глобальный масштаб Google. При обработке порядка 5 триллионов запросов в год, текущий уровень погрешности означает:

  • 57 миллионов неверных ответов в час;

  • Почти 1 миллион ошибок каждую минуту.

Тестирование бенчмарком SimpleQA показало, что модель Gemini 3 в феврале достигла точности в 91% (по сравнению с 85% у Gemini 2 в октябре). Однако этого недостаточно для сервиса, на который люди полагаются при принятии важных решений.

Конфликт с источниками: ИИ «спорит» со ссылками

Одной из самых тревожных находок исследователей стал разрыв между текстом ИИ-обзора и прикрепленными ссылками. Google пытается подтверждать ответы ссылками на сайты, но зачастую эти ресурсы не подтверждают сказанное нейросетью.

С выходом Gemini 3 количество расхождений между ответом ИИ и его источниками выросло с 37% до 56%. Часто ИИ выдает верный ответ, но ссылается на сайт с ошибкой, или наоборот – пишет фейк, подкрепляя его ссылкой на авторитетный ресурс, где написана правда.

Позиция Google и «мелкий шрифт»

Представители Google назвали тесты Oumi «несовершенными», утверждая, что они не отражают реальное поведение пользователей. При этом внутренние тесты компании показывают еще более спорные результаты: когда модель Gemini 3 работает независимо от поиска, она «галлюцинирует» в 28% случаев.

Интересно, что сами техгиганты страхуются юридически:

Microsoft в условиях использования Copilot прямо указывает, что инструмент предназначен для «развлекательных целей».

Google и xAI просят пользователей всегда перепроверять информацию, признавая склонность нейросетей к выдумкам.

Shares:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *