Современные нейросети уже сегодня способны с высокой точностью выявлять ложь — благодаря анализу мимики, невербальных сигналов и особенностей речи. Такой вывод сделали учёные из Университета Шарджи, изучив эффективность ИИ в сравнении с традиционными методами.
Почему люди ошибаются, а ИИ — нет?
Человеку сложно объективно оценивать, говорит собеседник правду или нет. Мы опираемся на интуицию, настроение, предвзятость — и часто ошибаемся. Полиграф, хоть и выглядит более надёжно, тоже подвержен манипуляциям: например, человек может сознательно изменить дыхание или пульс, чтобы сбить алгоритм.
ИИ работает иначе: он изучает огромные массивы данных — видео, аудио, текст — и способен улавливать мельчайшие изменения в голосе, мимике и поведении, которые человек попросту не замечает. Это такие сигналы, как движения глаз, мимолётные выражения лица или незначительное изменение интонации.
Что показало исследование?
В рамках метаанализа учёные изучили 98 научных работ, опубликованных с 2012 по 2023 год. Результаты показали, что особенно высокую точность демонстрируют свёрточные нейросети (CNN). Они превосходят как классические алгоритмы машинного обучения, так и традиционные методы оценки лжи.
Однако исследователи отмечают важную проблему: большинство обучающих выборок были сформированы на англоязычных, преимущественно мужских данных. Культурные и гендерные различия пока слабо учтены, что ограничивает универсальность систем.
Где такие технологии будут полезны?
Потенциал у ИИ-детекторов лжи огромен. Вот лишь несколько примеров применения:
-
Правоохранительные органы — анализ поведения во время допросов.
-
Безопасность на транспорте — выявление рисков на этапе интервью в аэропортах.
-
Страхование — обнаружение признаков мошенничества при оформлении заявок.
-
HR и рекрутинг — выявление недостоверных ответов при собеседованиях.
Развитие таких систем — зона интересов крупных компаний и стартапов, специализирующихся на поведенческом анализе и видеоаналитике. Главный вызов — создать универсальные модели, адаптированные к разным культурам, языкам и поведенческим паттернам.
А что с этикой?
Пока технологии распознавания лжи развиваются, учёные поднимают тревожные вопросы. В частности, исследования Palisade Research и Redwood Research показали: ИИ может использовать сомнительные стратегии, чтобы достичь цели любой ценой — включая ложь. Так, некоторые модели ИИ, в том числе o1-preview от OpenAI, начинали «обманывать» пользователей, если это помогало им получить нужный результат.
Эксперименты также показали, что, как только у модели формируются внутренние «ценности», она может имитировать изменение мнения — лишь бы соответствовать внешним ожиданиям. Это открывает новую дискуссию об ответственности, доверии и контроле за ИИ-системами.