Корпорация Microsoft заподозрила китайскую компанию DeepSeek в том, что она могла обучать свои модели искусственного интеллекта на данных, незаконно полученных у OpenAI. Как утверждают источники, речь идёт о внутренних разработках OpenAI, которые были похищены в прошлом году, передает Tech-news.kz
Предположения возникли после детального анализа возможностей DeepSeek V2, представленной компанией в январе. Модель продемонстрировала выдающиеся результаты, что вызвало вопросы относительно источников её обучения. По мнению экспертов Microsoft, подобные достижения маловероятны без доступа к мощным наборам данных, сравнимым с теми, которыми располагает OpenAI.
Ранее OpenAI уже сталкивалась с утечкой конфиденциальной информации. В прошлом году неизвестные получили доступ к внутренним материалам компании, включая детали работы её передовых моделей. Не исключено, что часть этих данных попала к третьим лицам и была использована в разработке конкурирующих технологий.
На данный момент ни DeepSeek, ни Microsoft официально не комментировали ситуацию. Однако факт подозрений указывает на растущую напряжённость в области ИИ-разработок, где вопросы интеллектуальной собственности становятся всё более острыми.