Anthropic обвиняет китайские лаборатории в краже архитектуры Claude на фоне роста популярности в App Store

Отредактировано: gaya ❤️ one

Компания Anthropic, основанная, в частности, Дарио Амодеи, публично обвинила ряд китайских ИИ-лабораторий, включая DeepSeek, Moonshot AI и MiniMax, в организации крупномасштабной «дистилляции» их флагманской модели Claude. По заявлению компании, было зафиксировано около 24 000 мошеннических учетных записей, которые сгенерировали свыше 16 миллионов взаимодействий с целью неправомерного извлечения архитектурных возможностей для обучения конкурирующих систем. Этот инцидент, связанный с нарушением условий обслуживания, обострил этические дебаты в сфере искусственного интеллекта, особенно на фоне продолжающихся дискуссий об экспортном контроле.

Anthropic утверждает, что китайские лаборатории целенаправленно извлекали наиболее отличительные функции Claude, такие как агентное мышление, использование внешних инструментов и навыки программирования. MiniMax была ответственна за 13 миллионов запросов, направленных на копирование возможностей последней версии Claude сразу после ее выпуска, а Moonshot AI фокусировалась на разработке ИИ-агентов. Компания подчеркивает, что такой масштаб сбора данных косвенно указывает на доступ Китая к американским вычислительным ресурсам, несмотря на существующие ограничения. Эксперты отмечают, что прогресс китайского ИИ во многом обусловлен скрытой «дистилляцией» флагманских американских разработок, что несет риски для национальной безопасности, поскольку скопированные модели могут быть лишены защитных барьеров.

Параллельно с обвинениями в краже интеллектуальной собственности, на американском потребительском рынке произошел значительный сдвиг. Этот сдвиг произошел на фоне политической эскалации, когда генеральный директор Anthropic Дарио Амодеи отказался от требований по удалению защитных ограничений, запрещающих использование Claude для внутреннего массового наблюдения или в полностью автономном вооружении. В ответ на это, Президент Дональд Трамп распорядился федеральным агентствам прекратить любые контракты с Anthropic, а министр обороны Пит Хегсет (Pete Hegseth) присвоил компании статус угрозы для цепочки поставок. В то же время, OpenAI заключила соглашение с Министерством обороны США (переименованным в Департамент Войны).

Конфликт Anthropic с оборонным ведомством США спровоцировал резкий рост интереса к их продукту. По состоянию на 1 марта 2026 года, приложение Claude поднялось на первую позицию в рейтинге бесплатных приложений в американском App Store, опередив ChatGPT и Google Gemini. В Anthropic сообщили о рекордном росте: число бесплатных пользователей увеличилось более чем на 60% с января 2026 года, а количество платных подписок за год выросло более чем вдвое. Этот феномен связывают с эффектом «обратного действия», когда принципиальная этическая позиция компании привлекла симпатии широкой аудитории.

В контексте технологического противостояния США и Китая, где Китай стремится к лидерству в ИИ к 2030 году, такие инциденты подчеркивают важность защиты интеллектуальной собственности. В то время как китайские компании, такие как DeepSeek, демонстрируют прогресс, приближаясь к возможностям американских систем, обвинения в «дистилляции» ставят под сомнение природу этого развития. Примечательно, что сама Anthropic ранее сталкивалась с исками по поводу использования данных для обучения, что вызвало критику со стороны некоторых участников рынка. Тем временем, OpenAI, столкнувшись с финансовым давлением, прогнозирует операционные убытки около 14 миллиардов долларов на 2026 год, что отражает высокие затраты на развитие передовых систем ИИ.

1 Просмотров

Источники

  • La Razón

  • El Independiente

  • Diario Bitcoin

  • Xataka

  • AP News

  • AIBase

Вы нашли ошибку или неточность?Мы учтем ваши комментарии как можно скорее.