😁 Anthropic обнаружили, что как минимум 3 китайские LLM компании занимаются массовой дистилляцией моделей. Это запрещено правилами пользования, ну и понятно, почему Anthropic не хотят этого допускать.
DeepSeek запалились меньше всех, Anthropic атрибутируют им 150 тысяч запросов.
Moonshot AI, авторы Kimi, 3.4 миллиона запросов.
Больше всех отличились MiniMax — более 13 миллионов запросов.
«Три описанные кампании по дистилляции следовали схожей схеме, используя мошеннические учетные записи и прокси-сервисы для масштабного доступа к Claude, избегая при этом обнаружения. Объем, структура и направленность запросов отличались от обычных паттернов использования, отражая преднамеренное извлечение возможностей наших моделей.»
Каждая кампания была нацелена на ключевые возможности Claude: агентное рассуждение, использование инструментов и программирование. Anthropic делятся индикаторами с другими лабораториями и облачными провайдерами.
[текст новости выше взят с поста в Сиолошной]
Забавно вышло, что в списке не оказалось GLM — получается, ребята честно обучают свои модели сами. Ну, или дистиллируют не Anthropic, а, например, Google… но этого мы уже не узнаем
А MiniMax — это, конечно, позорище. Они тупо продистиллировали Opus на бенчмарк-задачах, чтобы выбить красивые цифры в таблицах, а на реальных юзкейсах модель оказалась пустышкой. На фоне этого GLM выглядит по-божески 😀
Добавить комментарий