
Інструмент для програмування на основі ШІ вартістю 29,3 мільярда доларів нещодавно був викритий у використанні чужої основи. Коли минулого тижня компанія Cursor представила Composer 2, назвавши його “кодувальною інтелектуальністю передового рівня”, вона продемонструвала модель як доказ того, що компанія є серйозною дослідницькою лабораторією ШІ, а не просто форком інтегрованого середовища розробки (IDE), який обгортає чиюсь базову модель. Проте, анонс упустив важливу деталь: Composer 2 був побудований на основі Kimi K2.5, відкритої моделі від Moonshot AI, китайського стартапу, що підтримується Alibaba, Tencent і HongShan (компанія, раніше відома як Sequoia China).
Розробник під ніком Fynn (@fynnso) у мережі X виявив це за лічені години. Налаштувавши локальний сервер-проксі для відлагодження та спрямувавши трафік API Cursor через нього, Fynn перехопив вихідний запит і побачив ідентифікатор моделі як на долоні: accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast.
“Отже, composer 2 – це просто Kimi K2.5 з RL”, – написав Fynn. “Принаймні, перейменували б ідентифікатор моделі”. Його допис набрав 2,6 мільйона переглядів.
У наступному повідомленні Fynn зазначив, що попередня модель Cursor, Composer 1.5, блокувала подібні перехоплення запитів, але Composer 2 – ні, назвавши це “ймовірно, недоглядом”. Cursor швидко виправив цю помилку, але факт вже став відомим.
Віцепрезидент Cursor з освіти розробників, Лі Робінсон, підтвердив зв’язок з Kimi за кілька годин, а співзасновник Аман Сангер визнав, що не розкрити базову модель з самого початку було помилкою.
Однак, історія, яка тут має значення, стосується не лише провалу однієї компанії у розкритті інформації. Вона стосується того, чому Cursor — і, ймовірно, багато інших компаній, що займаються продуктами ШІ — звернулися до китайської відкритої моделі.
Вакуум відкритих моделей: Чому західні компанії продовжують обирати китайські основи
Рішення Cursor побудувати на Kimi K2.5 не було випадковим. Ця модель є архітектурою mixture-of-experts (MoE) з 1 трильйоном параметрів, з яких 32 мільярди активних, контекстним вікном у 256 000 токенів, нативною підтримкою зображень та відео, а також функцією Agent Swarm, яка одночасно запускає до 100 паралельних під-агентів.
Випущена під модифікованою ліцензією MIT, яка дозволяє комерційне використання, Kimi K2.5 є конкурентоспроможною з найкращими моделями світу за агентськими бенчмарками та посіла перше місце серед усіх моделей на MathVista на момент випуску.
Коли компанії, що створюють продукти на основі ШІ, потребують потужної відкритої моделі для продовження попереднього навчання та навчання з підкріпленням — того глибокого налаштування, яке перетворює основу на диференційований продукт — варіанти від західних лабораторій були напрочуд обмеженими.
Llama 4 Scout і Maverick від Meta, випущені у квітні 2025 року, були значно недосконалими, а довгоочікувана Llama 4 Behemoth була відкладена на невизначений термін. Станом на березень 2026 року Behemoth досі не має публічної дати випуску, а повідомлення свідчать, що внутрішні команди Meta не переконані, що модель з 2 трильйонами параметрів забезпечує достатній стрибок продуктивності, щоб виправдати її випуск.
Сімейство Gemma 3 від Google досягло максимуму в 27 мільярдів параметрів — відмінно для розгортання на периферійних пристроях та з одним прискорювачем, але не для створення передових базових моделей для кодувальних агентів. Gemma 4 ще не анонсована, хоча викликала спекуляції щодо можливого випуску.
І, звісно, OpenAI, яка випустила, мабуть, найпомітнішого американського конкурента у сфері відкритих вихідних даних, сімейство gpt-oss (у варіантах з 20 мільярдами та 120 мільярдами параметрів) у серпні 2025 року. Чому б Cursor не спирався на цю модель, якби їй потрібна була базова модель для донавчання?
Відповідь криється в “щільності інтелекту”, необхідній для кодування передового рівня. Хоча gpt-oss-120b є монументальним досягненням для західного відкритого програмного забезпечення — пропонуючи можливості міркування, які конкурують з пропрієтарними моделями, такими як o4-mini — це, по суті, розріджена модель Mixture-of-Experts (MoE), яка активує лише 5,1 мільярда параметрів на токен. Для універсального помічника з міркування це майстерний винахід ефективності; для інструменту, як Composer 2, який повинен підтримувати структурну цілісність у контекстному вікні довжиною 256 000 токенів, він, можливо, занадто “тонкий”. На противагу цьому, Kimi K2.5 є титаном з 1 трильйоном параметрів, який підтримує 32 мільярди параметрів активними в будь-який момент. У світі кодувальних агентів високого ризику, сира обчислювальна маса, як і раніше, визначає продуктивність, і Cursor явно розрахував, що 6-кратна перевага Kimi в активних параметрах була необхідною для синтезу “експлозії контексту”, яка виникає під час складних, багатоетапних завдань автономного програмування.
Окрім сирого масштабу, існує питання структурної стійкості. Моделі OpenAI з відкритими вагами здобули серед елітних розробницьких кіл тиху репутацію “крихких після донавчання” — моделей, які блискуче працюють одразу після випуску, але схильні до катастрофічного забування, коли піддаються агресивному, високообчислювальному навчанню з підкріпленням, яке потребував Cursor.
Cursor не просто застосував легке донавчання; вони виконали “4-кратне масштабування” обчислень під час навчання, щоб інтегрувати свою пропрієтарну логіку самосумаризації. Kimi K2.5, створена спеціально для стабільності агентів та завдань з довгим горизонтом, забезпечила більш міцну “платформу” для цих глибоких архітектурних перетворень. Вона дозволила Cursor створити спеціалізованого агента, який міг вирішувати завдання змагального рівня, як-от компіляція оригінальної Doom для архітектури MIPS, без того, щоб основна логіка моделі руйнувалася під вагою власного спеціалізованого навчання.
Це створює прогалину. І китайські лабораторії — Moonshot, DeepSeek, Qwen та інші — агресивно її заповнюють. Моделі V3 і R1 від DeepSeek спричинили паніку в Кремнієвій долині на початку 2025 року, досягнувши передових результатів за частку вартості. Сімейство Qwen3.5 від Alibaba випустило моделі практично з будь-якою кількістю параметрів від 600 мільйонів до 397 мільярдів активних параметрів. Kimi K2.5 займає ідеальне місце для компаній, які хочуть потужну, відкриту, настроювану основу.
Cursor — не єдина компанія-розробник продуктів у такому становищі. Будь-яке підприємство, яке створює спеціалізовані ШІ-додатки на основі відкритих моделей сьогодні, стикається з тим самим розрахунком: найздібніші, найбільш дозвільні відкриті основи непропорційно надходять від китайських лабораторій.
Що насправді створив Cursor — і чому базова модель менш важлива, ніж ви думаєте
Варто відзначити, що Cursor не просто наклав користувацький інтерфейс на Kimi. Лі Робінсон заявив, що приблизно чверть загальних обчислень, використаних для створення Composer 2, припадає на базу Kimi, а решта три чверті — на власне продовжене навчання Cursor. Технічний блог компанії описує техніку під назвою самосумаризація, яка вирішує одну з найскладніших проблем у кодувальних агентах: переповнення контексту під час довготривалих завдань.
Коли кодувальний агент ШІ працює над складними, багатоетапними проблемами, він генерує значно більше контексту, ніж будь-яка модель може одночасно утримати в пам’яті. Типове обхідне рішення — скорочення старого контексту або використання окремої моделі для його сумаризації — призводить до втрати критично важливої інформації агентом та каскадних помилок. Підхід Cursor навчає саму модель стискати власну робочу пам’ять у середині завдання, як частину процесу навчання з підкріпленням. Коли Composer 2 наближається до межі свого контексту, він зупиняється, стискає все до приблизно 1000 токенів і продовжує. Ці підсумки винагороджуються або штрафуються залежно від того, чи допомогли вони завершити загальне завдання, тому модель вчиться, що зберігати, а що відкидати, протягом тисяч тренувальних циклів.
Результати є значними. Cursor повідомляє, що самосумаризація скорочує помилки стиснення на 50% порівняно з ретельно розробленими базовими лініями на основі промптів, використовуючи вп’ятеро менше токенів. Як демонстрація, Composer 2 вирішив проблему з Terminal-Bench — компіляція оригінальної гри Doom для процесорної архітектури MIPS — за 170 кроків, багаторазово самосумаризуючи понад 100 000 токенів під час завдання. Кілька передових моделей не можуть його виконати. На CursorBench Composer 2 показує результат 61,3 порівняно з 44,2 для Composer 1.5, досягає 61,7 на Terminal-Bench 2.0 та 73,7 на SWE-bench Multilingual.
Сама Moonshot AI відреагувала підтримуюче після появи цієї історії, повідомивши в X, що вона пишається тим, що Kimi надала основу, і підтвердила, що Cursor отримав доступ до моделі через авторизоване комерційне партнерство з Fireworks AI, компанією, що надає послуги хостингу моделей. Нічого не було вкрадено. Використання було комерційно ліцензоване.
Поза межами атрибуції: Мовчання викликає запитання щодо ліцензування та управління
Співзасновник Cursor Аман Сангер визнав пропуск, заявивши, що було пропуском не згадати базу Kimi в оригінальному пості в блозі. Причини такого мовчання зрозуміти неважко. Cursor оцінюється майже в 30 мільярдів доларів на тій підставі, що це дослідницька компанія ШІ, а не рівень інтеграції. А Kimi K2.5 була створена китайською компанією, що підтримується Alibaba — це чутлива походження в момент, коли відносини між США та Китаєм у сфері ШІ напружені, а державні та корпоративні клієнти все більше турбуються про походження в ланцюгу постачань.
Справжній урок ширший. Вся галузь будується на основах інших людей. Моделі OpenAI навчаються на десятиліттях академічних досліджень та даних масштабу Інтернету. Llama від Meta навчається на даних, які вона не завжди повністю розкриває. Кожна модель спирається на шари попередніх робіт. Питання в тому, що компанії про це говорять — і зараз структура стимулів винагороджує приховування зв’язку, особливо коли основа походить з Китаю.
Для ІТ-директорів, які оцінюють інструменти для кодування на базі ШІ та платформи для агентів, цей епізод піднімає практичні запитання: чи знаєте ви, що знаходиться “під капотом” продукту вашого постачальника ШІ? Чи має це значення для ваших вимог щодо відповідності, безпеки та ланцюга постачань? І чи дотримується ваш постачальник ліцензійних зобов’язань своєї базової моделі?
Розрив у західних відкритих моделях починає закриватися — але повільно
Хороша новина для підприємств, які стурбовані походженням моделей, полягає в тому, що західні відкриті моделі, схоже, стануть значно більш конкурентоспроможними. NVIDIA агресивно випускає нові продукти. Nemotron 3 Super, випущена 11 березня, — це гібридна модель Mamba-Transformer з 120 мільярдами параметрів та 12 мільярдами активних параметрів, контекстним вікном у 1 мільйон токенів та пропускною здатністю до 5 разів вищою, ніж у її попередника. Вона використовує нову архітектуру latent mixture-of-experts і пройшла попереднє навчання у форматі NVIDIA NVFP4 на архітектурі Blackwell. Компанії, включаючи Perplexity, CodeRabbit, Factory та Greptile, вже інтегрують її у свої ШІ-агенти.
Через кілька днів NVIDIA випустила Nemotron-Cascade 2, модель MoE з 30 мільярдами параметрів та лише 3 мільярдами активних параметрів, яка перевершує як Qwen 3.5-35B, так і більшу Nemotron 3 Super за показниками математики, міркування щодо коду, узгодження та виконання інструкцій. Cascade 2 досягла результатів золотого рівня на Міжнародній олімпіаді з математики 2025 року, Міжнародній олімпіаді з інформатики та світових фіналах ICPC — ставши лише другою моделлю з відкритими вагами після DeepSeek-V3.2-Speciale, яка досягла цього. Обидві моделі постачаються з повністю відкритими вагами, навчальними наборами даних та рецептами навчання з підкріпленням за дозвільними ліцензіями — саме прозорість, яку епізод Cursor-Kimi висвітлив як відсутню.
На що варто звернути увагу лідерам ІТ: Питання походження не зникне
Епізод Cursor-Kimi є прелюдією до повторюваного шаблону. Оскільки компанії, що створюють продукти на основі ШІ, все частіше створюють диференційовані додатки шляхом продовження попереднього навчання, навчання з підкріпленням та використання нових технік, таких як самосумаризація, на основі відкритих базових моделей, питання, яка основа лежить в основі стека, стає питанням корпоративного управління — а не просто технічних уподобань.
Сімейство Nemotron від NVIDIA та очікуваний Gemma 4 є найсильнішими найближчими кандидатами на закриття прогалини в західних відкритих моделях. Гібридна архітектура Nemotron 3 Super та мільйонне контекстне вікно роблять її безпосередньо релевантною для тих самих сценаріїв використання кодувальних агентів, які Cursor вирішував за допомогою Kimi. Надзвичайна щільність інтелекту Cascade 2 — продуктивність на рівні золотої медалі лише з 3 мільярдами активних параметрів — свідчить про те, що менші, високооптимізовані моделі, навчені з використанням передових технік навчання з підкріпленням, можуть все частіше замінювати масивні китайські основи, які домінували на ландшафті відкритих моделей.
Але наразі межа між американськими продуктами ШІ та китайськими основами моделей не така чітка, як передбачає геополітичний наратив. Один з найбільш використовуваних інструментів для кодування у світі працює на моделі, що підтримується Alibaba — і, можливо, спочатку не відповідав вимогам щодо атрибуції ліцензії, яка це дозволила. Cursor стверджує, що наступного разу розкриє базову модель. Цікавіше питання: чи буде наступного разу правдоподібна західна альтернатива, яку можна буде розкрити?
Прогноз ІТ-Блогу: Наступним кроком у розвитку таких інструментів, як Composer 2, буде не лише покращення продуктивності, а й глибша інтеграція механізмів прозорості щодо базових моделей. Очікується, що регуляторні вимоги та вимоги корпоративної безпеки спонукатимуть розробників до більш відкритого висвітлення походження використовуваних ШІ-моделей.
Дізнатися більше на: venturebeat.com
