Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
На этой неделе исследователи из лаборатории Sky Computing Lab Калифорнийского университета в Беркли запустили модель искусственного интеллекта Sky-T1-32B-Preview. Речь идёт о нейросети со способностью к рассуждениям, которая способна конкурировать с OpenAI o1 по ряду ключевых показателей.
По всей видимости, Sky-T1 является первой моделью с поддержкой рассуждений с открытым исходным кодом, что позволит воспроизвести её с нуля. Разработчики опубликовали набор данных, который использовался для обучения алгоритма, а также другие данные, необходимые для запуска ИИ-модели.
Одна из главных особенностей алгоритма в том, что для его обучения не требуются существенные затраты. «Примечательно, что Sky-T1-32B-Preview был обучен менее чем за $450», — написали разработчики в своём блоге. Таким образом, они наглядно продемонстрировали, что возможно создать ИИ-модель рассуждений высокого уровня без существенных денежных вложений.
Ещё недавно стоимость обучения большой языковой модели с сопоставимыми характеристиками измерялась миллионами долларов. Существенно снизить затраты удалось за счёт использования синтетических данных, т.е. данных, сгенерированных другими нейросетями. К примеру, недавно выпущенный компанией Winter алгоритм Palmyra X 004 обучался на синтетических данных и обошёлся разработчикам в $700 тыс.
В отличие от многих ИИ-алгоритмов, модели рассуждения эффективно проверяют факты, что позволяет им давать более точные ответы и реже ошибаться, вводя пользователей в заблуждение. Кроме того, моделям рассуждения обычно требуется больше времени на формирование ответа на запрос по сравнению с обычными ИИ-алгоритмами. Однако обычно модели рассуждения являются более надёжными, особенно в таких областях, как физика, математика и естественные науки.
Согласно имеющимся данным, разработчики задействовали модель рассуждения Alibaba QwQ-32B-Preview для создания первоначального набора данных для обучения Sky-T1. Далее данные преобразовывались с помощью GPT-4o-mini от OpenAI в более точный формат. Процесс обучения Sky-T1 с 32 млрд параметров занял около 19 часов, для чего были задействованы 8 графических ускорителей Nvidia H100.
«В дальнейшем мы сосредоточимся на разработке более эффективных моделей, которые сохраняют высокую производительность рассуждений, а также на изучении передовых методов повышения эффективности и точности моделей во время тестирования. Следите за обновлениями, пока мы добиваемся прогресса в реализации этих интересных инициатив», — написали разработчики в своём блоге.
Источник: