USD
103.44
+0.73
EUR
106.25
+1.39
Категория: НейротехнологииНейротехнологии
20 декабря 2023 г. в 14:21

Mistral AI разметил свою нейросеть MoE 8x7B на Торренте

Mistral AI разметил свою нейросеть MoE 8x7B на Торренте
vc.ru
Стартап Mistral AI из Франции представил свою новую нейросеть с помощью торрент-ссылки. Основной особенностью ИИ-модели MoE 8x7B является открытый исходный код.
Компания не проводила пресс-конференций и не устраивала грандиозных мероприятий для привлечения внимания. О выпуске крупной языковой модели от Mistral AI стало известно благодаря публикации ссылки на скачивание в Торренте в соцсети Х.
После проведения исследований компании удалось подтвердить превосходство нейросети над схожими ИИ-моделями от конкурентов, в числе которых семейство Llama 2 и GPT-3.5 от OpenAI. Первые пользователи также дали MoE 8x7B очень высокие оценки.
Одним из основных улучшений нейросети является расширение контекста модели до 32 тысяч токенов, что позволяет Mixtral 8x7B лучше понимать и продолжать длинные разговоры.
Стартап поддерживает политику Open Source при разработке всех моделей ПО. Артур Менш, который является одним из основателей и генеральным директором компании, отметил, что придерживается политики открытости и ответственному подходу к своим технологиям.
Недавно стартапу удалось привлечь инвестиции в размере $415 млн. Несмотря на высокую оценку, компания отличается легким и веселым подходом к работе.
По мнению пользователей нейросети, такой подход к релизу отражает суть компании. Среди основных пользователей продуктов стартапа инженеры, поэтому руководство Mistral AI в первую очередь старается угодить именно им.
0 комментариев