Результати пошуку для "QWEN"
23:03

Hugging Face Відкритий вихідний код顶级模型

Дані Jin10 9 липня: сьогодні вночі всесвітньо відома платформа відкритих великих моделей Hugging Face відкрила код, представивши найкращу малу модель SmolLM3. SmolLM3 має лише 3 мільярди параметрів, але його продуктивність значно перевершує такі відкриті моделі, як Llama-3.2-3B і Qwen2.5-3B. Має контекстне вікно 128k, підтримує 6 мов, включаючи англійську, французьку, іспанську, німецьку. Підтримує глибоке мислення та двосторонній режим міркування, користувачі можуть гнучко перемикатися.
Більше
B2.79%
10:01

Алі, якщо ви можете відповісти, коли нове

QwQ-Max скоро буде випущений для широкої публіки під ліцензією Apache 2.0 Відкритий вихідний кодQwQ-Max і Qwen 2.5-Max, а менші версії, такі як QwQ-32B, доступні для розгортання на локальних пристроях. Тоді ж вийде офіційний QwQ-Max, а також вийдуть додатки для Android та iOS.
Більше
MAX-1.31%
APP7.14%
04:11

Команда Али Qwen випустила нову модель QwQ, яка покаже повний ланцюг мислення

Дані Jin 25 лютого, команда Qwen від Алібаби сьогодні вранці оголосила в соціальних мережах про випуск нової моделі мислення — Глибоке мислення (QwQ). Це модель мислення, заснована на QWQ-MAX-PREVIEW, підтримується на базі QWEN2.5-Max. Blue Whale News виявила, що подібно Глибина
Більше
MAX-1.31%
  • 2
  • 1
09:02

Longxin Zhongke: процесор Longxin успішно запустив велику модель DeepSeek

Компанія Longxin Zhongke успішно запустила модель DeepSeek R1 7B, що працює на процесорі Longxin 3, з локалізованим розгортанням, відмінною продуктивністю та вигідною вартістю, що забезпечить користувачам швидший, потужніший та більш економний досвід навчання та інференсу. Longxin співпрацює з партнерами, такими як Taichi, Hangu, Tianshu Zhixin, Algonomy та openEuler, щоб створити багатоформатну платформу інференції серії моделей DeepSeek.
Більше
  • 1
13:10

Jingwei Hengrun: Компанія розгорнула DeepSeek і Qwen

Jingwei Hengrun використовує великі моделі, такі як DeepSeek і Qwen, для розробки професійних додатків штучного інтелекту, що охоплюють кілька областей, таких як інтелектуальна допомога, дизайн, тестування, оптимізація продукту та аналіз бізнес-процесів. Ці програми підвищують ефективність, якість роботи та знижують витрати.
Більше
  • 3
  • 1
04:19
Golden Ten Data повідомила 29 квітня, що Tongyi K Man вперше запустила модель параметрів в'язання Qwen1.5-110B, показавши відмінну продуктивність у найдовших тестових оцінках, таких як MMLU, TheoremQA та GPQA. В даний час серія Qwen 1.5 накопичила 10 великих моделей з відкритим вихідним кодом, а кількість завантажень моделей Tongyi K Відкритий вихідний код перевищила 7 мільйонів.
23:02
Золоті фінанси повідомляють, що команда Алі Qwen офіційно опублікувала свої найновіші дослідження - велику мовну модель QwQ-32B, яка, маючи лише приблизно 1/21 обсягу параметрів DeepSeek-R1, досягла значного прогресу в продуктивності за допомогою посиленого навчання.
  • 1
  • 1
12:16

Четвертий парадигма випускає рішення для великих моделей на кшталт AIoT ModelHub для країни

Дані Jinshi 26 лютого, відомо від Четвертого парадигми, що Четверта парадигма випустила рішення для великої моделі навчання AIoT ModelHub AIoT на кінцевому пристрої, де користувачі можуть легко розгортати невеликі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3, та запускати їх офлайн. Користувачі можуть гнучко перемикатися між кількома моделями, беручи до уваги компресію моделі, продуктивність розсуду, що вирішує складність розгортання та оптимізації. Компанія зазначає, що це рішення не лише задовольняє вимоги користувачів щодо конфіденційності та реального часу, але також значно знижує витрати на інференцію великої моделі штучного інтелекту.
Більше
09:58

4Paradigm запускає SageOne IA, рішення для виведення великих моделей

Четвертий парадигма представляє великий модельний рішення SageOneIA, що зменшує вартість обчислень великих моделей. Інтегрована технологія пулу обчислювальної потужності в рішенні все в одному дозволяє підтримувати кілька провідних великих моделей, підприємство може перемикатися між повноцінною версією та моделлю з випаровуванням, ефективність використання GPU збільшується на 30% або більше, а продуктивність обчислення зростає від 5 до 10 разів.
Більше
11:29

Підключення міжнародного сайту Ali до великої моделі DeepSeek

Дані Jin 12 лютого, міжнародний сайт Alibaba AI вже підключив DeepSeek та інші великі моделі і повністю застосуватиме їх в усіх ключових аспектах зовнішньої торгівлі. Після підключення штучний інтелект під час автоматичного прийому закордонних клієнтів зможе більш повно враховувати наміри покупців, а потім, сполучуючи даний інтелект з ринковими інсайтами, досвідом зовнішньої торгівлі та обставинами продуктів продавця на міжнародному сайті Alibaba, проводитиме Глибина міркування. Також відомо, що міжнародний сайт Alibaba також тестує універсальні запитання Qwen
Більше
23:46

Мікрософт Відкритий вихідний код інноваційний фреймворк: можна перетворити DeepSeek у AI Agent

Корпорація Майкрософт випустила останню версію OmniParser V2.0, яка підвищує ефективність і точність роботи агента ШІ на комп'ютерах, особливо у виявленні дрібних елементів інтерфейсу користувача та швидкості висновків. Продуктивність цієї версії в тесті агентів з високою роздільною здатністю також значно покращилася, досягнувши вражаючої точності 39,6%. Крім того, Microsoft має омнітул з відкритим вихідним кодом, ключовий інструмент для перетворення великих моделей на агентів.
Більше
AGENT10.2%
GPT0.91%
  • 2
  • 4

Гарячі теми

Більше

Криптокалендар

Більше
Розблокування токенів
IOTA (IOTA) розблокує 15,16 мільйона токенів 23 липня о 8:00, вартістю приблизно 3,61 мільйона доларів, що становить 0,39% від оборотної пропозиції.
2025-07-23
Основні події
Розробники Ethereum планують запустити Fusaka Devnet-3 23 липня.
2025-07-23
Оновлення проекту
Білий дім розглядає можливість призначення 23 липня «Днем дій у сфері штучного інтелекту».
2025-07-23
Barnard на Основній мережі
"Barnard додатково децентралізує управління та суттєво покращує досвід розробників MultiversX."
2025-07-23
Основна мережа Upgrade
Root Network планує впровадити своє основне оновлення мережі між 23 та 24 липня. Версія 1.79.0 зосереджується на реструктуризації зберігання даних NFT для покращення продуктивності, стабільності та масштабованості. Під час міграції певні мережеві послуги—включаючи мінтинг NFT, бриджинг та активність на ринку—будуть недоступні приблизно на 24 години. Тестування на тестнеті Porcini починається 17 липня.
2025-07-23