Skip to content

Conversation

@kjasn
Copy link
Contributor

@kjasn kjasn commented Nov 26, 2025

Involved Issue / 该 PR 相关 Issue

Close #20556

Example for the Proposed Route(s) / 路由地址示例

/qwen/blog/zh-cn

New RSS Route Checklist / 新 RSS 路由检查表

  • New Route / 新的路由
  • Anti-bot or rate limit / 反爬/频率限制
    • If yes, do your code reflect this sign? / 如果有, 是否有对应的措施?
  • Date and time / 日期和时间
    • Parsed / 可以解析
    • Correct time zone / 时区正确
  • New package added / 添加了新的包
  • Puppeteer

Note / 说明

qwenlm.github.io 已迁移到 qwen.ai,替换为新的路由

@github-actions
Copy link
Contributor

Successfully generated as following:

http://localhost:1200/qwen/blog/zh-cn - Success ✔️
<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Qwen Blog</title>
    <link>https://qwen.ai/api/page_config?code=research.research-list&amp;language=zh-cn</link>
    <atom:link href="http://localhost:1200/qwen/blog/zh-cn" rel="self" type="application/rss+xml"></atom:link>
    <description>Qwen Blog - Powered by RSSHub</description>
    <generator>RSSHub</generator>
    <webMaster>[email protected] (RSSHub)</webMaster>
    <language>en</language>
    <lastBuildDate>Wed, 26 Nov 2025 13:07:05 GMT</lastBuildDate>
    <ttl>5</ttl>
    <item>
      <title>Qwen DeepResearch: 当灵感不再需要理由</title>
      <description>[点我体验最新&amp;nbsp;Qwen&amp;nbsp;DeepResearch](https://chat.qwen.ai/?inputFeature=deep_research)++_**灵感是如何死掉的?**_++它通常不是死于“不够好”,而是死于“太麻烦”。当一个念头闪现时,它还是脆弱的、未经证实的。我们的大脑在短暂兴奋后,会立刻开始评估“成本”:就在这个“成本评估”的瞬间,绝大多数灵感就被“理性”地扼杀了。我们下意识</description>
      <link>https://qwen.ai/blog?id=qwen-deepresearch</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-deepresearch</guid>
      <pubDate>Wed, 12 Nov 2025 20:59:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01DvbmDu1DeQYSDv1qm_!!6000000000241-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-Max:大就是好</title>
      <description>继 Qwen3-2507 系列发布之后,我们非常高兴地推出 Qwen3-Max —— 我们迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达</description>
      <link>https://qwen.ai/blog?id=qwen3-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-max</guid>
      <pubDate>Wed, 24 Sep 2025 04:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01FsxFnQ28qGswUnBBH_!!6000000007983-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-LiveTranslate:视、听、说全模态同传大模型!</title>
      <description>**Qwen3-LiveTranslate-Flash** 是一款基于大语言模型的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。核心亮点:在公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-</description>
      <link>https://qwen.ai/blog?id=qwen3-livetranslate</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-livetranslate</guid>
      <pubDate>Mon, 22 Sep 2025 23:00:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN010Ryzsc240HSitcBIb_!!6000000007328-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-VL:明察、深思、广行</title>
      <description>今天,我们正式推出全新升级的 **Qwen3-VL** 系列——这是迄今为止 Qwen 系列中最强大的视觉语言模型。在这一代模型中,我们在多个维度实现了全面跃升:无论是纯文本理解与生成,还是视觉内容的感知与推理;无论是上下文长度的支持能力,还是对空间关系、动态视频的理解深度;乃至在与Agent交互中的表现,Qwen3-VL 都展现出显著进步。今天,我们率先开源的是该系列的旗舰模型 —— **Qwe</description>
      <link>https://qwen.ai/blog?id=qwen3-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-vl</guid>
      <pubDate>Mon, 22 Sep 2025 22:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01vaefld1KExpoyKAZT_!!6000000001133-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>旅行规划师:你的专属智能行程设计师</title>
      <description>我们非常高兴推出全新的**旅行规划助手**,这是一个基于 **Multi-Agent 架构** 并具备强大 **真实工具调用能力** 的旅行规划系统,能够高效应对复杂、多变的行程安排任务。无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案:旅行规划是一项系统工程,涵盖交通、景点、住宿、用餐等环节,它们环环相扣、相互影响,任何单一 Agent 都难以全面驾驭其中的复杂</description>
      <link>https://qwen.ai/blog?id=agent</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=agent</guid>
      <pubDate>Mon, 22 Sep 2025 21:00:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01cdVHX81W7QhzPPAnF_!!6000000002741-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3Guard: 实时安全,逐词响应</title>
      <description>我们隆重推出 Qwen3Guard —— Qwen 家族中首款专为安全防护设计的护栏模型。该模型基于强大的 Qwen3 基础架构打造,并针对安全分类任务进行了专项微调,旨在为人工智能交互提供精准、可靠的安全保障。无论是用户输入的提示,还是模型生成的回复,Qwen3Guard 均可高效识别潜在风险,输出细粒度的风险等级与分类标签,助力实现更负责任的 AI 应用。在多项主流安全评测基准上,Qwen3G</description>
      <link>https://qwen.ai/blog?id=qwen3guard</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3guard</guid>
      <pubDate>Mon, 22 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN019JeUHo25owtXMDWx9_!!6000000007574-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-Image-Edit-2509: 多图编辑支持,单图一致性提升</title>
      <description>这个9月,我们很高兴推出 Qwen-Image-Edit-2509,作为 Qwen-Image-Edit 的月迭代版本。如需体验最新模型,欢迎访问 [Qwen Chat](https://qwen.ai) 并选择“图像编辑”功能。相比于8月发布的 Qwen-Image-Edit,Qwen-Image-Edit-2509 的主要特性包括:**Qwen-Image-Edit-2509 的首要更新是支</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit-2509</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit-2509</guid>
      <pubDate>Mon, 22 Sep 2025 16:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01LKSHVM1TeSQFp30rK_!!6000000002407-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Omni:新一代原生全模态大模型!</title>
      <description>**Qwen3-Omni**是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。我们引入了多种升级来提升模型表现和效率。主要特点:Qwen3-Omni采用Thinker-Talker架构:Thinker负责文本生成,Talker专注于流式语音Token生成,直接接收来自Thinker的高层语义表征。为实现超低延迟流式生成,Tal</description>
      <link>https://qwen.ai/blog?id=qwen3-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-omni</guid>
      <pubDate>Sun, 21 Sep 2025 21:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019dkYGs1MZgzWLyY5b_!!6000000001449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-TTS-Flash:多音色 &amp; 多语言 &amp; 多方言的语音合成</title>
      <description>**Qwen3-TTS-Flash** 是支持多音色、多语言和多方言的旗舰语音合成模型,旨在生成自然且具有表现力的语音,目前可通过[Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts)访问。主要特点:这里有一些样例展示了单说话人的多语种生成能力:这里有一些样例展示了中英文的音色:这里有一些样例展示了方言的音色:这里有一些样例展示了混</description>
      <link>https://qwen.ai/blog?id=qwen3-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-tts</guid>
      <pubDate>Sun, 21 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN013073ud1eVGF6hgIER_!!6000000003876-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Next:迈向更极致的训练推理性价比</title>
      <description>我们认为**Context Length Scaling**和**Total Parameter Scaling**是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,我们设计了全新的Qwen3-Next的模型结构。该结构相比Qwen3的MoE模型结构,进行了以下核心改进:**混合注意力机制**、**高稀疏度 MoE 结构**、一系列**训练稳定友好的优化**</description>
      <link>https://qwen.ai/blog?id=qwen3-next</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-next</guid>
      <pubDate>Wed, 10 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01xlZLeM29RMxon1D1I_!!6000000008064-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3 ASR:听得清楚,转写聪明。</title>
      <description>Qwen3-ASR-Flash现已正式发布,一个基于Qwen3基座模型强大的智能、海量多模态数据以及千万小时规模的ASR数据构建的语音识别服务。
        Qwen3-ASR-Flash实现了高精度高鲁棒性的语音识别性能,支持11种语言和多种口音。与众不同的是,Qwen3-ASR-Flash支持用户以任意格式提供文本上下文,从而获得定制化的 ASR 结果,同时还支持歌声识别。**📊 性能表现:****</description>
      <link>https://qwen.ai/blog?id=qwen3-asr-flash</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-asr-flash</guid>
      <pubDate>Mon, 08 Sep 2025 11:37:47 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019nzIdf1KGL1IeSFGE_!!6000000001136-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image-Edit: 全能图像编辑,驱动内容创作提质增效</title>
      <description>我们很高兴推出 Qwen-Image-Edit,Qwen-Image 的图像编辑版本。Qwen-Image-Edit 基于我们20B的 Qwen-Image 模型进一步训练,成功将 Qwen-Image 的独特的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 将输入图像同时输入到 Qwen2.5-VL(实现视觉语义控制)和 VAE Encoder</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit</guid>
      <pubDate>Mon, 18 Aug 2025 17:30:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01RXSS4P23dq33QGnKo_!!6000000007279-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image:擅长文字渲染的创作利器</title>
      <description>我们很高兴推出 Qwen-Image,一个20B的MMDiT模型。这是通义千问系列中首个图像生成基础模型,其在复杂文本渲染和精确图像编辑方面取得了显著进展。如需体验最新模型,欢迎访问 [Qwen Chat](https://chat.qwen.ai/) 并选择“图像生成”功能。主要特性包括:我们在多个公开基准上对Qwen-Image进行了全面评估,包括用于通用图像生成的GenEval、DPG和O</description>
      <link>https://qwen.ai/blog?id=qwen-image</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image</guid>
      <pubDate>Mon, 04 Aug 2025 14:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01DLyyGs1bYWCqvLkzC_!!6000000003477-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>GSPO:迈向持续拓展的语言模型强化学习</title>
      <description>强化学习 (Reinforcement Learning,RL)已成为拓展语言模型、增强其深度推理与问题求解能力的关键技术范式。为了持续拓展 RL,首要前提是确保稳定、鲁棒的训练过程。然而,我们观察到现有的 RL 算法(如 GRPO)在长期训练中会暴露出严重的不稳定性问题并招致不可逆转的模型崩溃,阻碍了通过增加计算以获得进一步的性能提升。为了能够持续拓展 RL,我们提出了 **Group Sequ</description>
      <link>https://qwen.ai/blog?id=gspo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=gspo</guid>
      <pubDate>Sun, 27 Jul 2025 07:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0123XiTi1edxlJi3WKt_!!6000000003895-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-MT:速度与智能翻译的完美融合</title>
      <description>我们通过[Qwen API](https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen-mt-turbo) 推出了 Qwen-MT(qwen-mt-turbo)的最新升级版本。本次更新基于强大的 Qwen3 模型,进一步使用超大规模多语言和翻译数据对模型进行训练,全面增强其多语言理解与翻译能力,并结合强化学习技术</description>
      <link>https://qwen.ai/blog?id=qwen-mt</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-mt</guid>
      <pubDate>Thu, 24 Jul 2025 14:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01mADZAp1UuJkNlERCM_!!6000000002577-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen3-Coder: 在世界中自主编程</title>
      <description>今天我们正式发布 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent</description>
      <link>https://qwen.ai/blog?id=qwen3-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-coder</guid>
      <pubDate>Tue, 22 Jul 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01bzvTND1zoaswjOuqr_!!6000000006761-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Time to Speak Some Dialects, Qwen-TTS!</title>
      <description>我们通过 [Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts) 更新了 **Qwen-TTS** ( `qwen-tts-latest` or `qwen-tts-2025-05-22` ) 的最新版本。Qwen-TTS 使用了超过 300 万小时的大规模语料库进行训练,合成效果实现了人类级别的自然度和表现力。比较亮眼的是,Qwe</description>
      <link>https://qwen.ai/blog?id=qwen-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-tts</guid>
      <pubDate>Fri, 27 Jun 2025 07:01:34 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01rAfdGa221zhrdVE8M_!!6000000007061-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen VLo: 从“看懂”世界到“描绘”世界</title>
      <description>多模态大模型的演进正在不断突破我们对技术边界的认知。从最初的 QwenVL 到如今的 Qwen2.5 VL ,我们在提升模型对图像内容的理解能力方面取得了一些进展。今天,我们正式推出 Qwen VLo ——一个多模态统一理解与生成模型。这一全新升级的模型不仅能够“看懂”世界,更能基于理解进行高质量的再创造,真正实现了从感知到生成的跨越。需要注意的是,这是一款预览版本,您可以通过 Qwen Chat</description>
      <link>https://qwen.ai/blog?id=qwen-vlo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vlo</guid>
      <pubDate>Thu, 26 Jun 2025 14:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01h8zlPf1K0lYBrVOU2_!!6000000001102-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3 Embedding:新一代文本表征与排序模型</title>
      <description>我们正式发布 Qwen3 Embedding 系列模型, Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。我们使用了 Apache 2.0 协议在 Hugging Face 和 ModelS</description>
      <link>https://qwen.ai/blog?id=qwen3-embedding</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-embedding</guid>
      <pubDate>Thu, 05 Jun 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01rxbtmx1blLISPGLPx_!!6000000003505-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3:思深,行速</title>
      <description>今天,我们宣布推出 **Qwen3**,这是 Qwen 系列大型语言模型的最新成员。我们的旗舰模型 **Qwen3-235B-A22B** 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 **Qwen3-30B-A3B** 的激活参数数量是 QwQ</description>
      <link>https://qwen.ai/blog?id=qwen3</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3</guid>
      <pubDate>Mon, 28 Apr 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01EJM5sy23hVDXqN07i_!!6000000007287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QVQ-Max:有依据地思考</title>
      <description>去年12月,我们推出了 QVQ-72B-Preview, 作为一个探索模型,它存在很多问题。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这款模型的特点是,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。虽然这只是我们的第一个版本,但它的潜力已经让人眼前一亮。Mat</description>
      <link>https://qwen.ai/blog?id=qvq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-max-preview</guid>
      <pubDate>Thu, 27 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018onW8W1DwHz54wSs4_!!6000000000280-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5 Omni:看得见、听得到、会说话、能写作,样样精通!</title>
      <description>我们发布了 **Qwen2.5-Omni**,Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。想要体验最新的模型,请访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择Qwen2.5-Omni-7B。该模型现已在 [Hugging Fa</description>
      <link>https://qwen.ai/blog?id=qwen2.5-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-omni</guid>
      <pubDate>Wed, 26 Mar 2025 16:00:45 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01GVuL0G1XWRxG74IKH_!!6000000002931-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-VL-32B: 更聪明、更轻量!</title>
      <description>今年一月底,我们推出了 Qwen2.5-VL 系列模型,获得了社区的广泛关注和积极反馈。在 Qwen2.5-VL 系列的基础上,我们使用强化学习持续优化模型,并使用 Apache 2.0 协议开源 32B 这个备受喜爱的参数规模的新 VL 模型—— **Qwen2.5-VL-32B-Instruct**。相比此前发布的 Qwen2.5-VL 系列模型,本次推出的 32B 模型的特点如下:我们与业内</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl-32b</guid>
      <pubDate>Sun, 23 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01iCwLhw1Hl4kYUm5rB_!!6000000000797-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QwQ-32B: 领略强化学习之力</title>
      <description>大规模强化学习(RL)有潜力超越传统的预训练和后训练方法来提升模型性能。近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。这一次,我们探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时很高兴推出我们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能</description>
      <link>https://qwen.ai/blog?id=qwq-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b</guid>
      <pubDate>Wed, 05 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012xm8Cw1OKhFTItwHC_!!6000000001687-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>&lt;think&gt;...&lt;/think&gt; QwQ-Max-Preview</title>
      <description>这篇博客出自 QwQ-Max-Preview 之手。希望各位看官喜欢!我们很高兴向大家介绍 QwQ-Max-Preview,这是 Qwen 系列的最新成果。这一版本基于 Qwen2.5-Max 构建,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。作为即将发布的 QwQ-Max 的预览版,这个版本还在持续优化中。我们计划在不久的将来以 Apache </description>
      <link>https://qwen.ai/blog?id=qwq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-max-preview</guid>
      <pubDate>Mon, 24 Feb 2025 18:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01ihrh5V1DzUkyhg1w6_!!6000000000287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Max:探索大规模 MoE 模型的智能</title>
      <description>过去有一种观点认为,持续地增长数据规模和模型参数规模是一种通向 AGI 的可能的路径。然而,整个大模型社区对于训练超大规模的模型的经验都相对匮乏,不论是稠密模型还是 MoE 模型。近期,DeepSeek V3 的发布让大家了解到超大规模 MoE 模型的效果及实现方法,而同期,Qwen 也在研发超大规模的 MoE 模型 Qwen2.5-Max,使用超过 20 万亿 token 的预训练数据及精心设计</description>
      <link>https://qwen.ai/blog?id=qwen2.5-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-max</guid>
      <pubDate>Tue, 28 Jan 2025 15:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0132o2E81svHMDRbZdV_!!6000000005828-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-1M: 支持100万Token上下文的开源Qwen模型</title>
      <description>两个月前,我们升级了 [Qwen2.5-Turbo](../qwen2.5-turbo),使其支持最多一百万个Tokens的上下文长度。今天,我们正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次发布的亮点:现在,你可以访问我们在 [Huggingface](https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo) 和 [Mo</description>
      <link>https://qwen.ai/blog?id=qwen2.5-1m</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-1m</guid>
      <pubDate>Sun, 26 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01VPK3rY1y1l2TcnRy1_!!6000000006519-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5 VL!Qwen2.5 VL!Qwen2.5 VL!</title>
      <description>我们发布了 **Qwen2.5-VL**,Qwen 模型家族的旗舰视觉语言模型,对比此前发布的 Qwen2-VL 实现了巨大的飞跃。欢迎访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择 Qwen2.5-VL-72B-Instruct 进行体验。此外,我们在 [Hugging Face](https://huggingface.co/collections/Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl</guid>
      <pubDate>Sun, 26 Jan 2025 11:08:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01X7ff9q1QcDdIi7Ph4_!!6000000001996-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>通过全局负载均衡提升混合专家模型的性能和特异化程度</title>
      <description>混合专家模型(MoEs)通过路由机制动态并稀疏地激活模型参数,使得能高效地增大模型参数规模。基于 TopK 机制的稀疏激活会在训练中会遇到专家激活不均衡的问题:少数被频繁选择的专家会被优化得更多,进一步使得这些专家被更频繁地选择,最终导致只选择少数专家,造成剩余专家的冗余。因此,MoE 在训练中需要引入额外的辅助损失(load balance loss,LBL)来鼓励专家的选择趋于均衡。目前主流 </description>
      <link>https://qwen.ai/blog?id=global-load-balance</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=global-load-balance</guid>
      <pubDate>Mon, 20 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01JH0zOD1QBef4OeeC9_!!6000000001938-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>面向有效的数学推理过程监督</title>
      <description>近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能犯错误,如计算错误或逻辑错误,导致得出错误结论。
        此外,即使最终答案正确,这些强大的模型也经常编造看似合理的推理步骤,其中最终答案基于有缺陷的计算或推导过程,这削弱了LLMs推理过程的可靠性和可信度。
        因此,自动识别推理过程中的错误对于其可扩展监督变得越来越重要。过程奖励模型(Process Reward Models, P</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math-prm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math-prm</guid>
      <pubDate>Mon, 13 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01OSlKdt1bSZ3cFUpX5_!!6000000003464-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QVQ: 更睿智地看世界</title>
      <description>在人类的思维中,语言和视觉紧密交织,塑造着我们感知和理解世界的方式。我们的推理能力深深植根于语言思维和视觉记忆之中。那么,当我们将这些能力赋予人工智能时,会发生什么呢?如今的大语言模型已经展现出卓越的推理能力,但我们不禁思考:它们能否通过掌握视觉理解的力量,攀登认知能力的新高峰?设想一下,一个人工智能能够像物理学大师一样,面对复杂的物理问题,沉着冷静地通过逻辑推理找到解决方案。正是这样的愿景激发我</description>
      <link>https://qwen.ai/blog?id=qvq-72b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-72b-preview</guid>
      <pubDate>Tue, 24 Dec 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01NnpNB71gquBYp5Pxh_!!6000000004194-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QwQ: 思忖未知之界</title>
      <description>*注意:QwQ 的发音为 /kwju:/ ,与单词 &quot;quill&quot; 的读音近似。*思考、质疑、理解,是人类探索未知的永恒追求。在这条探索之路上,QwQ犹如一位怀抱无尽好奇的学徒,以思考和疑问照亮前路。QwQ体现了古老的哲学精神:它深知自己一无所知,而这种认知正是其好奇心的源泉。在探寻答案的过程中,它始终保持自省,以理性之光审视每一个假设,在不同的思维维度中穿行,追寻更深层的真理。然而,正如所有智慧</description>
      <link>https://qwen.ai/blog?id=qwq-32b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b-preview</guid>
      <pubDate>Wed, 27 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN018w4xvj1u3oLqye6H8_!!6000000005982-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>将上下文长度扩展至百万 Tokens !</title>
      <description>在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于:现在,你可以通过[阿里云大模型服务平台](https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm</description>
      <link>https://qwen.ai/blog?id=qwen2.5-turbo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-turbo</guid>
      <pubDate>Thu, 14 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01SeMiF024thNW91dLw_!!6000000007449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Coder 全系列: 强大、多样、实用。</title>
      <description>今天,我们很高兴开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列模型,致力于持续推动 Open CodeLLMs 的发展。另外,Qwen2.5-Coder-32B-Instruct 的多编程语言代码修复能力同样令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Co</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder-family</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder-family</guid>
      <pubDate>Mon, 11 Nov 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01jQ4vU91nfdkpmxdu9_!!6000000005117-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5: 基础模型大派对!</title>
      <description>在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:**Qwen2.5**。我们将要宣布的可能是历史上最大的开源发布!让我们开始这场盛会吧!我们的最新发布包括了语言模型 **Qwen2.5**,以及专门针对编程的 **Qwen</description>
      <link>https://qwen.ai/blog?id=qwen2.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0102k1Cr1Nq0iEVrSyO_!!6000000001620-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-LLM:扩展大型语言模型的边界</title>
      <description>我们隆重推出最新发布的Qwen2.5系列语言模型!我们共开源了7款decoder-only的稠密模型,参数规模从0.5B到72B不等。我们调研发现产品对10B至30B模型的兴趣明显增加,同时3B规模的模型也越来越适用于移动端场景。为此,Qwen2.5系列开源了Qwen2.5-3B、Qwen2.5-14B 和 Qwen2.5-32B。同时,我们还推出了Qwen-Plus与Qwen-Turbo版本,可</description>
      <link>https://qwen.ai/blog?id=qwen2.5-llm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-llm</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01SVeaRN1U0tp7yfRYk_!!6000000002456-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: 码无止境,学无止境!</title>
      <description>四月初,我们发布了 CodeQwen1.5, 得到了社区广泛的关注与喜爱。自那以后,我们一直在继续努力提升代码模型。今天,我们很高兴地宣布新一代的开放代码模型 Qwen2.5-Coder 的发布。并正式将 CodeQwen 的命名改为 Qwen-Coder,我们认为 Coder 更加拟人、灵动,期待其可以在未来真正与人类结对编程。Qwen2.5-Coder 是我们 Qwen2.5 开源家族的一员,</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01mLq5fi1eItXkE3Czw_!!6000000003849-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-Math: 世界领先的数学开源大语言模型</title>
      <description>**🚨 Qwen2.5-Math主要被设计用于通过CoT或TIR的方式解中英数学题,我们不推荐在其他任务上使用该系列模型。**一个月前,我们开源了 Qwen 家族的第一款数学专项大语言模型- [Qwen2-Math](https://qwenlm.github.io/blog/qwen2-math/)。 今天,我们将它再度升级并开源 **Qwen2.5-Math** 系列,包括基础模型 **Qw</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:01 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01GOEJky1diiFo5ek9M_!!6000000003770-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-VL: 更清晰地看世界</title>
      <description>经历了接近一年时间的持续努力,今天我们很高兴地宣布我们最新一代的视觉语言模型:**Qwen2-VL** !Qwen2-VL 基于 Qwen2 打造,相比 Qwen-VL,它具有以下特点:我们以 Apache 2.0 协议开源了 Qwen2-VL-2B 和 Qwen2-VL-7B,并发布了 Qwen2-VL-72B 的 API!开源代码已集成到 Hugging Face Transformers、v</description>
      <link>https://qwen.ai/blog?id=qwen2-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-vl</guid>
      <pubDate>Wed, 28 Aug 2024 16:24:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN014TFaLH1L3LObKr3aD_!!6000000001243-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Audio:开启语音对话!</title>
      <description>在一个通用的AI系统中,核心模型应该能够理解不同模态的信息。当前的大语言模型现在已经能够理解语言并进行推理,并且已经扩展到了更多的模态,包括视觉和音频。此前我们陆续发布了多个 Qwen 语言模型系列以及 Qwen-VL 和 Qwen-Audio 等多模态模型。今天,我们正式发布 Qwen2-Audio。这是 Qwen-Audio 的下一代版本,它能够接受音频和文本输入,并生成文本输出。Qwen2-</description>
      <link>https://qwen.ai/blog?id=qwen2-audio</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-audio</guid>
      <pubDate>Fri, 09 Aug 2024 08:22:39 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01gYXp0M1dwS8UOaQBr_!!6000000003800-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Math,新一代数学模型</title>
      <description>**🚨 此模型目前主要支持英语。我们将尽快推出中英双语版本。**在过去的一年里,我们非常关注大模型的推理能力的提升,尤其关注其在数学相关的任务上的表现。今天,我们非常高兴地介绍 Qwen2 开源家族的新成员——Qwen2-Math-1.5B/7B/72B 系列。Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模</description>
      <link>https://qwen.ai/blog?id=qwen2-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-math</guid>
      <pubDate>Wed, 07 Aug 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01CEdMM02511iWTPvnu_!!6000000007465-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>你好,Qwen2</title>
      <description>历经数月努力, 我们很高兴迎来了Qwen系列模型从Qwen1.5到Qwen2的重大升级。这一次,我们为大家带来了:目前,我们已在Hugging Face和ModelScope上同步开源。期待听到你们的使用反馈!Qwen2系列包含5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B。如下表所示:在Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2</guid>
      <pubDate>Thu, 06 Jun 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01oKhdZr1j6azCVU5Ex_!!6000000004499-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>使用Qwen-Agent将上下文记忆扩展到百万量级</title>
      <description>**长话短说:** 我们开发了一个智能体用于理解包含百万字词的文档,虽然仅使用Qwen2模型的8k上下文,但效果超过RAG和长序列原生模型。我们还利用此智能体合成长上下文数据,用于训练长上下文的Qwen模型。近期,能够原生处理数百万字输入的大型语言模型(LLMs)成为了一种趋势。大部分工作集中在模型架构调整,如位置编码扩展或线性注意力机制等。然而,准备足够长度的微调数据作为讨论较少但同样重要的议题</description>
      <link>https://qwen.ai/blog?id=qwen-agent-2405</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-agent-2405</guid>
      <pubDate>Thu, 06 Jun 2024 03:59:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01i4Q6AR23XQVIi6lS8_!!6000000007265-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Max-0428模型介绍</title>
      <description>此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了[Chatbot Arena](https://chat.lmsys.org/),并登榜前十。此外,我们在MT-Bench的评测上也观察到</description>
      <link>https://qwen.ai/blog?id=qwen-max-0428</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-max-0428</guid>
      <pubDate>Sat, 11 May 2024 10:10:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01xS57GM1QpxW0ZCG2X_!!6000000002026-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-110B:Qwen1.5系列的首个千亿参数开源模型</title>
      <description>近期开源社区陆续出现了千亿参数规模以上的大模型,这些模型都在各项评测中取得杰出的成绩。今天,我们开源1100亿参数的Qwen1.5系列首个千亿参数模型Qwen1.5-110B,该模型在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。Qwen1.5-110B与其他Qwen1.5模型相似,采用了相同的Transform</description>
      <link>https://qwen.ai/blog?id=qwen1.5-110b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-110b</guid>
      <pubDate>Thu, 25 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01vfdPqh25i4wmsaCus_!!6000000007559-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>与 CodeQwen1.5 结对编程</title>
      <description>代码助手,是一种基于 LLMs 的智能化的编程工具,它可以帮助程序员更高效、更准确的编写代码,使得整个软件开发过程更加流畅和高效。然而流行的代码助手,比如 Github Copilot,依赖于闭源的商业模型,不仅昂贵还会引起如隐私、安全、版权等方面的担忧。幸运的是,开源社区正在致力于打造开放代码模型来实现开放的代码助手。近期涌现出了一批优秀的 Open CodeLLMs,比如 StarCoder2</description>
      <link>https://qwen.ai/blog?id=codeqwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=codeqwen1.5</guid>
      <pubDate>Tue, 16 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018fmQVa1hHvYNVqCuw_!!6000000004253-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen1.5-32B:Qwen1.5语言模型系列的最后一块拼图</title>
      <description>开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat</description>
      <link>https://qwen.ai/blog?id=qwen1.5-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-32b</guid>
      <pubDate>Tue, 02 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01FJuMNI1EzKE29cJaY_!!6000000000422-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-MoE: 1/3的激活参数量达到7B模型的性能</title>
      <description>今天,我们推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral 7B和Qwen1.5-7B相媲美。相较于包含65亿个Non-Embedding参数的Qwen1.5-7B,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,约为原模型大小的三分之一。此外,相比Qwen1.5</description>
      <link>https://qwen.ai/blog?id=qwen-moe</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-moe</guid>
      <pubDate>Thu, 28 Mar 2024 03:31:44 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN014wNJhC1kHsMAfWFpM_!!6000000004659-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5 介绍</title>
      <description>最近几个月,我们专注探索如何构建一个真正「卓越」的模型,并在此过程中不断提升开发者的使用体验。农历新年到来之际,我们推出通义千问开源模型 1.5 版本: **Qwen1.5**。我们开源了包括 0.5B、1.8B、4B、7B、14B、32B、72B 和 110B 共计 8 个不同规模的 Base 和 Chat 模型,, 以及一个 MoE 模型(点击[博客](https://qwenlm.githu</description>
      <link>https://qwen.ai/blog?id=qwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5</guid>
      <pubDate>Sun, 04 Feb 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01yFtQhb1eLBWVKbHXJ_!!6000000003854-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-VL全新升级!</title>
      <description>我们在 Qwen 语言模型的基础上,结合此前我们提出的多模态多任务训练,以解决多模态模型在泛化能力上的局限性,并于 2023 年 9 月开源了多模态模型 Qwen-VL。最近,Qwen-VL 系列有了重大升级,推出了两个增强版本:Qwen-VL-Plus 和 Qwen-VL-Max。这两个版本的关键提升包括:相比于开源版本的 Qwen-VL,这两个模型在多个文本-图像多模态任务中与 Gemini </description>
      <link>https://qwen.ai/blog?id=qwen-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vl</guid>
      <pubDate>Thu, 25 Jan 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01qEwYVn1RlfQ3jmcAr_!!6000000002152-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen介绍</title>
      <description>四个月前,我们首次发布Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。Additionally, we have WeChat groups for chatting and we invite you to join the groups through the provided lin</description>
      <link>https://qwen.ai/blog?id=qwen</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen</guid>
      <pubDate>Tue, 23 Jan 2024 14:13:29 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01hkVY7m1vfeh4TZKRq_!!6000000006200-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>OFASys:一行代码带你搞定多任务学习!</title>
      <description>通用模型非常火!我们现在跟随多模态多任务学习的发展似乎看到了实现一个真正的通用模型的机会。我们此前推出的OFA便是朝着这个目标迈向的重要一步。但是,我们在实际实现过程中遇到了非常多的困难。比如说,把多任务训练的模型搭建起来,组织多任务的训练比如给数据打batch和保证训练稳定等等,都非常困难。因此,我们推出一个AI系统OFASys,它主要解决多模态多任务学习的实现问题。简单来说,它主要通过一个叫做</description>
      <link>https://qwen.ai/blog?id=ofasys</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofasys</guid>
      <pubDate>Wed, 28 Dec 2022 10:01:21 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012Ygfqw1M8DDmt996q_!!6000000001389-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Chinese CLIP: 中文图文对比学习预训练</title>
      <description>CLIP[^1]是多模态表示学习领域一个现象级的模型。它不仅扮演基础模型,并且建立了视觉和语言的桥梁。它还推动了很多其他领域技术的发展,尤其是文本生成图像。然而,我们还需要特定语言的CLIP,尤其在现实应用中,比如跨模态检索。在此之前还没有效果较好的开源中文CLIP。因此我们希望通过这个项目推动中文多模态的发展。在诸如跨模态检索的图文应用中,语言往往扮演重要的角色。假设直接使用CLIP和翻译文本,</description>
      <link>https://qwen.ai/blog?id=chinese-clip</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=chinese-clip</guid>
      <pubDate>Sat, 24 Dec 2022 06:54:19 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01Ayrj141Z6v6o0otgL_!!6000000003146-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>OFA:走向通用统一模型</title>
      <description>2022年可以说是属于通用模型的一年!随着多模态预训练的蓬勃发展,尤其是通用模型,我们看到实现一个具有处理多种模态的多种任务的能力的通用模型的机会。因此我们提出OFA[^1],即One-For-All。它是一个统一的多模态预训练模型,以统一的模型架构和任务形式兼容多模态和单模态的理解与生成任务。我们使用多模态多任务的方式预训练OFA,使其成为一个接近全能的模型。我们将OFA的模型和代码全部开源到社</description>
      <link>https://qwen.ai/blog?id=ofa</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofa</guid>
      <pubDate>Mon, 14 Nov 2022 08:01:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01gPY1pH1eB6oHfVgrk_!!6000000003832-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
  </channel>
</rss>

@github-actions
Copy link
Contributor

Successfully generated as following:

http://localhost:1200/qwen/blog/zh-cn - Success ✔️
<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Qwen Blog</title>
    <link>https://qwen.ai/api/page_config?code=research.research-list&amp;language=zh-cn</link>
    <atom:link href="http://localhost:1200/qwen/blog/zh-cn" rel="self" type="application/rss+xml"></atom:link>
    <description>Qwen Blog - Powered by RSSHub</description>
    <generator>RSSHub</generator>
    <webMaster>[email protected] (RSSHub)</webMaster>
    <language>en</language>
    <lastBuildDate>Wed, 26 Nov 2025 13:15:35 GMT</lastBuildDate>
    <ttl>5</ttl>
    <item>
      <title>Qwen DeepResearch: 当灵感不再需要理由</title>
      <description>[点我体验最新&amp;nbsp;Qwen&amp;nbsp;DeepResearch](https://chat.qwen.ai/?inputFeature=deep_research)++_**灵感是如何死掉的?**_++它通常不是死于“不够好”,而是死于“太麻烦”。当一个念头闪现时,它还是脆弱的、未经证实的。我们的大脑在短暂兴奋后,会立刻开始评估“成本”:就在这个“成本评估”的瞬间,绝大多数灵感就被“理性”地扼杀了。我们下意识</description>
      <link>https://qwen.ai/blog?id=qwen-deepresearch</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-deepresearch</guid>
      <pubDate>Wed, 12 Nov 2025 20:59:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01DvbmDu1DeQYSDv1qm_!!6000000000241-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-Max:大就是好</title>
      <description>继 Qwen3-2507 系列发布之后,我们非常高兴地推出 Qwen3-Max —— 我们迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达</description>
      <link>https://qwen.ai/blog?id=qwen3-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-max</guid>
      <pubDate>Wed, 24 Sep 2025 04:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01FsxFnQ28qGswUnBBH_!!6000000007983-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-LiveTranslate:视、听、说全模态同传大模型!</title>
      <description>**Qwen3-LiveTranslate-Flash** 是一款基于大语言模型的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。核心亮点:在公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-</description>
      <link>https://qwen.ai/blog?id=qwen3-livetranslate</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-livetranslate</guid>
      <pubDate>Mon, 22 Sep 2025 23:00:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN010Ryzsc240HSitcBIb_!!6000000007328-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-VL:明察、深思、广行</title>
      <description>今天,我们正式推出全新升级的 **Qwen3-VL** 系列——这是迄今为止 Qwen 系列中最强大的视觉语言模型。在这一代模型中,我们在多个维度实现了全面跃升:无论是纯文本理解与生成,还是视觉内容的感知与推理;无论是上下文长度的支持能力,还是对空间关系、动态视频的理解深度;乃至在与Agent交互中的表现,Qwen3-VL 都展现出显著进步。今天,我们率先开源的是该系列的旗舰模型 —— **Qwe</description>
      <link>https://qwen.ai/blog?id=qwen3-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-vl</guid>
      <pubDate>Mon, 22 Sep 2025 22:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01vaefld1KExpoyKAZT_!!6000000001133-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>旅行规划师:你的专属智能行程设计师</title>
      <description>我们非常高兴推出全新的**旅行规划助手**,这是一个基于 **Multi-Agent 架构** 并具备强大 **真实工具调用能力** 的旅行规划系统,能够高效应对复杂、多变的行程安排任务。无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案:旅行规划是一项系统工程,涵盖交通、景点、住宿、用餐等环节,它们环环相扣、相互影响,任何单一 Agent 都难以全面驾驭其中的复杂</description>
      <link>https://qwen.ai/blog?id=agent</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=agent</guid>
      <pubDate>Mon, 22 Sep 2025 21:00:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01cdVHX81W7QhzPPAnF_!!6000000002741-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3Guard: 实时安全,逐词响应</title>
      <description>我们隆重推出 Qwen3Guard —— Qwen 家族中首款专为安全防护设计的护栏模型。该模型基于强大的 Qwen3 基础架构打造,并针对安全分类任务进行了专项微调,旨在为人工智能交互提供精准、可靠的安全保障。无论是用户输入的提示,还是模型生成的回复,Qwen3Guard 均可高效识别潜在风险,输出细粒度的风险等级与分类标签,助力实现更负责任的 AI 应用。在多项主流安全评测基准上,Qwen3G</description>
      <link>https://qwen.ai/blog?id=qwen3guard</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3guard</guid>
      <pubDate>Mon, 22 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN019JeUHo25owtXMDWx9_!!6000000007574-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-Image-Edit-2509: 多图编辑支持,单图一致性提升</title>
      <description>这个9月,我们很高兴推出 Qwen-Image-Edit-2509,作为 Qwen-Image-Edit 的月迭代版本。如需体验最新模型,欢迎访问 [Qwen Chat](https://qwen.ai) 并选择“图像编辑”功能。相比于8月发布的 Qwen-Image-Edit,Qwen-Image-Edit-2509 的主要特性包括:**Qwen-Image-Edit-2509 的首要更新是支</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit-2509</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit-2509</guid>
      <pubDate>Mon, 22 Sep 2025 16:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01LKSHVM1TeSQFp30rK_!!6000000002407-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Omni:新一代原生全模态大模型!</title>
      <description>**Qwen3-Omni**是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。我们引入了多种升级来提升模型表现和效率。主要特点:Qwen3-Omni采用Thinker-Talker架构:Thinker负责文本生成,Talker专注于流式语音Token生成,直接接收来自Thinker的高层语义表征。为实现超低延迟流式生成,Tal</description>
      <link>https://qwen.ai/blog?id=qwen3-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-omni</guid>
      <pubDate>Sun, 21 Sep 2025 21:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019dkYGs1MZgzWLyY5b_!!6000000001449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-TTS-Flash:多音色 &amp; 多语言 &amp; 多方言的语音合成</title>
      <description>**Qwen3-TTS-Flash** 是支持多音色、多语言和多方言的旗舰语音合成模型,旨在生成自然且具有表现力的语音,目前可通过[Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts)访问。主要特点:这里有一些样例展示了单说话人的多语种生成能力:这里有一些样例展示了中英文的音色:这里有一些样例展示了方言的音色:这里有一些样例展示了混</description>
      <link>https://qwen.ai/blog?id=qwen3-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-tts</guid>
      <pubDate>Sun, 21 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN013073ud1eVGF6hgIER_!!6000000003876-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Next:迈向更极致的训练推理性价比</title>
      <description>我们认为**Context Length Scaling**和**Total Parameter Scaling**是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,我们设计了全新的Qwen3-Next的模型结构。该结构相比Qwen3的MoE模型结构,进行了以下核心改进:**混合注意力机制**、**高稀疏度 MoE 结构**、一系列**训练稳定友好的优化**</description>
      <link>https://qwen.ai/blog?id=qwen3-next</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-next</guid>
      <pubDate>Wed, 10 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01xlZLeM29RMxon1D1I_!!6000000008064-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3 ASR:听得清楚,转写聪明。</title>
      <description>Qwen3-ASR-Flash现已正式发布,一个基于Qwen3基座模型强大的智能、海量多模态数据以及千万小时规模的ASR数据构建的语音识别服务。
        Qwen3-ASR-Flash实现了高精度高鲁棒性的语音识别性能,支持11种语言和多种口音。与众不同的是,Qwen3-ASR-Flash支持用户以任意格式提供文本上下文,从而获得定制化的 ASR 结果,同时还支持歌声识别。**📊 性能表现:****</description>
      <link>https://qwen.ai/blog?id=qwen3-asr-flash</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-asr-flash</guid>
      <pubDate>Mon, 08 Sep 2025 11:37:47 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019nzIdf1KGL1IeSFGE_!!6000000001136-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image-Edit: 全能图像编辑,驱动内容创作提质增效</title>
      <description>我们很高兴推出 Qwen-Image-Edit,Qwen-Image 的图像编辑版本。Qwen-Image-Edit 基于我们20B的 Qwen-Image 模型进一步训练,成功将 Qwen-Image 的独特的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 将输入图像同时输入到 Qwen2.5-VL(实现视觉语义控制)和 VAE Encoder</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit</guid>
      <pubDate>Mon, 18 Aug 2025 17:30:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01RXSS4P23dq33QGnKo_!!6000000007279-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image:擅长文字渲染的创作利器</title>
      <description>我们很高兴推出 Qwen-Image,一个20B的MMDiT模型。这是通义千问系列中首个图像生成基础模型,其在复杂文本渲染和精确图像编辑方面取得了显著进展。如需体验最新模型,欢迎访问 [Qwen Chat](https://chat.qwen.ai/) 并选择“图像生成”功能。主要特性包括:我们在多个公开基准上对Qwen-Image进行了全面评估,包括用于通用图像生成的GenEval、DPG和O</description>
      <link>https://qwen.ai/blog?id=qwen-image</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image</guid>
      <pubDate>Mon, 04 Aug 2025 14:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01DLyyGs1bYWCqvLkzC_!!6000000003477-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>GSPO:迈向持续拓展的语言模型强化学习</title>
      <description>强化学习 (Reinforcement Learning,RL)已成为拓展语言模型、增强其深度推理与问题求解能力的关键技术范式。为了持续拓展 RL,首要前提是确保稳定、鲁棒的训练过程。然而,我们观察到现有的 RL 算法(如 GRPO)在长期训练中会暴露出严重的不稳定性问题并招致不可逆转的模型崩溃,阻碍了通过增加计算以获得进一步的性能提升。为了能够持续拓展 RL,我们提出了 **Group Sequ</description>
      <link>https://qwen.ai/blog?id=gspo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=gspo</guid>
      <pubDate>Sun, 27 Jul 2025 07:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0123XiTi1edxlJi3WKt_!!6000000003895-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-MT:速度与智能翻译的完美融合</title>
      <description>我们通过[Qwen API](https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen-mt-turbo) 推出了 Qwen-MT(qwen-mt-turbo)的最新升级版本。本次更新基于强大的 Qwen3 模型,进一步使用超大规模多语言和翻译数据对模型进行训练,全面增强其多语言理解与翻译能力,并结合强化学习技术</description>
      <link>https://qwen.ai/blog?id=qwen-mt</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-mt</guid>
      <pubDate>Thu, 24 Jul 2025 14:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01mADZAp1UuJkNlERCM_!!6000000002577-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen3-Coder: 在世界中自主编程</title>
      <description>今天我们正式发布 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent</description>
      <link>https://qwen.ai/blog?id=qwen3-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-coder</guid>
      <pubDate>Tue, 22 Jul 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01bzvTND1zoaswjOuqr_!!6000000006761-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Time to Speak Some Dialects, Qwen-TTS!</title>
      <description>我们通过 [Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts) 更新了 **Qwen-TTS** ( `qwen-tts-latest` or `qwen-tts-2025-05-22` ) 的最新版本。Qwen-TTS 使用了超过 300 万小时的大规模语料库进行训练,合成效果实现了人类级别的自然度和表现力。比较亮眼的是,Qwe</description>
      <link>https://qwen.ai/blog?id=qwen-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-tts</guid>
      <pubDate>Fri, 27 Jun 2025 07:01:34 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01rAfdGa221zhrdVE8M_!!6000000007061-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen VLo: 从“看懂”世界到“描绘”世界</title>
      <description>多模态大模型的演进正在不断突破我们对技术边界的认知。从最初的 QwenVL 到如今的 Qwen2.5 VL ,我们在提升模型对图像内容的理解能力方面取得了一些进展。今天,我们正式推出 Qwen VLo ——一个多模态统一理解与生成模型。这一全新升级的模型不仅能够“看懂”世界,更能基于理解进行高质量的再创造,真正实现了从感知到生成的跨越。需要注意的是,这是一款预览版本,您可以通过 Qwen Chat</description>
      <link>https://qwen.ai/blog?id=qwen-vlo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vlo</guid>
      <pubDate>Thu, 26 Jun 2025 14:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01h8zlPf1K0lYBrVOU2_!!6000000001102-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3 Embedding:新一代文本表征与排序模型</title>
      <description>我们正式发布 Qwen3 Embedding 系列模型, Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。我们使用了 Apache 2.0 协议在 Hugging Face 和 ModelS</description>
      <link>https://qwen.ai/blog?id=qwen3-embedding</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-embedding</guid>
      <pubDate>Thu, 05 Jun 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01rxbtmx1blLISPGLPx_!!6000000003505-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3:思深,行速</title>
      <description>今天,我们宣布推出 **Qwen3**,这是 Qwen 系列大型语言模型的最新成员。我们的旗舰模型 **Qwen3-235B-A22B** 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 **Qwen3-30B-A3B** 的激活参数数量是 QwQ</description>
      <link>https://qwen.ai/blog?id=qwen3</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3</guid>
      <pubDate>Mon, 28 Apr 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01EJM5sy23hVDXqN07i_!!6000000007287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QVQ-Max:有依据地思考</title>
      <description>去年12月,我们推出了 QVQ-72B-Preview, 作为一个探索模型,它存在很多问题。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这款模型的特点是,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。虽然这只是我们的第一个版本,但它的潜力已经让人眼前一亮。Mat</description>
      <link>https://qwen.ai/blog?id=qvq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-max-preview</guid>
      <pubDate>Thu, 27 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018onW8W1DwHz54wSs4_!!6000000000280-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5 Omni:看得见、听得到、会说话、能写作,样样精通!</title>
      <description>我们发布了 **Qwen2.5-Omni**,Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。想要体验最新的模型,请访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择Qwen2.5-Omni-7B。该模型现已在 [Hugging Fa</description>
      <link>https://qwen.ai/blog?id=qwen2.5-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-omni</guid>
      <pubDate>Wed, 26 Mar 2025 16:00:45 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01GVuL0G1XWRxG74IKH_!!6000000002931-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-VL-32B: 更聪明、更轻量!</title>
      <description>今年一月底,我们推出了 Qwen2.5-VL 系列模型,获得了社区的广泛关注和积极反馈。在 Qwen2.5-VL 系列的基础上,我们使用强化学习持续优化模型,并使用 Apache 2.0 协议开源 32B 这个备受喜爱的参数规模的新 VL 模型—— **Qwen2.5-VL-32B-Instruct**。相比此前发布的 Qwen2.5-VL 系列模型,本次推出的 32B 模型的特点如下:我们与业内</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl-32b</guid>
      <pubDate>Sun, 23 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01iCwLhw1Hl4kYUm5rB_!!6000000000797-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QwQ-32B: 领略强化学习之力</title>
      <description>大规模强化学习(RL)有潜力超越传统的预训练和后训练方法来提升模型性能。近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。这一次,我们探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时很高兴推出我们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能</description>
      <link>https://qwen.ai/blog?id=qwq-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b</guid>
      <pubDate>Wed, 05 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012xm8Cw1OKhFTItwHC_!!6000000001687-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>&lt;think&gt;...&lt;/think&gt; QwQ-Max-Preview</title>
      <description>这篇博客出自 QwQ-Max-Preview 之手。希望各位看官喜欢!我们很高兴向大家介绍 QwQ-Max-Preview,这是 Qwen 系列的最新成果。这一版本基于 Qwen2.5-Max 构建,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。作为即将发布的 QwQ-Max 的预览版,这个版本还在持续优化中。我们计划在不久的将来以 Apache </description>
      <link>https://qwen.ai/blog?id=qwq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-max-preview</guid>
      <pubDate>Mon, 24 Feb 2025 18:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01ihrh5V1DzUkyhg1w6_!!6000000000287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Max:探索大规模 MoE 模型的智能</title>
      <description>过去有一种观点认为,持续地增长数据规模和模型参数规模是一种通向 AGI 的可能的路径。然而,整个大模型社区对于训练超大规模的模型的经验都相对匮乏,不论是稠密模型还是 MoE 模型。近期,DeepSeek V3 的发布让大家了解到超大规模 MoE 模型的效果及实现方法,而同期,Qwen 也在研发超大规模的 MoE 模型 Qwen2.5-Max,使用超过 20 万亿 token 的预训练数据及精心设计</description>
      <link>https://qwen.ai/blog?id=qwen2.5-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-max</guid>
      <pubDate>Tue, 28 Jan 2025 15:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0132o2E81svHMDRbZdV_!!6000000005828-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-1M: 支持100万Token上下文的开源Qwen模型</title>
      <description>两个月前,我们升级了 [Qwen2.5-Turbo](../qwen2.5-turbo),使其支持最多一百万个Tokens的上下文长度。今天,我们正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次发布的亮点:现在,你可以访问我们在 [Huggingface](https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo) 和 [Mo</description>
      <link>https://qwen.ai/blog?id=qwen2.5-1m</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-1m</guid>
      <pubDate>Sun, 26 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01VPK3rY1y1l2TcnRy1_!!6000000006519-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5 VL!Qwen2.5 VL!Qwen2.5 VL!</title>
      <description>我们发布了 **Qwen2.5-VL**,Qwen 模型家族的旗舰视觉语言模型,对比此前发布的 Qwen2-VL 实现了巨大的飞跃。欢迎访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择 Qwen2.5-VL-72B-Instruct 进行体验。此外,我们在 [Hugging Face](https://huggingface.co/collections/Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl</guid>
      <pubDate>Sun, 26 Jan 2025 11:08:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01X7ff9q1QcDdIi7Ph4_!!6000000001996-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>通过全局负载均衡提升混合专家模型的性能和特异化程度</title>
      <description>混合专家模型(MoEs)通过路由机制动态并稀疏地激活模型参数,使得能高效地增大模型参数规模。基于 TopK 机制的稀疏激活会在训练中会遇到专家激活不均衡的问题:少数被频繁选择的专家会被优化得更多,进一步使得这些专家被更频繁地选择,最终导致只选择少数专家,造成剩余专家的冗余。因此,MoE 在训练中需要引入额外的辅助损失(load balance loss,LBL)来鼓励专家的选择趋于均衡。目前主流 </description>
      <link>https://qwen.ai/blog?id=global-load-balance</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=global-load-balance</guid>
      <pubDate>Mon, 20 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01JH0zOD1QBef4OeeC9_!!6000000001938-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>面向有效的数学推理过程监督</title>
      <description>近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能犯错误,如计算错误或逻辑错误,导致得出错误结论。
        此外,即使最终答案正确,这些强大的模型也经常编造看似合理的推理步骤,其中最终答案基于有缺陷的计算或推导过程,这削弱了LLMs推理过程的可靠性和可信度。
        因此,自动识别推理过程中的错误对于其可扩展监督变得越来越重要。过程奖励模型(Process Reward Models, P</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math-prm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math-prm</guid>
      <pubDate>Mon, 13 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01OSlKdt1bSZ3cFUpX5_!!6000000003464-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QVQ: 更睿智地看世界</title>
      <description>在人类的思维中,语言和视觉紧密交织,塑造着我们感知和理解世界的方式。我们的推理能力深深植根于语言思维和视觉记忆之中。那么,当我们将这些能力赋予人工智能时,会发生什么呢?如今的大语言模型已经展现出卓越的推理能力,但我们不禁思考:它们能否通过掌握视觉理解的力量,攀登认知能力的新高峰?设想一下,一个人工智能能够像物理学大师一样,面对复杂的物理问题,沉着冷静地通过逻辑推理找到解决方案。正是这样的愿景激发我</description>
      <link>https://qwen.ai/blog?id=qvq-72b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-72b-preview</guid>
      <pubDate>Tue, 24 Dec 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01NnpNB71gquBYp5Pxh_!!6000000004194-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QwQ: 思忖未知之界</title>
      <description>*注意:QwQ 的发音为 /kwju:/ ,与单词 &quot;quill&quot; 的读音近似。*思考、质疑、理解,是人类探索未知的永恒追求。在这条探索之路上,QwQ犹如一位怀抱无尽好奇的学徒,以思考和疑问照亮前路。QwQ体现了古老的哲学精神:它深知自己一无所知,而这种认知正是其好奇心的源泉。在探寻答案的过程中,它始终保持自省,以理性之光审视每一个假设,在不同的思维维度中穿行,追寻更深层的真理。然而,正如所有智慧</description>
      <link>https://qwen.ai/blog?id=qwq-32b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b-preview</guid>
      <pubDate>Wed, 27 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN018w4xvj1u3oLqye6H8_!!6000000005982-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>将上下文长度扩展至百万 Tokens !</title>
      <description>在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于:现在,你可以通过[阿里云大模型服务平台](https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm</description>
      <link>https://qwen.ai/blog?id=qwen2.5-turbo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-turbo</guid>
      <pubDate>Thu, 14 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01SeMiF024thNW91dLw_!!6000000007449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Coder 全系列: 强大、多样、实用。</title>
      <description>今天,我们很高兴开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列模型,致力于持续推动 Open CodeLLMs 的发展。另外,Qwen2.5-Coder-32B-Instruct 的多编程语言代码修复能力同样令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Co</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder-family</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder-family</guid>
      <pubDate>Mon, 11 Nov 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01jQ4vU91nfdkpmxdu9_!!6000000005117-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5: 基础模型大派对!</title>
      <description>在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:**Qwen2.5**。我们将要宣布的可能是历史上最大的开源发布!让我们开始这场盛会吧!我们的最新发布包括了语言模型 **Qwen2.5**,以及专门针对编程的 **Qwen</description>
      <link>https://qwen.ai/blog?id=qwen2.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0102k1Cr1Nq0iEVrSyO_!!6000000001620-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-LLM:扩展大型语言模型的边界</title>
      <description>我们隆重推出最新发布的Qwen2.5系列语言模型!我们共开源了7款decoder-only的稠密模型,参数规模从0.5B到72B不等。我们调研发现产品对10B至30B模型的兴趣明显增加,同时3B规模的模型也越来越适用于移动端场景。为此,Qwen2.5系列开源了Qwen2.5-3B、Qwen2.5-14B 和 Qwen2.5-32B。同时,我们还推出了Qwen-Plus与Qwen-Turbo版本,可</description>
      <link>https://qwen.ai/blog?id=qwen2.5-llm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-llm</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01SVeaRN1U0tp7yfRYk_!!6000000002456-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: 码无止境,学无止境!</title>
      <description>四月初,我们发布了 CodeQwen1.5, 得到了社区广泛的关注与喜爱。自那以后,我们一直在继续努力提升代码模型。今天,我们很高兴地宣布新一代的开放代码模型 Qwen2.5-Coder 的发布。并正式将 CodeQwen 的命名改为 Qwen-Coder,我们认为 Coder 更加拟人、灵动,期待其可以在未来真正与人类结对编程。Qwen2.5-Coder 是我们 Qwen2.5 开源家族的一员,</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01mLq5fi1eItXkE3Czw_!!6000000003849-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-Math: 世界领先的数学开源大语言模型</title>
      <description>**🚨 Qwen2.5-Math主要被设计用于通过CoT或TIR的方式解中英数学题,我们不推荐在其他任务上使用该系列模型。**一个月前,我们开源了 Qwen 家族的第一款数学专项大语言模型- [Qwen2-Math](https://qwenlm.github.io/blog/qwen2-math/)。 今天,我们将它再度升级并开源 **Qwen2.5-Math** 系列,包括基础模型 **Qw</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:01 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01GOEJky1diiFo5ek9M_!!6000000003770-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-VL: 更清晰地看世界</title>
      <description>经历了接近一年时间的持续努力,今天我们很高兴地宣布我们最新一代的视觉语言模型:**Qwen2-VL** !Qwen2-VL 基于 Qwen2 打造,相比 Qwen-VL,它具有以下特点:我们以 Apache 2.0 协议开源了 Qwen2-VL-2B 和 Qwen2-VL-7B,并发布了 Qwen2-VL-72B 的 API!开源代码已集成到 Hugging Face Transformers、v</description>
      <link>https://qwen.ai/blog?id=qwen2-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-vl</guid>
      <pubDate>Wed, 28 Aug 2024 16:24:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN014TFaLH1L3LObKr3aD_!!6000000001243-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Audio:开启语音对话!</title>
      <description>在一个通用的AI系统中,核心模型应该能够理解不同模态的信息。当前的大语言模型现在已经能够理解语言并进行推理,并且已经扩展到了更多的模态,包括视觉和音频。此前我们陆续发布了多个 Qwen 语言模型系列以及 Qwen-VL 和 Qwen-Audio 等多模态模型。今天,我们正式发布 Qwen2-Audio。这是 Qwen-Audio 的下一代版本,它能够接受音频和文本输入,并生成文本输出。Qwen2-</description>
      <link>https://qwen.ai/blog?id=qwen2-audio</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-audio</guid>
      <pubDate>Fri, 09 Aug 2024 08:22:39 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01gYXp0M1dwS8UOaQBr_!!6000000003800-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Math,新一代数学模型</title>
      <description>**🚨 此模型目前主要支持英语。我们将尽快推出中英双语版本。**在过去的一年里,我们非常关注大模型的推理能力的提升,尤其关注其在数学相关的任务上的表现。今天,我们非常高兴地介绍 Qwen2 开源家族的新成员——Qwen2-Math-1.5B/7B/72B 系列。Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模</description>
      <link>https://qwen.ai/blog?id=qwen2-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-math</guid>
      <pubDate>Wed, 07 Aug 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01CEdMM02511iWTPvnu_!!6000000007465-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>你好,Qwen2</title>
      <description>历经数月努力, 我们很高兴迎来了Qwen系列模型从Qwen1.5到Qwen2的重大升级。这一次,我们为大家带来了:目前,我们已在Hugging Face和ModelScope上同步开源。期待听到你们的使用反馈!Qwen2系列包含5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B。如下表所示:在Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2</guid>
      <pubDate>Thu, 06 Jun 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01oKhdZr1j6azCVU5Ex_!!6000000004499-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>使用Qwen-Agent将上下文记忆扩展到百万量级</title>
      <description>**长话短说:** 我们开发了一个智能体用于理解包含百万字词的文档,虽然仅使用Qwen2模型的8k上下文,但效果超过RAG和长序列原生模型。我们还利用此智能体合成长上下文数据,用于训练长上下文的Qwen模型。近期,能够原生处理数百万字输入的大型语言模型(LLMs)成为了一种趋势。大部分工作集中在模型架构调整,如位置编码扩展或线性注意力机制等。然而,准备足够长度的微调数据作为讨论较少但同样重要的议题</description>
      <link>https://qwen.ai/blog?id=qwen-agent-2405</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-agent-2405</guid>
      <pubDate>Thu, 06 Jun 2024 03:59:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01i4Q6AR23XQVIi6lS8_!!6000000007265-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Max-0428模型介绍</title>
      <description>此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了[Chatbot Arena](https://chat.lmsys.org/),并登榜前十。此外,我们在MT-Bench的评测上也观察到</description>
      <link>https://qwen.ai/blog?id=qwen-max-0428</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-max-0428</guid>
      <pubDate>Sat, 11 May 2024 10:10:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01xS57GM1QpxW0ZCG2X_!!6000000002026-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-110B:Qwen1.5系列的首个千亿参数开源模型</title>
      <description>近期开源社区陆续出现了千亿参数规模以上的大模型,这些模型都在各项评测中取得杰出的成绩。今天,我们开源1100亿参数的Qwen1.5系列首个千亿参数模型Qwen1.5-110B,该模型在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。Qwen1.5-110B与其他Qwen1.5模型相似,采用了相同的Transform</description>
      <link>https://qwen.ai/blog?id=qwen1.5-110b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-110b</guid>
      <pubDate>Thu, 25 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01vfdPqh25i4wmsaCus_!!6000000007559-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>与 CodeQwen1.5 结对编程</title>
      <description>代码助手,是一种基于 LLMs 的智能化的编程工具,它可以帮助程序员更高效、更准确的编写代码,使得整个软件开发过程更加流畅和高效。然而流行的代码助手,比如 Github Copilot,依赖于闭源的商业模型,不仅昂贵还会引起如隐私、安全、版权等方面的担忧。幸运的是,开源社区正在致力于打造开放代码模型来实现开放的代码助手。近期涌现出了一批优秀的 Open CodeLLMs,比如 StarCoder2</description>
      <link>https://qwen.ai/blog?id=codeqwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=codeqwen1.5</guid>
      <pubDate>Tue, 16 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018fmQVa1hHvYNVqCuw_!!6000000004253-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen1.5-32B:Qwen1.5语言模型系列的最后一块拼图</title>
      <description>开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat</description>
      <link>https://qwen.ai/blog?id=qwen1.5-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-32b</guid>
      <pubDate>Tue, 02 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01FJuMNI1EzKE29cJaY_!!6000000000422-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-MoE: 1/3的激活参数量达到7B模型的性能</title>
      <description>今天,我们推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral 7B和Qwen1.5-7B相媲美。相较于包含65亿个Non-Embedding参数的Qwen1.5-7B,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,约为原模型大小的三分之一。此外,相比Qwen1.5</description>
      <link>https://qwen.ai/blog?id=qwen-moe</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-moe</guid>
      <pubDate>Thu, 28 Mar 2024 03:31:44 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN014wNJhC1kHsMAfWFpM_!!6000000004659-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5 介绍</title>
      <description>最近几个月,我们专注探索如何构建一个真正「卓越」的模型,并在此过程中不断提升开发者的使用体验。农历新年到来之际,我们推出通义千问开源模型 1.5 版本: **Qwen1.5**。我们开源了包括 0.5B、1.8B、4B、7B、14B、32B、72B 和 110B 共计 8 个不同规模的 Base 和 Chat 模型,, 以及一个 MoE 模型(点击[博客](https://qwenlm.githu</description>
      <link>https://qwen.ai/blog?id=qwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5</guid>
      <pubDate>Sun, 04 Feb 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01yFtQhb1eLBWVKbHXJ_!!6000000003854-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-VL全新升级!</title>
      <description>我们在 Qwen 语言模型的基础上,结合此前我们提出的多模态多任务训练,以解决多模态模型在泛化能力上的局限性,并于 2023 年 9 月开源了多模态模型 Qwen-VL。最近,Qwen-VL 系列有了重大升级,推出了两个增强版本:Qwen-VL-Plus 和 Qwen-VL-Max。这两个版本的关键提升包括:相比于开源版本的 Qwen-VL,这两个模型在多个文本-图像多模态任务中与 Gemini </description>
      <link>https://qwen.ai/blog?id=qwen-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vl</guid>
      <pubDate>Thu, 25 Jan 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01qEwYVn1RlfQ3jmcAr_!!6000000002152-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen介绍</title>
      <description>四个月前,我们首次发布Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。Additionally, we have WeChat groups for chatting and we invite you to join the groups through the provided lin</description>
      <link>https://qwen.ai/blog?id=qwen</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen</guid>
      <pubDate>Tue, 23 Jan 2024 14:13:29 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01hkVY7m1vfeh4TZKRq_!!6000000006200-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>OFASys:一行代码带你搞定多任务学习!</title>
      <description>通用模型非常火!我们现在跟随多模态多任务学习的发展似乎看到了实现一个真正的通用模型的机会。我们此前推出的OFA便是朝着这个目标迈向的重要一步。但是,我们在实际实现过程中遇到了非常多的困难。比如说,把多任务训练的模型搭建起来,组织多任务的训练比如给数据打batch和保证训练稳定等等,都非常困难。因此,我们推出一个AI系统OFASys,它主要解决多模态多任务学习的实现问题。简单来说,它主要通过一个叫做</description>
      <link>https://qwen.ai/blog?id=ofasys</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofasys</guid>
      <pubDate>Wed, 28 Dec 2022 10:01:21 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012Ygfqw1M8DDmt996q_!!6000000001389-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Chinese CLIP: 中文图文对比学习预训练</title>
      <description>CLIP[^1]是多模态表示学习领域一个现象级的模型。它不仅扮演基础模型,并且建立了视觉和语言的桥梁。它还推动了很多其他领域技术的发展,尤其是文本生成图像。然而,我们还需要特定语言的CLIP,尤其在现实应用中,比如跨模态检索。在此之前还没有效果较好的开源中文CLIP。因此我们希望通过这个项目推动中文多模态的发展。在诸如跨模态检索的图文应用中,语言往往扮演重要的角色。假设直接使用CLIP和翻译文本,</description>
      <link>https://qwen.ai/blog?id=chinese-clip</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=chinese-clip</guid>
      <pubDate>Sat, 24 Dec 2022 06:54:19 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01Ayrj141Z6v6o0otgL_!!6000000003146-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>OFA:走向通用统一模型</title>
      <description>2022年可以说是属于通用模型的一年!随着多模态预训练的蓬勃发展,尤其是通用模型,我们看到实现一个具有处理多种模态的多种任务的能力的通用模型的机会。因此我们提出OFA[^1],即One-For-All。它是一个统一的多模态预训练模型,以统一的模型架构和任务形式兼容多模态和单模态的理解与生成任务。我们使用多模态多任务的方式预训练OFA,使其成为一个接近全能的模型。我们将OFA的模型和代码全部开源到社</description>
      <link>https://qwen.ai/blog?id=ofa</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofa</guid>
      <pubDate>Mon, 14 Nov 2022 08:01:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01gPY1pH1eB6oHfVgrk_!!6000000003832-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
  </channel>
</rss>

radar: [
{
source: ['qwen.ai/research/'],
target: '/qwen/blog/:lang',
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

source does not contain lang path parameter which target is used to derive from

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

The source does not contain lang related params in url, it set lang by api, so i removed the radar. And the content url (qwen.ai/blog?id=${item.id} response from blogUrl) is exactly same whatever the lang is, how can i handle this?

Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

If you check the output of the content URL, you will know the site return no content. The content is actually served from https://docs.qwenlm.ai/research/${item.id}/index.json or index.zh.json for zh-cn.

@github-actions
Copy link
Contributor

Successfully generated as following:

http://localhost:1200/qwen/blog/zh-cn - Success ✔️
<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Qwen Blog</title>
    <link>https://qwen.ai/research</link>
    <atom:link href="http://localhost:1200/qwen/blog/zh-cn" rel="self" type="application/rss+xml"></atom:link>
    <description>Qwen Blog - Powered by RSSHub</description>
    <generator>RSSHub</generator>
    <webMaster>[email protected] (RSSHub)</webMaster>
    <language>en</language>
    <lastBuildDate>Wed, 26 Nov 2025 14:06:17 GMT</lastBuildDate>
    <ttl>5</ttl>
    <item>
      <title>Qwen DeepResearch: 当灵感不再需要理由</title>
      <description>[点我体验最新&amp;nbsp;Qwen&amp;nbsp;DeepResearch](https://chat.qwen.ai/?inputFeature=deep_research)++_**灵感是如何死掉的?**_++它通常不是死于“不够好”,而是死于“太麻烦”。当一个念头闪现时,它还是脆弱的、未经证实的。我们的大脑在短暂兴奋后,会立刻开始评估“成本”:就在这个“成本评估”的瞬间,绝大多数灵感就被“理性”地扼杀了。我们下意识</description>
      <link>https://qwen.ai/blog?id=qwen-deepresearch</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-deepresearch</guid>
      <pubDate>Wed, 12 Nov 2025 20:59:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01DvbmDu1DeQYSDv1qm_!!6000000000241-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-Max:大就是好</title>
      <description>继 Qwen3-2507 系列发布之后,我们非常高兴地推出 Qwen3-Max —— 我们迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达</description>
      <link>https://qwen.ai/blog?id=qwen3-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-max</guid>
      <pubDate>Wed, 24 Sep 2025 04:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01FsxFnQ28qGswUnBBH_!!6000000007983-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-LiveTranslate:视、听、说全模态同传大模型!</title>
      <description>**Qwen3-LiveTranslate-Flash** 是一款基于大语言模型的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。核心亮点:在公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-</description>
      <link>https://qwen.ai/blog?id=qwen3-livetranslate</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-livetranslate</guid>
      <pubDate>Mon, 22 Sep 2025 23:00:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN010Ryzsc240HSitcBIb_!!6000000007328-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-VL:明察、深思、广行</title>
      <description>今天,我们正式推出全新升级的 **Qwen3-VL** 系列——这是迄今为止 Qwen 系列中最强大的视觉语言模型。在这一代模型中,我们在多个维度实现了全面跃升:无论是纯文本理解与生成,还是视觉内容的感知与推理;无论是上下文长度的支持能力,还是对空间关系、动态视频的理解深度;乃至在与Agent交互中的表现,Qwen3-VL 都展现出显著进步。今天,我们率先开源的是该系列的旗舰模型 —— **Qwe</description>
      <link>https://qwen.ai/blog?id=qwen3-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-vl</guid>
      <pubDate>Mon, 22 Sep 2025 22:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01vaefld1KExpoyKAZT_!!6000000001133-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>旅行规划师:你的专属智能行程设计师</title>
      <description>我们非常高兴推出全新的**旅行规划助手**,这是一个基于 **Multi-Agent 架构** 并具备强大 **真实工具调用能力** 的旅行规划系统,能够高效应对复杂、多变的行程安排任务。无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案:旅行规划是一项系统工程,涵盖交通、景点、住宿、用餐等环节,它们环环相扣、相互影响,任何单一 Agent 都难以全面驾驭其中的复杂</description>
      <link>https://qwen.ai/blog?id=agent</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=agent</guid>
      <pubDate>Mon, 22 Sep 2025 21:00:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01cdVHX81W7QhzPPAnF_!!6000000002741-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3Guard: 实时安全,逐词响应</title>
      <description>我们隆重推出 Qwen3Guard —— Qwen 家族中首款专为安全防护设计的护栏模型。该模型基于强大的 Qwen3 基础架构打造,并针对安全分类任务进行了专项微调,旨在为人工智能交互提供精准、可靠的安全保障。无论是用户输入的提示,还是模型生成的回复,Qwen3Guard 均可高效识别潜在风险,输出细粒度的风险等级与分类标签,助力实现更负责任的 AI 应用。在多项主流安全评测基准上,Qwen3G</description>
      <link>https://qwen.ai/blog?id=qwen3guard</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3guard</guid>
      <pubDate>Mon, 22 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN019JeUHo25owtXMDWx9_!!6000000007574-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-Image-Edit-2509: 多图编辑支持,单图一致性提升</title>
      <description>这个9月,我们很高兴推出 Qwen-Image-Edit-2509,作为 Qwen-Image-Edit 的月迭代版本。如需体验最新模型,欢迎访问 [Qwen Chat](https://qwen.ai) 并选择“图像编辑”功能。相比于8月发布的 Qwen-Image-Edit,Qwen-Image-Edit-2509 的主要特性包括:**Qwen-Image-Edit-2509 的首要更新是支</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit-2509</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit-2509</guid>
      <pubDate>Mon, 22 Sep 2025 16:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01LKSHVM1TeSQFp30rK_!!6000000002407-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Omni:新一代原生全模态大模型!</title>
      <description>**Qwen3-Omni**是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。我们引入了多种升级来提升模型表现和效率。主要特点:Qwen3-Omni采用Thinker-Talker架构:Thinker负责文本生成,Talker专注于流式语音Token生成,直接接收来自Thinker的高层语义表征。为实现超低延迟流式生成,Tal</description>
      <link>https://qwen.ai/blog?id=qwen3-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-omni</guid>
      <pubDate>Sun, 21 Sep 2025 21:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019dkYGs1MZgzWLyY5b_!!6000000001449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-TTS-Flash:多音色 &amp; 多语言 &amp; 多方言的语音合成</title>
      <description>**Qwen3-TTS-Flash** 是支持多音色、多语言和多方言的旗舰语音合成模型,旨在生成自然且具有表现力的语音,目前可通过[Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts)访问。主要特点:这里有一些样例展示了单说话人的多语种生成能力:这里有一些样例展示了中英文的音色:这里有一些样例展示了方言的音色:这里有一些样例展示了混</description>
      <link>https://qwen.ai/blog?id=qwen3-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-tts</guid>
      <pubDate>Sun, 21 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN013073ud1eVGF6hgIER_!!6000000003876-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Next:迈向更极致的训练推理性价比</title>
      <description>我们认为**Context Length Scaling**和**Total Parameter Scaling**是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,我们设计了全新的Qwen3-Next的模型结构。该结构相比Qwen3的MoE模型结构,进行了以下核心改进:**混合注意力机制**、**高稀疏度 MoE 结构**、一系列**训练稳定友好的优化**</description>
      <link>https://qwen.ai/blog?id=qwen3-next</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-next</guid>
      <pubDate>Wed, 10 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01xlZLeM29RMxon1D1I_!!6000000008064-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3 ASR:听得清楚,转写聪明。</title>
      <description>Qwen3-ASR-Flash现已正式发布,一个基于Qwen3基座模型强大的智能、海量多模态数据以及千万小时规模的ASR数据构建的语音识别服务。
        Qwen3-ASR-Flash实现了高精度高鲁棒性的语音识别性能,支持11种语言和多种口音。与众不同的是,Qwen3-ASR-Flash支持用户以任意格式提供文本上下文,从而获得定制化的 ASR 结果,同时还支持歌声识别。**📊 性能表现:****</description>
      <link>https://qwen.ai/blog?id=qwen3-asr-flash</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-asr-flash</guid>
      <pubDate>Mon, 08 Sep 2025 11:37:47 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019nzIdf1KGL1IeSFGE_!!6000000001136-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image-Edit: 全能图像编辑,驱动内容创作提质增效</title>
      <description>我们很高兴推出 Qwen-Image-Edit,Qwen-Image 的图像编辑版本。Qwen-Image-Edit 基于我们20B的 Qwen-Image 模型进一步训练,成功将 Qwen-Image 的独特的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 将输入图像同时输入到 Qwen2.5-VL(实现视觉语义控制)和 VAE Encoder</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit</guid>
      <pubDate>Mon, 18 Aug 2025 17:30:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01RXSS4P23dq33QGnKo_!!6000000007279-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image:擅长文字渲染的创作利器</title>
      <description>我们很高兴推出 Qwen-Image,一个20B的MMDiT模型。这是通义千问系列中首个图像生成基础模型,其在复杂文本渲染和精确图像编辑方面取得了显著进展。如需体验最新模型,欢迎访问 [Qwen Chat](https://chat.qwen.ai/) 并选择“图像生成”功能。主要特性包括:我们在多个公开基准上对Qwen-Image进行了全面评估,包括用于通用图像生成的GenEval、DPG和O</description>
      <link>https://qwen.ai/blog?id=qwen-image</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image</guid>
      <pubDate>Mon, 04 Aug 2025 14:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01DLyyGs1bYWCqvLkzC_!!6000000003477-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>GSPO:迈向持续拓展的语言模型强化学习</title>
      <description>强化学习 (Reinforcement Learning,RL)已成为拓展语言模型、增强其深度推理与问题求解能力的关键技术范式。为了持续拓展 RL,首要前提是确保稳定、鲁棒的训练过程。然而,我们观察到现有的 RL 算法(如 GRPO)在长期训练中会暴露出严重的不稳定性问题并招致不可逆转的模型崩溃,阻碍了通过增加计算以获得进一步的性能提升。为了能够持续拓展 RL,我们提出了 **Group Sequ</description>
      <link>https://qwen.ai/blog?id=gspo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=gspo</guid>
      <pubDate>Sun, 27 Jul 2025 07:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0123XiTi1edxlJi3WKt_!!6000000003895-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-MT:速度与智能翻译的完美融合</title>
      <description>我们通过[Qwen API](https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen-mt-turbo) 推出了 Qwen-MT(qwen-mt-turbo)的最新升级版本。本次更新基于强大的 Qwen3 模型,进一步使用超大规模多语言和翻译数据对模型进行训练,全面增强其多语言理解与翻译能力,并结合强化学习技术</description>
      <link>https://qwen.ai/blog?id=qwen-mt</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-mt</guid>
      <pubDate>Thu, 24 Jul 2025 14:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01mADZAp1UuJkNlERCM_!!6000000002577-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen3-Coder: 在世界中自主编程</title>
      <description>今天我们正式发布 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent</description>
      <link>https://qwen.ai/blog?id=qwen3-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-coder</guid>
      <pubDate>Tue, 22 Jul 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01bzvTND1zoaswjOuqr_!!6000000006761-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Time to Speak Some Dialects, Qwen-TTS!</title>
      <description>我们通过 [Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts) 更新了 **Qwen-TTS** ( `qwen-tts-latest` or `qwen-tts-2025-05-22` ) 的最新版本。Qwen-TTS 使用了超过 300 万小时的大规模语料库进行训练,合成效果实现了人类级别的自然度和表现力。比较亮眼的是,Qwe</description>
      <link>https://qwen.ai/blog?id=qwen-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-tts</guid>
      <pubDate>Fri, 27 Jun 2025 07:01:34 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01rAfdGa221zhrdVE8M_!!6000000007061-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen VLo: 从“看懂”世界到“描绘”世界</title>
      <description>多模态大模型的演进正在不断突破我们对技术边界的认知。从最初的 QwenVL 到如今的 Qwen2.5 VL ,我们在提升模型对图像内容的理解能力方面取得了一些进展。今天,我们正式推出 Qwen VLo ——一个多模态统一理解与生成模型。这一全新升级的模型不仅能够“看懂”世界,更能基于理解进行高质量的再创造,真正实现了从感知到生成的跨越。需要注意的是,这是一款预览版本,您可以通过 Qwen Chat</description>
      <link>https://qwen.ai/blog?id=qwen-vlo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vlo</guid>
      <pubDate>Thu, 26 Jun 2025 14:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01h8zlPf1K0lYBrVOU2_!!6000000001102-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3 Embedding:新一代文本表征与排序模型</title>
      <description>我们正式发布 Qwen3 Embedding 系列模型, Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。我们使用了 Apache 2.0 协议在 Hugging Face 和 ModelS</description>
      <link>https://qwen.ai/blog?id=qwen3-embedding</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-embedding</guid>
      <pubDate>Thu, 05 Jun 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01rxbtmx1blLISPGLPx_!!6000000003505-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3:思深,行速</title>
      <description>今天,我们宣布推出 **Qwen3**,这是 Qwen 系列大型语言模型的最新成员。我们的旗舰模型 **Qwen3-235B-A22B** 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 **Qwen3-30B-A3B** 的激活参数数量是 QwQ</description>
      <link>https://qwen.ai/blog?id=qwen3</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3</guid>
      <pubDate>Mon, 28 Apr 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01EJM5sy23hVDXqN07i_!!6000000007287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QVQ-Max:有依据地思考</title>
      <description>去年12月,我们推出了 QVQ-72B-Preview, 作为一个探索模型,它存在很多问题。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这款模型的特点是,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。虽然这只是我们的第一个版本,但它的潜力已经让人眼前一亮。Mat</description>
      <link>https://qwen.ai/blog?id=qvq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-max-preview</guid>
      <pubDate>Thu, 27 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018onW8W1DwHz54wSs4_!!6000000000280-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5 Omni:看得见、听得到、会说话、能写作,样样精通!</title>
      <description>我们发布了 **Qwen2.5-Omni**,Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。想要体验最新的模型,请访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择Qwen2.5-Omni-7B。该模型现已在 [Hugging Fa</description>
      <link>https://qwen.ai/blog?id=qwen2.5-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-omni</guid>
      <pubDate>Wed, 26 Mar 2025 16:00:45 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01GVuL0G1XWRxG74IKH_!!6000000002931-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-VL-32B: 更聪明、更轻量!</title>
      <description>今年一月底,我们推出了 Qwen2.5-VL 系列模型,获得了社区的广泛关注和积极反馈。在 Qwen2.5-VL 系列的基础上,我们使用强化学习持续优化模型,并使用 Apache 2.0 协议开源 32B 这个备受喜爱的参数规模的新 VL 模型—— **Qwen2.5-VL-32B-Instruct**。相比此前发布的 Qwen2.5-VL 系列模型,本次推出的 32B 模型的特点如下:我们与业内</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl-32b</guid>
      <pubDate>Sun, 23 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01iCwLhw1Hl4kYUm5rB_!!6000000000797-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QwQ-32B: 领略强化学习之力</title>
      <description>大规模强化学习(RL)有潜力超越传统的预训练和后训练方法来提升模型性能。近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。这一次,我们探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时很高兴推出我们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能</description>
      <link>https://qwen.ai/blog?id=qwq-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b</guid>
      <pubDate>Wed, 05 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012xm8Cw1OKhFTItwHC_!!6000000001687-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>&lt;think&gt;...&lt;/think&gt; QwQ-Max-Preview</title>
      <description>这篇博客出自 QwQ-Max-Preview 之手。希望各位看官喜欢!我们很高兴向大家介绍 QwQ-Max-Preview,这是 Qwen 系列的最新成果。这一版本基于 Qwen2.5-Max 构建,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。作为即将发布的 QwQ-Max 的预览版,这个版本还在持续优化中。我们计划在不久的将来以 Apache </description>
      <link>https://qwen.ai/blog?id=qwq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-max-preview</guid>
      <pubDate>Mon, 24 Feb 2025 18:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01ihrh5V1DzUkyhg1w6_!!6000000000287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Max:探索大规模 MoE 模型的智能</title>
      <description>过去有一种观点认为,持续地增长数据规模和模型参数规模是一种通向 AGI 的可能的路径。然而,整个大模型社区对于训练超大规模的模型的经验都相对匮乏,不论是稠密模型还是 MoE 模型。近期,DeepSeek V3 的发布让大家了解到超大规模 MoE 模型的效果及实现方法,而同期,Qwen 也在研发超大规模的 MoE 模型 Qwen2.5-Max,使用超过 20 万亿 token 的预训练数据及精心设计</description>
      <link>https://qwen.ai/blog?id=qwen2.5-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-max</guid>
      <pubDate>Tue, 28 Jan 2025 15:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0132o2E81svHMDRbZdV_!!6000000005828-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-1M: 支持100万Token上下文的开源Qwen模型</title>
      <description>两个月前,我们升级了 [Qwen2.5-Turbo](../qwen2.5-turbo),使其支持最多一百万个Tokens的上下文长度。今天,我们正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次发布的亮点:现在,你可以访问我们在 [Huggingface](https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo) 和 [Mo</description>
      <link>https://qwen.ai/blog?id=qwen2.5-1m</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-1m</guid>
      <pubDate>Sun, 26 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01VPK3rY1y1l2TcnRy1_!!6000000006519-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5 VL!Qwen2.5 VL!Qwen2.5 VL!</title>
      <description>我们发布了 **Qwen2.5-VL**,Qwen 模型家族的旗舰视觉语言模型,对比此前发布的 Qwen2-VL 实现了巨大的飞跃。欢迎访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择 Qwen2.5-VL-72B-Instruct 进行体验。此外,我们在 [Hugging Face](https://huggingface.co/collections/Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl</guid>
      <pubDate>Sun, 26 Jan 2025 11:08:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01X7ff9q1QcDdIi7Ph4_!!6000000001996-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>通过全局负载均衡提升混合专家模型的性能和特异化程度</title>
      <description>混合专家模型(MoEs)通过路由机制动态并稀疏地激活模型参数,使得能高效地增大模型参数规模。基于 TopK 机制的稀疏激活会在训练中会遇到专家激活不均衡的问题:少数被频繁选择的专家会被优化得更多,进一步使得这些专家被更频繁地选择,最终导致只选择少数专家,造成剩余专家的冗余。因此,MoE 在训练中需要引入额外的辅助损失(load balance loss,LBL)来鼓励专家的选择趋于均衡。目前主流 </description>
      <link>https://qwen.ai/blog?id=global-load-balance</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=global-load-balance</guid>
      <pubDate>Mon, 20 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01JH0zOD1QBef4OeeC9_!!6000000001938-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>面向有效的数学推理过程监督</title>
      <description>近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能犯错误,如计算错误或逻辑错误,导致得出错误结论。
        此外,即使最终答案正确,这些强大的模型也经常编造看似合理的推理步骤,其中最终答案基于有缺陷的计算或推导过程,这削弱了LLMs推理过程的可靠性和可信度。
        因此,自动识别推理过程中的错误对于其可扩展监督变得越来越重要。过程奖励模型(Process Reward Models, P</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math-prm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math-prm</guid>
      <pubDate>Mon, 13 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01OSlKdt1bSZ3cFUpX5_!!6000000003464-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QVQ: 更睿智地看世界</title>
      <description>在人类的思维中,语言和视觉紧密交织,塑造着我们感知和理解世界的方式。我们的推理能力深深植根于语言思维和视觉记忆之中。那么,当我们将这些能力赋予人工智能时,会发生什么呢?如今的大语言模型已经展现出卓越的推理能力,但我们不禁思考:它们能否通过掌握视觉理解的力量,攀登认知能力的新高峰?设想一下,一个人工智能能够像物理学大师一样,面对复杂的物理问题,沉着冷静地通过逻辑推理找到解决方案。正是这样的愿景激发我</description>
      <link>https://qwen.ai/blog?id=qvq-72b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-72b-preview</guid>
      <pubDate>Tue, 24 Dec 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01NnpNB71gquBYp5Pxh_!!6000000004194-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QwQ: 思忖未知之界</title>
      <description>*注意:QwQ 的发音为 /kwju:/ ,与单词 &quot;quill&quot; 的读音近似。*思考、质疑、理解,是人类探索未知的永恒追求。在这条探索之路上,QwQ犹如一位怀抱无尽好奇的学徒,以思考和疑问照亮前路。QwQ体现了古老的哲学精神:它深知自己一无所知,而这种认知正是其好奇心的源泉。在探寻答案的过程中,它始终保持自省,以理性之光审视每一个假设,在不同的思维维度中穿行,追寻更深层的真理。然而,正如所有智慧</description>
      <link>https://qwen.ai/blog?id=qwq-32b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b-preview</guid>
      <pubDate>Wed, 27 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN018w4xvj1u3oLqye6H8_!!6000000005982-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>将上下文长度扩展至百万 Tokens !</title>
      <description>在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于:现在,你可以通过[阿里云大模型服务平台](https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm</description>
      <link>https://qwen.ai/blog?id=qwen2.5-turbo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-turbo</guid>
      <pubDate>Thu, 14 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01SeMiF024thNW91dLw_!!6000000007449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Coder 全系列: 强大、多样、实用。</title>
      <description>今天,我们很高兴开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列模型,致力于持续推动 Open CodeLLMs 的发展。另外,Qwen2.5-Coder-32B-Instruct 的多编程语言代码修复能力同样令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Co</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder-family</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder-family</guid>
      <pubDate>Mon, 11 Nov 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01jQ4vU91nfdkpmxdu9_!!6000000005117-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5: 基础模型大派对!</title>
      <description>在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:**Qwen2.5**。我们将要宣布的可能是历史上最大的开源发布!让我们开始这场盛会吧!我们的最新发布包括了语言模型 **Qwen2.5**,以及专门针对编程的 **Qwen</description>
      <link>https://qwen.ai/blog?id=qwen2.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0102k1Cr1Nq0iEVrSyO_!!6000000001620-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-LLM:扩展大型语言模型的边界</title>
      <description>我们隆重推出最新发布的Qwen2.5系列语言模型!我们共开源了7款decoder-only的稠密模型,参数规模从0.5B到72B不等。我们调研发现产品对10B至30B模型的兴趣明显增加,同时3B规模的模型也越来越适用于移动端场景。为此,Qwen2.5系列开源了Qwen2.5-3B、Qwen2.5-14B 和 Qwen2.5-32B。同时,我们还推出了Qwen-Plus与Qwen-Turbo版本,可</description>
      <link>https://qwen.ai/blog?id=qwen2.5-llm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-llm</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01SVeaRN1U0tp7yfRYk_!!6000000002456-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: 码无止境,学无止境!</title>
      <description>四月初,我们发布了 CodeQwen1.5, 得到了社区广泛的关注与喜爱。自那以后,我们一直在继续努力提升代码模型。今天,我们很高兴地宣布新一代的开放代码模型 Qwen2.5-Coder 的发布。并正式将 CodeQwen 的命名改为 Qwen-Coder,我们认为 Coder 更加拟人、灵动,期待其可以在未来真正与人类结对编程。Qwen2.5-Coder 是我们 Qwen2.5 开源家族的一员,</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01mLq5fi1eItXkE3Czw_!!6000000003849-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-Math: 世界领先的数学开源大语言模型</title>
      <description>**🚨 Qwen2.5-Math主要被设计用于通过CoT或TIR的方式解中英数学题,我们不推荐在其他任务上使用该系列模型。**一个月前,我们开源了 Qwen 家族的第一款数学专项大语言模型- [Qwen2-Math](https://qwenlm.github.io/blog/qwen2-math/)。 今天,我们将它再度升级并开源 **Qwen2.5-Math** 系列,包括基础模型 **Qw</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:01 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01GOEJky1diiFo5ek9M_!!6000000003770-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-VL: 更清晰地看世界</title>
      <description>经历了接近一年时间的持续努力,今天我们很高兴地宣布我们最新一代的视觉语言模型:**Qwen2-VL** !Qwen2-VL 基于 Qwen2 打造,相比 Qwen-VL,它具有以下特点:我们以 Apache 2.0 协议开源了 Qwen2-VL-2B 和 Qwen2-VL-7B,并发布了 Qwen2-VL-72B 的 API!开源代码已集成到 Hugging Face Transformers、v</description>
      <link>https://qwen.ai/blog?id=qwen2-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-vl</guid>
      <pubDate>Wed, 28 Aug 2024 16:24:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN014TFaLH1L3LObKr3aD_!!6000000001243-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Audio:开启语音对话!</title>
      <description>在一个通用的AI系统中,核心模型应该能够理解不同模态的信息。当前的大语言模型现在已经能够理解语言并进行推理,并且已经扩展到了更多的模态,包括视觉和音频。此前我们陆续发布了多个 Qwen 语言模型系列以及 Qwen-VL 和 Qwen-Audio 等多模态模型。今天,我们正式发布 Qwen2-Audio。这是 Qwen-Audio 的下一代版本,它能够接受音频和文本输入,并生成文本输出。Qwen2-</description>
      <link>https://qwen.ai/blog?id=qwen2-audio</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-audio</guid>
      <pubDate>Fri, 09 Aug 2024 08:22:39 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01gYXp0M1dwS8UOaQBr_!!6000000003800-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Math,新一代数学模型</title>
      <description>**🚨 此模型目前主要支持英语。我们将尽快推出中英双语版本。**在过去的一年里,我们非常关注大模型的推理能力的提升,尤其关注其在数学相关的任务上的表现。今天,我们非常高兴地介绍 Qwen2 开源家族的新成员——Qwen2-Math-1.5B/7B/72B 系列。Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模</description>
      <link>https://qwen.ai/blog?id=qwen2-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-math</guid>
      <pubDate>Wed, 07 Aug 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01CEdMM02511iWTPvnu_!!6000000007465-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>你好,Qwen2</title>
      <description>历经数月努力, 我们很高兴迎来了Qwen系列模型从Qwen1.5到Qwen2的重大升级。这一次,我们为大家带来了:目前,我们已在Hugging Face和ModelScope上同步开源。期待听到你们的使用反馈!Qwen2系列包含5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B。如下表所示:在Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2</guid>
      <pubDate>Thu, 06 Jun 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01oKhdZr1j6azCVU5Ex_!!6000000004499-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>使用Qwen-Agent将上下文记忆扩展到百万量级</title>
      <description>**长话短说:** 我们开发了一个智能体用于理解包含百万字词的文档,虽然仅使用Qwen2模型的8k上下文,但效果超过RAG和长序列原生模型。我们还利用此智能体合成长上下文数据,用于训练长上下文的Qwen模型。近期,能够原生处理数百万字输入的大型语言模型(LLMs)成为了一种趋势。大部分工作集中在模型架构调整,如位置编码扩展或线性注意力机制等。然而,准备足够长度的微调数据作为讨论较少但同样重要的议题</description>
      <link>https://qwen.ai/blog?id=qwen-agent-2405</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-agent-2405</guid>
      <pubDate>Thu, 06 Jun 2024 03:59:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01i4Q6AR23XQVIi6lS8_!!6000000007265-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Max-0428模型介绍</title>
      <description>此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了[Chatbot Arena](https://chat.lmsys.org/),并登榜前十。此外,我们在MT-Bench的评测上也观察到</description>
      <link>https://qwen.ai/blog?id=qwen-max-0428</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-max-0428</guid>
      <pubDate>Sat, 11 May 2024 10:10:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01xS57GM1QpxW0ZCG2X_!!6000000002026-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-110B:Qwen1.5系列的首个千亿参数开源模型</title>
      <description>近期开源社区陆续出现了千亿参数规模以上的大模型,这些模型都在各项评测中取得杰出的成绩。今天,我们开源1100亿参数的Qwen1.5系列首个千亿参数模型Qwen1.5-110B,该模型在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。Qwen1.5-110B与其他Qwen1.5模型相似,采用了相同的Transform</description>
      <link>https://qwen.ai/blog?id=qwen1.5-110b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-110b</guid>
      <pubDate>Thu, 25 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01vfdPqh25i4wmsaCus_!!6000000007559-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>与 CodeQwen1.5 结对编程</title>
      <description>代码助手,是一种基于 LLMs 的智能化的编程工具,它可以帮助程序员更高效、更准确的编写代码,使得整个软件开发过程更加流畅和高效。然而流行的代码助手,比如 Github Copilot,依赖于闭源的商业模型,不仅昂贵还会引起如隐私、安全、版权等方面的担忧。幸运的是,开源社区正在致力于打造开放代码模型来实现开放的代码助手。近期涌现出了一批优秀的 Open CodeLLMs,比如 StarCoder2</description>
      <link>https://qwen.ai/blog?id=codeqwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=codeqwen1.5</guid>
      <pubDate>Tue, 16 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018fmQVa1hHvYNVqCuw_!!6000000004253-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen1.5-32B:Qwen1.5语言模型系列的最后一块拼图</title>
      <description>开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat</description>
      <link>https://qwen.ai/blog?id=qwen1.5-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-32b</guid>
      <pubDate>Tue, 02 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01FJuMNI1EzKE29cJaY_!!6000000000422-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-MoE: 1/3的激活参数量达到7B模型的性能</title>
      <description>今天,我们推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral 7B和Qwen1.5-7B相媲美。相较于包含65亿个Non-Embedding参数的Qwen1.5-7B,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,约为原模型大小的三分之一。此外,相比Qwen1.5</description>
      <link>https://qwen.ai/blog?id=qwen-moe</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-moe</guid>
      <pubDate>Thu, 28 Mar 2024 03:31:44 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN014wNJhC1kHsMAfWFpM_!!6000000004659-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5 介绍</title>
      <description>最近几个月,我们专注探索如何构建一个真正「卓越」的模型,并在此过程中不断提升开发者的使用体验。农历新年到来之际,我们推出通义千问开源模型 1.5 版本: **Qwen1.5**。我们开源了包括 0.5B、1.8B、4B、7B、14B、32B、72B 和 110B 共计 8 个不同规模的 Base 和 Chat 模型,, 以及一个 MoE 模型(点击[博客](https://qwenlm.githu</description>
      <link>https://qwen.ai/blog?id=qwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5</guid>
      <pubDate>Sun, 04 Feb 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01yFtQhb1eLBWVKbHXJ_!!6000000003854-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-VL全新升级!</title>
      <description>我们在 Qwen 语言模型的基础上,结合此前我们提出的多模态多任务训练,以解决多模态模型在泛化能力上的局限性,并于 2023 年 9 月开源了多模态模型 Qwen-VL。最近,Qwen-VL 系列有了重大升级,推出了两个增强版本:Qwen-VL-Plus 和 Qwen-VL-Max。这两个版本的关键提升包括:相比于开源版本的 Qwen-VL,这两个模型在多个文本-图像多模态任务中与 Gemini </description>
      <link>https://qwen.ai/blog?id=qwen-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vl</guid>
      <pubDate>Thu, 25 Jan 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01qEwYVn1RlfQ3jmcAr_!!6000000002152-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen介绍</title>
      <description>四个月前,我们首次发布Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。Additionally, we have WeChat groups for chatting and we invite you to join the groups through the provided lin</description>
      <link>https://qwen.ai/blog?id=qwen</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen</guid>
      <pubDate>Tue, 23 Jan 2024 14:13:29 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01hkVY7m1vfeh4TZKRq_!!6000000006200-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>OFASys:一行代码带你搞定多任务学习!</title>
      <description>通用模型非常火!我们现在跟随多模态多任务学习的发展似乎看到了实现一个真正的通用模型的机会。我们此前推出的OFA便是朝着这个目标迈向的重要一步。但是,我们在实际实现过程中遇到了非常多的困难。比如说,把多任务训练的模型搭建起来,组织多任务的训练比如给数据打batch和保证训练稳定等等,都非常困难。因此,我们推出一个AI系统OFASys,它主要解决多模态多任务学习的实现问题。简单来说,它主要通过一个叫做</description>
      <link>https://qwen.ai/blog?id=ofasys</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofasys</guid>
      <pubDate>Wed, 28 Dec 2022 10:01:21 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012Ygfqw1M8DDmt996q_!!6000000001389-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Chinese CLIP: 中文图文对比学习预训练</title>
      <description>CLIP[^1]是多模态表示学习领域一个现象级的模型。它不仅扮演基础模型,并且建立了视觉和语言的桥梁。它还推动了很多其他领域技术的发展,尤其是文本生成图像。然而,我们还需要特定语言的CLIP,尤其在现实应用中,比如跨模态检索。在此之前还没有效果较好的开源中文CLIP。因此我们希望通过这个项目推动中文多模态的发展。在诸如跨模态检索的图文应用中,语言往往扮演重要的角色。假设直接使用CLIP和翻译文本,</description>
      <link>https://qwen.ai/blog?id=chinese-clip</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=chinese-clip</guid>
      <pubDate>Sat, 24 Dec 2022 06:54:19 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01Ayrj141Z6v6o0otgL_!!6000000003146-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>OFA:走向通用统一模型</title>
      <description>2022年可以说是属于通用模型的一年!随着多模态预训练的蓬勃发展,尤其是通用模型,我们看到实现一个具有处理多种模态的多种任务的能力的通用模型的机会。因此我们提出OFA[^1],即One-For-All。它是一个统一的多模态预训练模型,以统一的模型架构和任务形式兼容多模态和单模态的理解与生成任务。我们使用多模态多任务的方式预训练OFA,使其成为一个接近全能的模型。我们将OFA的模型和代码全部开源到社</description>
      <link>https://qwen.ai/blog?id=ofa</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofa</guid>
      <pubDate>Mon, 14 Nov 2022 08:01:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01gPY1pH1eB6oHfVgrk_!!6000000003832-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
  </channel>
</rss>

@github-actions
Copy link
Contributor

Successfully generated as following:

http://localhost:1200/qwen/blog/zh-cn - Success ✔️
<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Qwen Blog</title>
    <link>https://qwen.ai/research</link>
    <atom:link href="http://localhost:1200/qwen/blog/zh-cn" rel="self" type="application/rss+xml"></atom:link>
    <description>Qwen Blog - Powered by RSSHub</description>
    <generator>RSSHub</generator>
    <webMaster>[email protected] (RSSHub)</webMaster>
    <language>en</language>
    <lastBuildDate>Thu, 27 Nov 2025 06:01:57 GMT</lastBuildDate>
    <ttl>5</ttl>
    <item>
      <title>Qwen DeepResearch: 当灵感不再需要理由</title>
      <description>[点我体验最新&amp;nbsp;Qwen&amp;nbsp;DeepResearch](https://chat.qwen.ai/?inputFeature=deep_research)++_**灵感是如何死掉的?**_++它通常不是死于“不够好”,而是死于“太麻烦”。当一个念头闪现时,它还是脆弱的、未经证实的。我们的大脑在短暂兴奋后,会立刻开始评估“成本”:就在这个“成本评估”的瞬间,绝大多数灵感就被“理性”地扼杀了。我们下意识</description>
      <link>https://qwen.ai/blog?id=qwen-deepresearch</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-deepresearch</guid>
      <pubDate>Wed, 12 Nov 2025 20:59:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01DvbmDu1DeQYSDv1qm_!!6000000000241-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-Max:大就是好</title>
      <description>继 Qwen3-2507 系列发布之后,我们非常高兴地推出 Qwen3-Max —— 我们迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达</description>
      <link>https://qwen.ai/blog?id=qwen3-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-max</guid>
      <pubDate>Wed, 24 Sep 2025 04:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01FsxFnQ28qGswUnBBH_!!6000000007983-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-LiveTranslate:视、听、说全模态同传大模型!</title>
      <description>**Qwen3-LiveTranslate-Flash** 是一款基于大语言模型的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。核心亮点:在公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-</description>
      <link>https://qwen.ai/blog?id=qwen3-livetranslate</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-livetranslate</guid>
      <pubDate>Mon, 22 Sep 2025 23:00:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN010Ryzsc240HSitcBIb_!!6000000007328-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-VL:明察、深思、广行</title>
      <description>今天,我们正式推出全新升级的 **Qwen3-VL** 系列——这是迄今为止 Qwen 系列中最强大的视觉语言模型。在这一代模型中,我们在多个维度实现了全面跃升:无论是纯文本理解与生成,还是视觉内容的感知与推理;无论是上下文长度的支持能力,还是对空间关系、动态视频的理解深度;乃至在与Agent交互中的表现,Qwen3-VL 都展现出显著进步。今天,我们率先开源的是该系列的旗舰模型 —— **Qwe</description>
      <link>https://qwen.ai/blog?id=qwen3-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-vl</guid>
      <pubDate>Mon, 22 Sep 2025 22:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01vaefld1KExpoyKAZT_!!6000000001133-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>旅行规划师:你的专属智能行程设计师</title>
      <description>我们非常高兴推出全新的**旅行规划助手**,这是一个基于 **Multi-Agent 架构** 并具备强大 **真实工具调用能力** 的旅行规划系统,能够高效应对复杂、多变的行程安排任务。无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案:旅行规划是一项系统工程,涵盖交通、景点、住宿、用餐等环节,它们环环相扣、相互影响,任何单一 Agent 都难以全面驾驭其中的复杂</description>
      <link>https://qwen.ai/blog?id=agent</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=agent</guid>
      <pubDate>Mon, 22 Sep 2025 21:00:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01cdVHX81W7QhzPPAnF_!!6000000002741-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3Guard: 实时安全,逐词响应</title>
      <description>我们隆重推出 Qwen3Guard —— Qwen 家族中首款专为安全防护设计的护栏模型。该模型基于强大的 Qwen3 基础架构打造,并针对安全分类任务进行了专项微调,旨在为人工智能交互提供精准、可靠的安全保障。无论是用户输入的提示,还是模型生成的回复,Qwen3Guard 均可高效识别潜在风险,输出细粒度的风险等级与分类标签,助力实现更负责任的 AI 应用。在多项主流安全评测基准上,Qwen3G</description>
      <link>https://qwen.ai/blog?id=qwen3guard</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3guard</guid>
      <pubDate>Mon, 22 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN019JeUHo25owtXMDWx9_!!6000000007574-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-Image-Edit-2509: 多图编辑支持,单图一致性提升</title>
      <description>这个9月,我们很高兴推出 Qwen-Image-Edit-2509,作为 Qwen-Image-Edit 的月迭代版本。如需体验最新模型,欢迎访问 [Qwen Chat](https://qwen.ai) 并选择“图像编辑”功能。相比于8月发布的 Qwen-Image-Edit,Qwen-Image-Edit-2509 的主要特性包括:**Qwen-Image-Edit-2509 的首要更新是支</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit-2509</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit-2509</guid>
      <pubDate>Mon, 22 Sep 2025 16:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01LKSHVM1TeSQFp30rK_!!6000000002407-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Omni:新一代原生全模态大模型!</title>
      <description>**Qwen3-Omni**是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。我们引入了多种升级来提升模型表现和效率。主要特点:Qwen3-Omni采用Thinker-Talker架构:Thinker负责文本生成,Talker专注于流式语音Token生成,直接接收来自Thinker的高层语义表征。为实现超低延迟流式生成,Tal</description>
      <link>https://qwen.ai/blog?id=qwen3-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-omni</guid>
      <pubDate>Sun, 21 Sep 2025 21:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019dkYGs1MZgzWLyY5b_!!6000000001449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-TTS-Flash:多音色 &amp; 多语言 &amp; 多方言的语音合成</title>
      <description>**Qwen3-TTS-Flash** 是支持多音色、多语言和多方言的旗舰语音合成模型,旨在生成自然且具有表现力的语音,目前可通过[Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts)访问。主要特点:这里有一些样例展示了单说话人的多语种生成能力:这里有一些样例展示了中英文的音色:这里有一些样例展示了方言的音色:这里有一些样例展示了混</description>
      <link>https://qwen.ai/blog?id=qwen3-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-tts</guid>
      <pubDate>Sun, 21 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN013073ud1eVGF6hgIER_!!6000000003876-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Next:迈向更极致的训练推理性价比</title>
      <description>我们认为**Context Length Scaling**和**Total Parameter Scaling**是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,我们设计了全新的Qwen3-Next的模型结构。该结构相比Qwen3的MoE模型结构,进行了以下核心改进:**混合注意力机制**、**高稀疏度 MoE 结构**、一系列**训练稳定友好的优化**</description>
      <link>https://qwen.ai/blog?id=qwen3-next</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-next</guid>
      <pubDate>Wed, 10 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01xlZLeM29RMxon1D1I_!!6000000008064-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3 ASR:听得清楚,转写聪明。</title>
      <description>Qwen3-ASR-Flash现已正式发布,一个基于Qwen3基座模型强大的智能、海量多模态数据以及千万小时规模的ASR数据构建的语音识别服务。
        Qwen3-ASR-Flash实现了高精度高鲁棒性的语音识别性能,支持11种语言和多种口音。与众不同的是,Qwen3-ASR-Flash支持用户以任意格式提供文本上下文,从而获得定制化的 ASR 结果,同时还支持歌声识别。**📊 性能表现:****</description>
      <link>https://qwen.ai/blog?id=qwen3-asr-flash</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-asr-flash</guid>
      <pubDate>Mon, 08 Sep 2025 11:37:47 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019nzIdf1KGL1IeSFGE_!!6000000001136-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image-Edit: 全能图像编辑,驱动内容创作提质增效</title>
      <description>我们很高兴推出 Qwen-Image-Edit,Qwen-Image 的图像编辑版本。Qwen-Image-Edit 基于我们20B的 Qwen-Image 模型进一步训练,成功将 Qwen-Image 的独特的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 将输入图像同时输入到 Qwen2.5-VL(实现视觉语义控制)和 VAE Encoder</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit</guid>
      <pubDate>Mon, 18 Aug 2025 17:30:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01RXSS4P23dq33QGnKo_!!6000000007279-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image:擅长文字渲染的创作利器</title>
      <description>我们很高兴推出 Qwen-Image,一个20B的MMDiT模型。这是通义千问系列中首个图像生成基础模型,其在复杂文本渲染和精确图像编辑方面取得了显著进展。如需体验最新模型,欢迎访问 [Qwen Chat](https://chat.qwen.ai/) 并选择“图像生成”功能。主要特性包括:我们在多个公开基准上对Qwen-Image进行了全面评估,包括用于通用图像生成的GenEval、DPG和O</description>
      <link>https://qwen.ai/blog?id=qwen-image</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image</guid>
      <pubDate>Mon, 04 Aug 2025 14:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01DLyyGs1bYWCqvLkzC_!!6000000003477-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>GSPO:迈向持续拓展的语言模型强化学习</title>
      <description>强化学习 (Reinforcement Learning,RL)已成为拓展语言模型、增强其深度推理与问题求解能力的关键技术范式。为了持续拓展 RL,首要前提是确保稳定、鲁棒的训练过程。然而,我们观察到现有的 RL 算法(如 GRPO)在长期训练中会暴露出严重的不稳定性问题并招致不可逆转的模型崩溃,阻碍了通过增加计算以获得进一步的性能提升。为了能够持续拓展 RL,我们提出了 **Group Sequ</description>
      <link>https://qwen.ai/blog?id=gspo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=gspo</guid>
      <pubDate>Sun, 27 Jul 2025 07:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0123XiTi1edxlJi3WKt_!!6000000003895-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-MT:速度与智能翻译的完美融合</title>
      <description>我们通过[Qwen API](https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen-mt-turbo) 推出了 Qwen-MT(qwen-mt-turbo)的最新升级版本。本次更新基于强大的 Qwen3 模型,进一步使用超大规模多语言和翻译数据对模型进行训练,全面增强其多语言理解与翻译能力,并结合强化学习技术</description>
      <link>https://qwen.ai/blog?id=qwen-mt</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-mt</guid>
      <pubDate>Thu, 24 Jul 2025 14:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01mADZAp1UuJkNlERCM_!!6000000002577-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen3-Coder: 在世界中自主编程</title>
      <description>今天我们正式发布 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent</description>
      <link>https://qwen.ai/blog?id=qwen3-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-coder</guid>
      <pubDate>Tue, 22 Jul 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01bzvTND1zoaswjOuqr_!!6000000006761-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Time to Speak Some Dialects, Qwen-TTS!</title>
      <description>我们通过 [Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts) 更新了 **Qwen-TTS** ( `qwen-tts-latest` or `qwen-tts-2025-05-22` ) 的最新版本。Qwen-TTS 使用了超过 300 万小时的大规模语料库进行训练,合成效果实现了人类级别的自然度和表现力。比较亮眼的是,Qwe</description>
      <link>https://qwen.ai/blog?id=qwen-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-tts</guid>
      <pubDate>Fri, 27 Jun 2025 07:01:34 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01rAfdGa221zhrdVE8M_!!6000000007061-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen VLo: 从“看懂”世界到“描绘”世界</title>
      <description>多模态大模型的演进正在不断突破我们对技术边界的认知。从最初的 QwenVL 到如今的 Qwen2.5 VL ,我们在提升模型对图像内容的理解能力方面取得了一些进展。今天,我们正式推出 Qwen VLo ——一个多模态统一理解与生成模型。这一全新升级的模型不仅能够“看懂”世界,更能基于理解进行高质量的再创造,真正实现了从感知到生成的跨越。需要注意的是,这是一款预览版本,您可以通过 Qwen Chat</description>
      <link>https://qwen.ai/blog?id=qwen-vlo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vlo</guid>
      <pubDate>Thu, 26 Jun 2025 14:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01h8zlPf1K0lYBrVOU2_!!6000000001102-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3 Embedding:新一代文本表征与排序模型</title>
      <description>我们正式发布 Qwen3 Embedding 系列模型, Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。我们使用了 Apache 2.0 协议在 Hugging Face 和 ModelS</description>
      <link>https://qwen.ai/blog?id=qwen3-embedding</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-embedding</guid>
      <pubDate>Thu, 05 Jun 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01rxbtmx1blLISPGLPx_!!6000000003505-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3:思深,行速</title>
      <description>今天,我们宣布推出 **Qwen3**,这是 Qwen 系列大型语言模型的最新成员。我们的旗舰模型 **Qwen3-235B-A22B** 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 **Qwen3-30B-A3B** 的激活参数数量是 QwQ</description>
      <link>https://qwen.ai/blog?id=qwen3</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3</guid>
      <pubDate>Mon, 28 Apr 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01EJM5sy23hVDXqN07i_!!6000000007287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QVQ-Max:有依据地思考</title>
      <description>去年12月,我们推出了 QVQ-72B-Preview, 作为一个探索模型,它存在很多问题。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这款模型的特点是,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。虽然这只是我们的第一个版本,但它的潜力已经让人眼前一亮。Mat</description>
      <link>https://qwen.ai/blog?id=qvq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-max-preview</guid>
      <pubDate>Thu, 27 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018onW8W1DwHz54wSs4_!!6000000000280-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5 Omni:看得见、听得到、会说话、能写作,样样精通!</title>
      <description>我们发布了 **Qwen2.5-Omni**,Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。想要体验最新的模型,请访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择Qwen2.5-Omni-7B。该模型现已在 [Hugging Fa</description>
      <link>https://qwen.ai/blog?id=qwen2.5-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-omni</guid>
      <pubDate>Wed, 26 Mar 2025 16:00:45 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01GVuL0G1XWRxG74IKH_!!6000000002931-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-VL-32B: 更聪明、更轻量!</title>
      <description>今年一月底,我们推出了 Qwen2.5-VL 系列模型,获得了社区的广泛关注和积极反馈。在 Qwen2.5-VL 系列的基础上,我们使用强化学习持续优化模型,并使用 Apache 2.0 协议开源 32B 这个备受喜爱的参数规模的新 VL 模型—— **Qwen2.5-VL-32B-Instruct**。相比此前发布的 Qwen2.5-VL 系列模型,本次推出的 32B 模型的特点如下:我们与业内</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl-32b</guid>
      <pubDate>Sun, 23 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01iCwLhw1Hl4kYUm5rB_!!6000000000797-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QwQ-32B: 领略强化学习之力</title>
      <description>大规模强化学习(RL)有潜力超越传统的预训练和后训练方法来提升模型性能。近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。这一次,我们探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时很高兴推出我们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能</description>
      <link>https://qwen.ai/blog?id=qwq-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b</guid>
      <pubDate>Wed, 05 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012xm8Cw1OKhFTItwHC_!!6000000001687-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>&lt;think&gt;...&lt;/think&gt; QwQ-Max-Preview</title>
      <description>这篇博客出自 QwQ-Max-Preview 之手。希望各位看官喜欢!我们很高兴向大家介绍 QwQ-Max-Preview,这是 Qwen 系列的最新成果。这一版本基于 Qwen2.5-Max 构建,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。作为即将发布的 QwQ-Max 的预览版,这个版本还在持续优化中。我们计划在不久的将来以 Apache </description>
      <link>https://qwen.ai/blog?id=qwq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-max-preview</guid>
      <pubDate>Mon, 24 Feb 2025 18:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01ihrh5V1DzUkyhg1w6_!!6000000000287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Max:探索大规模 MoE 模型的智能</title>
      <description>过去有一种观点认为,持续地增长数据规模和模型参数规模是一种通向 AGI 的可能的路径。然而,整个大模型社区对于训练超大规模的模型的经验都相对匮乏,不论是稠密模型还是 MoE 模型。近期,DeepSeek V3 的发布让大家了解到超大规模 MoE 模型的效果及实现方法,而同期,Qwen 也在研发超大规模的 MoE 模型 Qwen2.5-Max,使用超过 20 万亿 token 的预训练数据及精心设计</description>
      <link>https://qwen.ai/blog?id=qwen2.5-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-max</guid>
      <pubDate>Tue, 28 Jan 2025 15:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0132o2E81svHMDRbZdV_!!6000000005828-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-1M: 支持100万Token上下文的开源Qwen模型</title>
      <description>两个月前,我们升级了 [Qwen2.5-Turbo](../qwen2.5-turbo),使其支持最多一百万个Tokens的上下文长度。今天,我们正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次发布的亮点:现在,你可以访问我们在 [Huggingface](https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo) 和 [Mo</description>
      <link>https://qwen.ai/blog?id=qwen2.5-1m</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-1m</guid>
      <pubDate>Sun, 26 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01VPK3rY1y1l2TcnRy1_!!6000000006519-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5 VL!Qwen2.5 VL!Qwen2.5 VL!</title>
      <description>我们发布了 **Qwen2.5-VL**,Qwen 模型家族的旗舰视觉语言模型,对比此前发布的 Qwen2-VL 实现了巨大的飞跃。欢迎访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择 Qwen2.5-VL-72B-Instruct 进行体验。此外,我们在 [Hugging Face](https://huggingface.co/collections/Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl</guid>
      <pubDate>Sun, 26 Jan 2025 11:08:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01X7ff9q1QcDdIi7Ph4_!!6000000001996-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>通过全局负载均衡提升混合专家模型的性能和特异化程度</title>
      <description>混合专家模型(MoEs)通过路由机制动态并稀疏地激活模型参数,使得能高效地增大模型参数规模。基于 TopK 机制的稀疏激活会在训练中会遇到专家激活不均衡的问题:少数被频繁选择的专家会被优化得更多,进一步使得这些专家被更频繁地选择,最终导致只选择少数专家,造成剩余专家的冗余。因此,MoE 在训练中需要引入额外的辅助损失(load balance loss,LBL)来鼓励专家的选择趋于均衡。目前主流 </description>
      <link>https://qwen.ai/blog?id=global-load-balance</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=global-load-balance</guid>
      <pubDate>Mon, 20 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01JH0zOD1QBef4OeeC9_!!6000000001938-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>面向有效的数学推理过程监督</title>
      <description>近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能犯错误,如计算错误或逻辑错误,导致得出错误结论。
        此外,即使最终答案正确,这些强大的模型也经常编造看似合理的推理步骤,其中最终答案基于有缺陷的计算或推导过程,这削弱了LLMs推理过程的可靠性和可信度。
        因此,自动识别推理过程中的错误对于其可扩展监督变得越来越重要。过程奖励模型(Process Reward Models, P</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math-prm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math-prm</guid>
      <pubDate>Mon, 13 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01OSlKdt1bSZ3cFUpX5_!!6000000003464-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QVQ: 更睿智地看世界</title>
      <description>在人类的思维中,语言和视觉紧密交织,塑造着我们感知和理解世界的方式。我们的推理能力深深植根于语言思维和视觉记忆之中。那么,当我们将这些能力赋予人工智能时,会发生什么呢?如今的大语言模型已经展现出卓越的推理能力,但我们不禁思考:它们能否通过掌握视觉理解的力量,攀登认知能力的新高峰?设想一下,一个人工智能能够像物理学大师一样,面对复杂的物理问题,沉着冷静地通过逻辑推理找到解决方案。正是这样的愿景激发我</description>
      <link>https://qwen.ai/blog?id=qvq-72b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-72b-preview</guid>
      <pubDate>Tue, 24 Dec 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01NnpNB71gquBYp5Pxh_!!6000000004194-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QwQ: 思忖未知之界</title>
      <description>*注意:QwQ 的发音为 /kwju:/ ,与单词 &quot;quill&quot; 的读音近似。*思考、质疑、理解,是人类探索未知的永恒追求。在这条探索之路上,QwQ犹如一位怀抱无尽好奇的学徒,以思考和疑问照亮前路。QwQ体现了古老的哲学精神:它深知自己一无所知,而这种认知正是其好奇心的源泉。在探寻答案的过程中,它始终保持自省,以理性之光审视每一个假设,在不同的思维维度中穿行,追寻更深层的真理。然而,正如所有智慧</description>
      <link>https://qwen.ai/blog?id=qwq-32b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b-preview</guid>
      <pubDate>Wed, 27 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN018w4xvj1u3oLqye6H8_!!6000000005982-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>将上下文长度扩展至百万 Tokens !</title>
      <description>在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于:现在,你可以通过[阿里云大模型服务平台](https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm</description>
      <link>https://qwen.ai/blog?id=qwen2.5-turbo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-turbo</guid>
      <pubDate>Thu, 14 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01SeMiF024thNW91dLw_!!6000000007449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Coder 全系列: 强大、多样、实用。</title>
      <description>今天,我们很高兴开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列模型,致力于持续推动 Open CodeLLMs 的发展。另外,Qwen2.5-Coder-32B-Instruct 的多编程语言代码修复能力同样令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Co</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder-family</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder-family</guid>
      <pubDate>Mon, 11 Nov 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01jQ4vU91nfdkpmxdu9_!!6000000005117-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5: 基础模型大派对!</title>
      <description>在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:**Qwen2.5**。我们将要宣布的可能是历史上最大的开源发布!让我们开始这场盛会吧!我们的最新发布包括了语言模型 **Qwen2.5**,以及专门针对编程的 **Qwen</description>
      <link>https://qwen.ai/blog?id=qwen2.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0102k1Cr1Nq0iEVrSyO_!!6000000001620-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-LLM:扩展大型语言模型的边界</title>
      <description>我们隆重推出最新发布的Qwen2.5系列语言模型!我们共开源了7款decoder-only的稠密模型,参数规模从0.5B到72B不等。我们调研发现产品对10B至30B模型的兴趣明显增加,同时3B规模的模型也越来越适用于移动端场景。为此,Qwen2.5系列开源了Qwen2.5-3B、Qwen2.5-14B 和 Qwen2.5-32B。同时,我们还推出了Qwen-Plus与Qwen-Turbo版本,可</description>
      <link>https://qwen.ai/blog?id=qwen2.5-llm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-llm</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01SVeaRN1U0tp7yfRYk_!!6000000002456-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: 码无止境,学无止境!</title>
      <description>四月初,我们发布了 CodeQwen1.5, 得到了社区广泛的关注与喜爱。自那以后,我们一直在继续努力提升代码模型。今天,我们很高兴地宣布新一代的开放代码模型 Qwen2.5-Coder 的发布。并正式将 CodeQwen 的命名改为 Qwen-Coder,我们认为 Coder 更加拟人、灵动,期待其可以在未来真正与人类结对编程。Qwen2.5-Coder 是我们 Qwen2.5 开源家族的一员,</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01mLq5fi1eItXkE3Czw_!!6000000003849-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-Math: 世界领先的数学开源大语言模型</title>
      <description>**🚨 Qwen2.5-Math主要被设计用于通过CoT或TIR的方式解中英数学题,我们不推荐在其他任务上使用该系列模型。**一个月前,我们开源了 Qwen 家族的第一款数学专项大语言模型- [Qwen2-Math](https://qwenlm.github.io/blog/qwen2-math/)。 今天,我们将它再度升级并开源 **Qwen2.5-Math** 系列,包括基础模型 **Qw</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:01 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01GOEJky1diiFo5ek9M_!!6000000003770-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-VL: 更清晰地看世界</title>
      <description>经历了接近一年时间的持续努力,今天我们很高兴地宣布我们最新一代的视觉语言模型:**Qwen2-VL** !Qwen2-VL 基于 Qwen2 打造,相比 Qwen-VL,它具有以下特点:我们以 Apache 2.0 协议开源了 Qwen2-VL-2B 和 Qwen2-VL-7B,并发布了 Qwen2-VL-72B 的 API!开源代码已集成到 Hugging Face Transformers、v</description>
      <link>https://qwen.ai/blog?id=qwen2-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-vl</guid>
      <pubDate>Wed, 28 Aug 2024 16:24:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN014TFaLH1L3LObKr3aD_!!6000000001243-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Audio:开启语音对话!</title>
      <description>在一个通用的AI系统中,核心模型应该能够理解不同模态的信息。当前的大语言模型现在已经能够理解语言并进行推理,并且已经扩展到了更多的模态,包括视觉和音频。此前我们陆续发布了多个 Qwen 语言模型系列以及 Qwen-VL 和 Qwen-Audio 等多模态模型。今天,我们正式发布 Qwen2-Audio。这是 Qwen-Audio 的下一代版本,它能够接受音频和文本输入,并生成文本输出。Qwen2-</description>
      <link>https://qwen.ai/blog?id=qwen2-audio</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-audio</guid>
      <pubDate>Fri, 09 Aug 2024 08:22:39 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01gYXp0M1dwS8UOaQBr_!!6000000003800-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Math,新一代数学模型</title>
      <description>**🚨 此模型目前主要支持英语。我们将尽快推出中英双语版本。**在过去的一年里,我们非常关注大模型的推理能力的提升,尤其关注其在数学相关的任务上的表现。今天,我们非常高兴地介绍 Qwen2 开源家族的新成员——Qwen2-Math-1.5B/7B/72B 系列。Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模</description>
      <link>https://qwen.ai/blog?id=qwen2-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-math</guid>
      <pubDate>Wed, 07 Aug 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01CEdMM02511iWTPvnu_!!6000000007465-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>你好,Qwen2</title>
      <description>历经数月努力, 我们很高兴迎来了Qwen系列模型从Qwen1.5到Qwen2的重大升级。这一次,我们为大家带来了:目前,我们已在Hugging Face和ModelScope上同步开源。期待听到你们的使用反馈!Qwen2系列包含5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B。如下表所示:在Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2</guid>
      <pubDate>Thu, 06 Jun 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01oKhdZr1j6azCVU5Ex_!!6000000004499-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>使用Qwen-Agent将上下文记忆扩展到百万量级</title>
      <description>**长话短说:** 我们开发了一个智能体用于理解包含百万字词的文档,虽然仅使用Qwen2模型的8k上下文,但效果超过RAG和长序列原生模型。我们还利用此智能体合成长上下文数据,用于训练长上下文的Qwen模型。近期,能够原生处理数百万字输入的大型语言模型(LLMs)成为了一种趋势。大部分工作集中在模型架构调整,如位置编码扩展或线性注意力机制等。然而,准备足够长度的微调数据作为讨论较少但同样重要的议题</description>
      <link>https://qwen.ai/blog?id=qwen-agent-2405</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-agent-2405</guid>
      <pubDate>Thu, 06 Jun 2024 03:59:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01i4Q6AR23XQVIi6lS8_!!6000000007265-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Max-0428模型介绍</title>
      <description>此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了[Chatbot Arena](https://chat.lmsys.org/),并登榜前十。此外,我们在MT-Bench的评测上也观察到</description>
      <link>https://qwen.ai/blog?id=qwen-max-0428</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-max-0428</guid>
      <pubDate>Sat, 11 May 2024 10:10:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01xS57GM1QpxW0ZCG2X_!!6000000002026-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-110B:Qwen1.5系列的首个千亿参数开源模型</title>
      <description>近期开源社区陆续出现了千亿参数规模以上的大模型,这些模型都在各项评测中取得杰出的成绩。今天,我们开源1100亿参数的Qwen1.5系列首个千亿参数模型Qwen1.5-110B,该模型在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。Qwen1.5-110B与其他Qwen1.5模型相似,采用了相同的Transform</description>
      <link>https://qwen.ai/blog?id=qwen1.5-110b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-110b</guid>
      <pubDate>Thu, 25 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01vfdPqh25i4wmsaCus_!!6000000007559-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>与 CodeQwen1.5 结对编程</title>
      <description>代码助手,是一种基于 LLMs 的智能化的编程工具,它可以帮助程序员更高效、更准确的编写代码,使得整个软件开发过程更加流畅和高效。然而流行的代码助手,比如 Github Copilot,依赖于闭源的商业模型,不仅昂贵还会引起如隐私、安全、版权等方面的担忧。幸运的是,开源社区正在致力于打造开放代码模型来实现开放的代码助手。近期涌现出了一批优秀的 Open CodeLLMs,比如 StarCoder2</description>
      <link>https://qwen.ai/blog?id=codeqwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=codeqwen1.5</guid>
      <pubDate>Tue, 16 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018fmQVa1hHvYNVqCuw_!!6000000004253-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen1.5-32B:Qwen1.5语言模型系列的最后一块拼图</title>
      <description>开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat</description>
      <link>https://qwen.ai/blog?id=qwen1.5-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-32b</guid>
      <pubDate>Tue, 02 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01FJuMNI1EzKE29cJaY_!!6000000000422-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-MoE: 1/3的激活参数量达到7B模型的性能</title>
      <description>今天,我们推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral 7B和Qwen1.5-7B相媲美。相较于包含65亿个Non-Embedding参数的Qwen1.5-7B,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,约为原模型大小的三分之一。此外,相比Qwen1.5</description>
      <link>https://qwen.ai/blog?id=qwen-moe</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-moe</guid>
      <pubDate>Thu, 28 Mar 2024 03:31:44 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN014wNJhC1kHsMAfWFpM_!!6000000004659-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5 介绍</title>
      <description>最近几个月,我们专注探索如何构建一个真正「卓越」的模型,并在此过程中不断提升开发者的使用体验。农历新年到来之际,我们推出通义千问开源模型 1.5 版本: **Qwen1.5**。我们开源了包括 0.5B、1.8B、4B、7B、14B、32B、72B 和 110B 共计 8 个不同规模的 Base 和 Chat 模型,, 以及一个 MoE 模型(点击[博客](https://qwenlm.githu</description>
      <link>https://qwen.ai/blog?id=qwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5</guid>
      <pubDate>Sun, 04 Feb 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01yFtQhb1eLBWVKbHXJ_!!6000000003854-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-VL全新升级!</title>
      <description>我们在 Qwen 语言模型的基础上,结合此前我们提出的多模态多任务训练,以解决多模态模型在泛化能力上的局限性,并于 2023 年 9 月开源了多模态模型 Qwen-VL。最近,Qwen-VL 系列有了重大升级,推出了两个增强版本:Qwen-VL-Plus 和 Qwen-VL-Max。这两个版本的关键提升包括:相比于开源版本的 Qwen-VL,这两个模型在多个文本-图像多模态任务中与 Gemini </description>
      <link>https://qwen.ai/blog?id=qwen-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vl</guid>
      <pubDate>Thu, 25 Jan 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01qEwYVn1RlfQ3jmcAr_!!6000000002152-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen介绍</title>
      <description>四个月前,我们首次发布Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。Additionally, we have WeChat groups for chatting and we invite you to join the groups through the provided lin</description>
      <link>https://qwen.ai/blog?id=qwen</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen</guid>
      <pubDate>Tue, 23 Jan 2024 14:13:29 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01hkVY7m1vfeh4TZKRq_!!6000000006200-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>OFASys:一行代码带你搞定多任务学习!</title>
      <description>通用模型非常火!我们现在跟随多模态多任务学习的发展似乎看到了实现一个真正的通用模型的机会。我们此前推出的OFA便是朝着这个目标迈向的重要一步。但是,我们在实际实现过程中遇到了非常多的困难。比如说,把多任务训练的模型搭建起来,组织多任务的训练比如给数据打batch和保证训练稳定等等,都非常困难。因此,我们推出一个AI系统OFASys,它主要解决多模态多任务学习的实现问题。简单来说,它主要通过一个叫做</description>
      <link>https://qwen.ai/blog?id=ofasys</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofasys</guid>
      <pubDate>Wed, 28 Dec 2022 10:01:21 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012Ygfqw1M8DDmt996q_!!6000000001389-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Chinese CLIP: 中文图文对比学习预训练</title>
      <description>CLIP[^1]是多模态表示学习领域一个现象级的模型。它不仅扮演基础模型,并且建立了视觉和语言的桥梁。它还推动了很多其他领域技术的发展,尤其是文本生成图像。然而,我们还需要特定语言的CLIP,尤其在现实应用中,比如跨模态检索。在此之前还没有效果较好的开源中文CLIP。因此我们希望通过这个项目推动中文多模态的发展。在诸如跨模态检索的图文应用中,语言往往扮演重要的角色。假设直接使用CLIP和翻译文本,</description>
      <link>https://qwen.ai/blog?id=chinese-clip</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=chinese-clip</guid>
      <pubDate>Sat, 24 Dec 2022 06:54:19 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01Ayrj141Z6v6o0otgL_!!6000000003146-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>OFA:走向通用统一模型</title>
      <description>2022年可以说是属于通用模型的一年!随着多模态预训练的蓬勃发展,尤其是通用模型,我们看到实现一个具有处理多种模态的多种任务的能力的通用模型的机会。因此我们提出OFA[^1],即One-For-All。它是一个统一的多模态预训练模型,以统一的模型架构和任务形式兼容多模态和单模态的理解与生成任务。我们使用多模态多任务的方式预训练OFA,使其成为一个接近全能的模型。我们将OFA的模型和代码全部开源到社</description>
      <link>https://qwen.ai/blog?id=ofa</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofa</guid>
      <pubDate>Mon, 14 Nov 2022 08:01:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01gPY1pH1eB6oHfVgrk_!!6000000003832-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
  </channel>
</rss>

@github-actions
Copy link
Contributor

Successfully generated as following:

http://localhost:1200/qwen/blog/zh-cn - Success ✔️
<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
  <channel>
    <title>Qwen Blog</title>
    <link>https://qwen.ai/research</link>
    <atom:link href="http://localhost:1200/qwen/blog/zh-cn" rel="self" type="application/rss+xml"></atom:link>
    <description>Qwen Blog - Powered by RSSHub</description>
    <generator>RSSHub</generator>
    <webMaster>[email protected] (RSSHub)</webMaster>
    <language>en</language>
    <lastBuildDate>Thu, 27 Nov 2025 06:16:49 GMT</lastBuildDate>
    <ttl>5</ttl>
    <item>
      <title>Qwen DeepResearch: 当灵感不再需要理由</title>
      <description>[点我体验最新&amp;nbsp;Qwen&amp;nbsp;DeepResearch](https://chat.qwen.ai/?inputFeature=deep_research)++_**灵感是如何死掉的?**_++它通常不是死于“不够好”,而是死于“太麻烦”。当一个念头闪现时,它还是脆弱的、未经证实的。我们的大脑在短暂兴奋后,会立刻开始评估“成本”:就在这个“成本评估”的瞬间,绝大多数灵感就被“理性”地扼杀了。我们下意识</description>
      <link>https://qwen.ai/blog?id=qwen-deepresearch</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-deepresearch</guid>
      <pubDate>Wed, 12 Nov 2025 20:59:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01DvbmDu1DeQYSDv1qm_!!6000000000241-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-Max:大就是好</title>
      <description>继 Qwen3-2507 系列发布之后,我们非常高兴地推出 Qwen3-Max —— 我们迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达</description>
      <link>https://qwen.ai/blog?id=qwen3-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-max</guid>
      <pubDate>Wed, 24 Sep 2025 04:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01FsxFnQ28qGswUnBBH_!!6000000007983-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-LiveTranslate:视、听、说全模态同传大模型!</title>
      <description>**Qwen3-LiveTranslate-Flash** 是一款基于大语言模型的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。核心亮点:在公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-</description>
      <link>https://qwen.ai/blog?id=qwen3-livetranslate</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-livetranslate</guid>
      <pubDate>Mon, 22 Sep 2025 23:00:26 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN010Ryzsc240HSitcBIb_!!6000000007328-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3-VL:明察、深思、广行</title>
      <description>今天,我们正式推出全新升级的 **Qwen3-VL** 系列——这是迄今为止 Qwen 系列中最强大的视觉语言模型。在这一代模型中,我们在多个维度实现了全面跃升:无论是纯文本理解与生成,还是视觉内容的感知与推理;无论是上下文长度的支持能力,还是对空间关系、动态视频的理解深度;乃至在与Agent交互中的表现,Qwen3-VL 都展现出显著进步。今天,我们率先开源的是该系列的旗舰模型 —— **Qwe</description>
      <link>https://qwen.ai/blog?id=qwen3-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-vl</guid>
      <pubDate>Mon, 22 Sep 2025 22:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01vaefld1KExpoyKAZT_!!6000000001133-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>旅行规划师:你的专属智能行程设计师</title>
      <description>我们非常高兴推出全新的**旅行规划助手**,这是一个基于 **Multi-Agent 架构** 并具备强大 **真实工具调用能力** 的旅行规划系统,能够高效应对复杂、多变的行程安排任务。无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案:旅行规划是一项系统工程,涵盖交通、景点、住宿、用餐等环节,它们环环相扣、相互影响,任何单一 Agent 都难以全面驾驭其中的复杂</description>
      <link>https://qwen.ai/blog?id=agent</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=agent</guid>
      <pubDate>Mon, 22 Sep 2025 21:00:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01cdVHX81W7QhzPPAnF_!!6000000002741-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3Guard: 实时安全,逐词响应</title>
      <description>我们隆重推出 Qwen3Guard —— Qwen 家族中首款专为安全防护设计的护栏模型。该模型基于强大的 Qwen3 基础架构打造,并针对安全分类任务进行了专项微调,旨在为人工智能交互提供精准、可靠的安全保障。无论是用户输入的提示,还是模型生成的回复,Qwen3Guard 均可高效识别潜在风险,输出细粒度的风险等级与分类标签,助力实现更负责任的 AI 应用。在多项主流安全评测基准上,Qwen3G</description>
      <link>https://qwen.ai/blog?id=qwen3guard</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3guard</guid>
      <pubDate>Mon, 22 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN019JeUHo25owtXMDWx9_!!6000000007574-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-Image-Edit-2509: 多图编辑支持,单图一致性提升</title>
      <description>这个9月,我们很高兴推出 Qwen-Image-Edit-2509,作为 Qwen-Image-Edit 的月迭代版本。如需体验最新模型,欢迎访问 [Qwen Chat](https://qwen.ai) 并选择“图像编辑”功能。相比于8月发布的 Qwen-Image-Edit,Qwen-Image-Edit-2509 的主要特性包括:**Qwen-Image-Edit-2509 的首要更新是支</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit-2509</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit-2509</guid>
      <pubDate>Mon, 22 Sep 2025 16:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01LKSHVM1TeSQFp30rK_!!6000000002407-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Omni:新一代原生全模态大模型!</title>
      <description>**Qwen3-Omni**是新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。我们引入了多种升级来提升模型表现和效率。主要特点:Qwen3-Omni采用Thinker-Talker架构:Thinker负责文本生成,Talker专注于流式语音Token生成,直接接收来自Thinker的高层语义表征。为实现超低延迟流式生成,Tal</description>
      <link>https://qwen.ai/blog?id=qwen3-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-omni</guid>
      <pubDate>Sun, 21 Sep 2025 21:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019dkYGs1MZgzWLyY5b_!!6000000001449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-TTS-Flash:多音色 &amp; 多语言 &amp; 多方言的语音合成</title>
      <description>**Qwen3-TTS-Flash** 是支持多音色、多语言和多方言的旗舰语音合成模型,旨在生成自然且具有表现力的语音,目前可通过[Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts)访问。主要特点:这里有一些样例展示了单说话人的多语种生成能力:这里有一些样例展示了中英文的音色:这里有一些样例展示了方言的音色:这里有一些样例展示了混</description>
      <link>https://qwen.ai/blog?id=qwen3-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-tts</guid>
      <pubDate>Sun, 21 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN013073ud1eVGF6hgIER_!!6000000003876-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3-Next:迈向更极致的训练推理性价比</title>
      <description>我们认为**Context Length Scaling**和**Total Parameter Scaling**是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,我们设计了全新的Qwen3-Next的模型结构。该结构相比Qwen3的MoE模型结构,进行了以下核心改进:**混合注意力机制**、**高稀疏度 MoE 结构**、一系列**训练稳定友好的优化**</description>
      <link>https://qwen.ai/blog?id=qwen3-next</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-next</guid>
      <pubDate>Wed, 10 Sep 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01xlZLeM29RMxon1D1I_!!6000000008064-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen3 ASR:听得清楚,转写聪明。</title>
      <description>Qwen3-ASR-Flash现已正式发布,一个基于Qwen3基座模型强大的智能、海量多模态数据以及千万小时规模的ASR数据构建的语音识别服务。
        Qwen3-ASR-Flash实现了高精度高鲁棒性的语音识别性能,支持11种语言和多种口音。与众不同的是,Qwen3-ASR-Flash支持用户以任意格式提供文本上下文,从而获得定制化的 ASR 结果,同时还支持歌声识别。**📊 性能表现:****</description>
      <link>https://qwen.ai/blog?id=qwen3-asr-flash</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-asr-flash</guid>
      <pubDate>Mon, 08 Sep 2025 11:37:47 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN019nzIdf1KGL1IeSFGE_!!6000000001136-0-tps-1890-1134.jpg" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image-Edit: 全能图像编辑,驱动内容创作提质增效</title>
      <description>我们很高兴推出 Qwen-Image-Edit,Qwen-Image 的图像编辑版本。Qwen-Image-Edit 基于我们20B的 Qwen-Image 模型进一步训练,成功将 Qwen-Image 的独特的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 将输入图像同时输入到 Qwen2.5-VL(实现视觉语义控制)和 VAE Encoder</description>
      <link>https://qwen.ai/blog?id=qwen-image-edit</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image-edit</guid>
      <pubDate>Mon, 18 Aug 2025 17:30:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01RXSS4P23dq33QGnKo_!!6000000007279-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Image:擅长文字渲染的创作利器</title>
      <description>我们很高兴推出 Qwen-Image,一个20B的MMDiT模型。这是通义千问系列中首个图像生成基础模型,其在复杂文本渲染和精确图像编辑方面取得了显著进展。如需体验最新模型,欢迎访问 [Qwen Chat](https://chat.qwen.ai/) 并选择“图像生成”功能。主要特性包括:我们在多个公开基准上对Qwen-Image进行了全面评估,包括用于通用图像生成的GenEval、DPG和O</description>
      <link>https://qwen.ai/blog?id=qwen-image</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-image</guid>
      <pubDate>Mon, 04 Aug 2025 14:08:30 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01DLyyGs1bYWCqvLkzC_!!6000000003477-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>GSPO:迈向持续拓展的语言模型强化学习</title>
      <description>强化学习 (Reinforcement Learning,RL)已成为拓展语言模型、增强其深度推理与问题求解能力的关键技术范式。为了持续拓展 RL,首要前提是确保稳定、鲁棒的训练过程。然而,我们观察到现有的 RL 算法(如 GRPO)在长期训练中会暴露出严重的不稳定性问题并招致不可逆转的模型崩溃,阻碍了通过增加计算以获得进一步的性能提升。为了能够持续拓展 RL,我们提出了 **Group Sequ</description>
      <link>https://qwen.ai/blog?id=gspo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=gspo</guid>
      <pubDate>Sun, 27 Jul 2025 07:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0123XiTi1edxlJi3WKt_!!6000000003895-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-MT:速度与智能翻译的完美融合</title>
      <description>我们通过[Qwen API](https://bailian.console.aliyun.com/?tab=model#/model-market/detail/qwen-mt-turbo) 推出了 Qwen-MT(qwen-mt-turbo)的最新升级版本。本次更新基于强大的 Qwen3 模型,进一步使用超大规模多语言和翻译数据对模型进行训练,全面增强其多语言理解与翻译能力,并结合强化学习技术</description>
      <link>https://qwen.ai/blog?id=qwen-mt</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-mt</guid>
      <pubDate>Thu, 24 Jul 2025 14:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01mADZAp1UuJkNlERCM_!!6000000002577-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen3-Coder: 在世界中自主编程</title>
      <description>今天我们正式发布 Qwen3-Coder,这是我们迄今为止最具代理能力的代码模型。Qwen3-Coder 拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个总参数量 480B,激活 35B 的 MoE 模型,原生支持 256K token 的上下文并可通过 YaRN 扩展到 1M token,拥有卓越的代码和 Agent</description>
      <link>https://qwen.ai/blog?id=qwen3-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-coder</guid>
      <pubDate>Tue, 22 Jul 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01bzvTND1zoaswjOuqr_!!6000000006761-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Time to Speak Some Dialects, Qwen-TTS!</title>
      <description>我们通过 [Qwen API](https://help.aliyun.com/zh/model-studio/qwen-tts) 更新了 **Qwen-TTS** ( `qwen-tts-latest` or `qwen-tts-2025-05-22` ) 的最新版本。Qwen-TTS 使用了超过 300 万小时的大规模语料库进行训练,合成效果实现了人类级别的自然度和表现力。比较亮眼的是,Qwe</description>
      <link>https://qwen.ai/blog?id=qwen-tts</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-tts</guid>
      <pubDate>Fri, 27 Jun 2025 07:01:34 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01rAfdGa221zhrdVE8M_!!6000000007061-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen VLo: 从“看懂”世界到“描绘”世界</title>
      <description>多模态大模型的演进正在不断突破我们对技术边界的认知。从最初的 QwenVL 到如今的 Qwen2.5 VL ,我们在提升模型对图像内容的理解能力方面取得了一些进展。今天,我们正式推出 Qwen VLo ——一个多模态统一理解与生成模型。这一全新升级的模型不仅能够“看懂”世界,更能基于理解进行高质量的再创造,真正实现了从感知到生成的跨越。需要注意的是,这是一款预览版本,您可以通过 Qwen Chat</description>
      <link>https://qwen.ai/blog?id=qwen-vlo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vlo</guid>
      <pubDate>Thu, 26 Jun 2025 14:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01h8zlPf1K0lYBrVOU2_!!6000000001102-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3 Embedding:新一代文本表征与排序模型</title>
      <description>我们正式发布 Qwen3 Embedding 系列模型, Qwen 模型家族的新成员。该系列模型专为文本表征、检索与排序任务设计,基于 Qwen3 基础模型进行训练,充分继承了 Qwen3 在多语言文本理解能力方面的优势。在多项基准测试中,Qwen3 Embedding 系列在文本表征和排序任务中展现了卓越的性能。我们使用了 Apache 2.0 协议在 Hugging Face 和 ModelS</description>
      <link>https://qwen.ai/blog?id=qwen3-embedding</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3-embedding</guid>
      <pubDate>Thu, 05 Jun 2025 13:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01rxbtmx1blLISPGLPx_!!6000000003505-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen3:思深,行速</title>
      <description>今天,我们宣布推出 **Qwen3**,这是 Qwen 系列大型语言模型的最新成员。我们的旗舰模型 **Qwen3-235B-A22B** 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 **Qwen3-30B-A3B** 的激活参数数量是 QwQ</description>
      <link>https://qwen.ai/blog?id=qwen3</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen3</guid>
      <pubDate>Mon, 28 Apr 2025 20:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01EJM5sy23hVDXqN07i_!!6000000007287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QVQ-Max:有依据地思考</title>
      <description>去年12月,我们推出了 QVQ-72B-Preview, 作为一个探索模型,它存在很多问题。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这款模型的特点是,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。虽然这只是我们的第一个版本,但它的潜力已经让人眼前一亮。Mat</description>
      <link>https://qwen.ai/blog?id=qvq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-max-preview</guid>
      <pubDate>Thu, 27 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018onW8W1DwHz54wSs4_!!6000000000280-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5 Omni:看得见、听得到、会说话、能写作,样样精通!</title>
      <description>我们发布了 **Qwen2.5-Omni**,Qwen 模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。想要体验最新的模型,请访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择Qwen2.5-Omni-7B。该模型现已在 [Hugging Fa</description>
      <link>https://qwen.ai/blog?id=qwen2.5-omni</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-omni</guid>
      <pubDate>Wed, 26 Mar 2025 16:00:45 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01GVuL0G1XWRxG74IKH_!!6000000002931-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-VL-32B: 更聪明、更轻量!</title>
      <description>今年一月底,我们推出了 Qwen2.5-VL 系列模型,获得了社区的广泛关注和积极反馈。在 Qwen2.5-VL 系列的基础上,我们使用强化学习持续优化模型,并使用 Apache 2.0 协议开源 32B 这个备受喜爱的参数规模的新 VL 模型—— **Qwen2.5-VL-32B-Instruct**。相比此前发布的 Qwen2.5-VL 系列模型,本次推出的 32B 模型的特点如下:我们与业内</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl-32b</guid>
      <pubDate>Sun, 23 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01iCwLhw1Hl4kYUm5rB_!!6000000000797-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>QwQ-32B: 领略强化学习之力</title>
      <description>大规模强化学习(RL)有潜力超越传统的预训练和后训练方法来提升模型性能。近期的研究表明,强化学习可以显著提高模型的推理能力。例如,DeepSeek R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。这一次,我们探讨了大规模强化学习(RL)对大语言模型的智能的提升作用,同时很高兴推出我们最新的推理模型 QwQ-32B。这是一款拥有 320 亿参数的模型,其性能</description>
      <link>https://qwen.ai/blog?id=qwq-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b</guid>
      <pubDate>Wed, 05 Mar 2025 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012xm8Cw1OKhFTItwHC_!!6000000001687-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>&lt;think&gt;...&lt;/think&gt; QwQ-Max-Preview</title>
      <description>这篇博客出自 QwQ-Max-Preview 之手。希望各位看官喜欢!我们很高兴向大家介绍 QwQ-Max-Preview,这是 Qwen 系列的最新成果。这一版本基于 Qwen2.5-Max 构建,在数学、编程以及通用任务中展现了更强的能力,同时在与 Agent 相关的工作流中也有不错的表现。作为即将发布的 QwQ-Max 的预览版,这个版本还在持续优化中。我们计划在不久的将来以 Apache </description>
      <link>https://qwen.ai/blog?id=qwq-max-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-max-preview</guid>
      <pubDate>Mon, 24 Feb 2025 18:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01ihrh5V1DzUkyhg1w6_!!6000000000287-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Max:探索大规模 MoE 模型的智能</title>
      <description>过去有一种观点认为,持续地增长数据规模和模型参数规模是一种通向 AGI 的可能的路径。然而,整个大模型社区对于训练超大规模的模型的经验都相对匮乏,不论是稠密模型还是 MoE 模型。近期,DeepSeek V3 的发布让大家了解到超大规模 MoE 模型的效果及实现方法,而同期,Qwen 也在研发超大规模的 MoE 模型 Qwen2.5-Max,使用超过 20 万亿 token 的预训练数据及精心设计</description>
      <link>https://qwen.ai/blog?id=qwen2.5-max</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-max</guid>
      <pubDate>Tue, 28 Jan 2025 15:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0132o2E81svHMDRbZdV_!!6000000005828-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-1M: 支持100万Token上下文的开源Qwen模型</title>
      <description>两个月前,我们升级了 [Qwen2.5-Turbo](../qwen2.5-turbo),使其支持最多一百万个Tokens的上下文长度。今天,我们正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次发布的亮点:现在,你可以访问我们在 [Huggingface](https://huggingface.co/spaces/Qwen/Qwen2.5-1M-Demo) 和 [Mo</description>
      <link>https://qwen.ai/blog?id=qwen2.5-1m</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-1m</guid>
      <pubDate>Sun, 26 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01VPK3rY1y1l2TcnRy1_!!6000000006519-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5 VL!Qwen2.5 VL!Qwen2.5 VL!</title>
      <description>我们发布了 **Qwen2.5-VL**,Qwen 模型家族的旗舰视觉语言模型,对比此前发布的 Qwen2-VL 实现了巨大的飞跃。欢迎访问 [Qwen Chat](https://chat.qwenlm.ai) 并选择 Qwen2.5-VL-72B-Instruct 进行体验。此外,我们在 [Hugging Face](https://huggingface.co/collections/Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2.5-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-vl</guid>
      <pubDate>Sun, 26 Jan 2025 11:08:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01X7ff9q1QcDdIi7Ph4_!!6000000001996-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>通过全局负载均衡提升混合专家模型的性能和特异化程度</title>
      <description>混合专家模型(MoEs)通过路由机制动态并稀疏地激活模型参数,使得能高效地增大模型参数规模。基于 TopK 机制的稀疏激活会在训练中会遇到专家激活不均衡的问题:少数被频繁选择的专家会被优化得更多,进一步使得这些专家被更频繁地选择,最终导致只选择少数专家,造成剩余专家的冗余。因此,MoE 在训练中需要引入额外的辅助损失(load balance loss,LBL)来鼓励专家的选择趋于均衡。目前主流 </description>
      <link>https://qwen.ai/blog?id=global-load-balance</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=global-load-balance</guid>
      <pubDate>Mon, 20 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01JH0zOD1QBef4OeeC9_!!6000000001938-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>面向有效的数学推理过程监督</title>
      <description>近年来,大型语言模型(LLMs)在数学推理方面取得了显著进展,但它们仍可能犯错误,如计算错误或逻辑错误,导致得出错误结论。
        此外,即使最终答案正确,这些强大的模型也经常编造看似合理的推理步骤,其中最终答案基于有缺陷的计算或推导过程,这削弱了LLMs推理过程的可靠性和可信度。
        因此,自动识别推理过程中的错误对于其可扩展监督变得越来越重要。过程奖励模型(Process Reward Models, P</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math-prm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math-prm</guid>
      <pubDate>Mon, 13 Jan 2025 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01OSlKdt1bSZ3cFUpX5_!!6000000003464-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QVQ: 更睿智地看世界</title>
      <description>在人类的思维中,语言和视觉紧密交织,塑造着我们感知和理解世界的方式。我们的推理能力深深植根于语言思维和视觉记忆之中。那么,当我们将这些能力赋予人工智能时,会发生什么呢?如今的大语言模型已经展现出卓越的推理能力,但我们不禁思考:它们能否通过掌握视觉理解的力量,攀登认知能力的新高峰?设想一下,一个人工智能能够像物理学大师一样,面对复杂的物理问题,沉着冷静地通过逻辑推理找到解决方案。正是这样的愿景激发我</description>
      <link>https://qwen.ai/blog?id=qvq-72b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qvq-72b-preview</guid>
      <pubDate>Tue, 24 Dec 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01NnpNB71gquBYp5Pxh_!!6000000004194-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>QwQ: 思忖未知之界</title>
      <description>*注意:QwQ 的发音为 /kwju:/ ,与单词 &quot;quill&quot; 的读音近似。*思考、质疑、理解,是人类探索未知的永恒追求。在这条探索之路上,QwQ犹如一位怀抱无尽好奇的学徒,以思考和疑问照亮前路。QwQ体现了古老的哲学精神:它深知自己一无所知,而这种认知正是其好奇心的源泉。在探寻答案的过程中,它始终保持自省,以理性之光审视每一个假设,在不同的思维维度中穿行,追寻更深层的真理。然而,正如所有智慧</description>
      <link>https://qwen.ai/blog?id=qwq-32b-preview</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwq-32b-preview</guid>
      <pubDate>Wed, 27 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN018w4xvj1u3oLqye6H8_!!6000000005982-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>将上下文长度扩展至百万 Tokens !</title>
      <description>在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于:现在,你可以通过[阿里云大模型服务平台](https://help.aliyun.com/zh/model-studio/developer-reference/what-is-qwen-llm</description>
      <link>https://qwen.ai/blog?id=qwen2.5-turbo</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-turbo</guid>
      <pubDate>Thu, 14 Nov 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01SeMiF024thNW91dLw_!!6000000007449-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen2.5-Coder 全系列: 强大、多样、实用。</title>
      <description>今天,我们很高兴开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列模型,致力于持续推动 Open CodeLLMs 的发展。另外,Qwen2.5-Coder-32B-Instruct 的多编程语言代码修复能力同样令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Co</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder-family</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder-family</guid>
      <pubDate>Mon, 11 Nov 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN01jQ4vU91nfdkpmxdu9_!!6000000005117-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5: 基础模型大派对!</title>
      <description>在 Qwen2 发布后的过去三个月里,许多开发者基于 Qwen2 语言模型构建了新的模型,并为我们提供了宝贵的反馈。在这段时间里,我们专注于创建更智能、更博学的语言模型。今天,我们很高兴地向大家介绍 Qwen 家族的最新成员:**Qwen2.5**。我们将要宣布的可能是历史上最大的开源发布!让我们开始这场盛会吧!我们的最新发布包括了语言模型 **Qwen2.5**,以及专门针对编程的 **Qwen</description>
      <link>https://qwen.ai/blog?id=qwen2.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:04 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN0102k1Cr1Nq0iEVrSyO_!!6000000001620-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-LLM:扩展大型语言模型的边界</title>
      <description>我们隆重推出最新发布的Qwen2.5系列语言模型!我们共开源了7款decoder-only的稠密模型,参数规模从0.5B到72B不等。我们调研发现产品对10B至30B模型的兴趣明显增加,同时3B规模的模型也越来越适用于移动端场景。为此,Qwen2.5系列开源了Qwen2.5-3B、Qwen2.5-14B 和 Qwen2.5-32B。同时,我们还推出了Qwen-Plus与Qwen-Turbo版本,可</description>
      <link>https://qwen.ai/blog?id=qwen2.5-llm</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-llm</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:03 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01SVeaRN1U0tp7yfRYk_!!6000000002456-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen2.5-Coder: 码无止境,学无止境!</title>
      <description>四月初,我们发布了 CodeQwen1.5, 得到了社区广泛的关注与喜爱。自那以后,我们一直在继续努力提升代码模型。今天,我们很高兴地宣布新一代的开放代码模型 Qwen2.5-Coder 的发布。并正式将 CodeQwen 的命名改为 Qwen-Coder,我们认为 Coder 更加拟人、灵动,期待其可以在未来真正与人类结对编程。Qwen2.5-Coder 是我们 Qwen2.5 开源家族的一员,</description>
      <link>https://qwen.ai/blog?id=qwen2.5-coder</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-coder</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:02 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01mLq5fi1eItXkE3Czw_!!6000000003849-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2.5-Math: 世界领先的数学开源大语言模型</title>
      <description>**🚨 Qwen2.5-Math主要被设计用于通过CoT或TIR的方式解中英数学题,我们不推荐在其他任务上使用该系列模型。**一个月前,我们开源了 Qwen 家族的第一款数学专项大语言模型- [Qwen2-Math](https://qwenlm.github.io/blog/qwen2-math/)。 今天,我们将它再度升级并开源 **Qwen2.5-Math** 系列,包括基础模型 **Qw</description>
      <link>https://qwen.ai/blog?id=qwen2.5-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2.5-math</guid>
      <pubDate>Wed, 18 Sep 2024 16:00:01 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01GOEJky1diiFo5ek9M_!!6000000003770-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-VL: 更清晰地看世界</title>
      <description>经历了接近一年时间的持续努力,今天我们很高兴地宣布我们最新一代的视觉语言模型:**Qwen2-VL** !Qwen2-VL 基于 Qwen2 打造,相比 Qwen-VL,它具有以下特点:我们以 Apache 2.0 协议开源了 Qwen2-VL-2B 和 Qwen2-VL-7B,并发布了 Qwen2-VL-72B 的 API!开源代码已集成到 Hugging Face Transformers、v</description>
      <link>https://qwen.ai/blog?id=qwen2-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-vl</guid>
      <pubDate>Wed, 28 Aug 2024 16:24:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN014TFaLH1L3LObKr3aD_!!6000000001243-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Audio:开启语音对话!</title>
      <description>在一个通用的AI系统中,核心模型应该能够理解不同模态的信息。当前的大语言模型现在已经能够理解语言并进行推理,并且已经扩展到了更多的模态,包括视觉和音频。此前我们陆续发布了多个 Qwen 语言模型系列以及 Qwen-VL 和 Qwen-Audio 等多模态模型。今天,我们正式发布 Qwen2-Audio。这是 Qwen-Audio 的下一代版本,它能够接受音频和文本输入,并生成文本输出。Qwen2-</description>
      <link>https://qwen.ai/blog?id=qwen2-audio</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-audio</guid>
      <pubDate>Fri, 09 Aug 2024 08:22:39 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01gYXp0M1dwS8UOaQBr_!!6000000003800-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen2-Math,新一代数学模型</title>
      <description>**🚨 此模型目前主要支持英语。我们将尽快推出中英双语版本。**在过去的一年里,我们非常关注大模型的推理能力的提升,尤其关注其在数学相关的任务上的表现。今天,我们非常高兴地介绍 Qwen2 开源家族的新成员——Qwen2-Math-1.5B/7B/72B 系列。Qwen2-Math 是一系列基于 Qwen2 LLM 构建的专门用于数学解题的语言模型,其数学能力显著超越了开源模型,甚至超过了闭源模</description>
      <link>https://qwen.ai/blog?id=qwen2-math</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2-math</guid>
      <pubDate>Wed, 07 Aug 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01CEdMM02511iWTPvnu_!!6000000007465-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>你好,Qwen2</title>
      <description>历经数月努力, 我们很高兴迎来了Qwen系列模型从Qwen1.5到Qwen2的重大升级。这一次,我们为大家带来了:目前,我们已在Hugging Face和ModelScope上同步开源。期待听到你们的使用反馈!Qwen2系列包含5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B。如下表所示:在Qwe</description>
      <link>https://qwen.ai/blog?id=qwen2</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen2</guid>
      <pubDate>Thu, 06 Jun 2024 16:00:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01oKhdZr1j6azCVU5Ex_!!6000000004499-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>使用Qwen-Agent将上下文记忆扩展到百万量级</title>
      <description>**长话短说:** 我们开发了一个智能体用于理解包含百万字词的文档,虽然仅使用Qwen2模型的8k上下文,但效果超过RAG和长序列原生模型。我们还利用此智能体合成长上下文数据,用于训练长上下文的Qwen模型。近期,能够原生处理数百万字输入的大型语言模型(LLMs)成为了一种趋势。大部分工作集中在模型架构调整,如位置编码扩展或线性注意力机制等。然而,准备足够长度的微调数据作为讨论较少但同样重要的议题</description>
      <link>https://qwen.ai/blog?id=qwen-agent-2405</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-agent-2405</guid>
      <pubDate>Thu, 06 Jun 2024 03:59:59 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01i4Q6AR23XQVIi6lS8_!!6000000007265-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Qwen-Max-0428模型介绍</title>
      <description>此前,我们开源了Qwen1.5系列的模型,参数规模最小至5亿,最大至1100亿。这一次,我们推出更大规模模型Qwen-Max-0428(通义千问网页端及APP产品版本从2.1升级至2.5)。Qwen-Max-0428是经过指令微调的Chat模型。近期该模型登陆了[Chatbot Arena](https://chat.lmsys.org/),并登榜前十。此外,我们在MT-Bench的评测上也观察到</description>
      <link>https://qwen.ai/blog?id=qwen-max-0428</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-max-0428</guid>
      <pubDate>Sat, 11 May 2024 10:10:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01xS57GM1QpxW0ZCG2X_!!6000000002026-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-110B:Qwen1.5系列的首个千亿参数开源模型</title>
      <description>近期开源社区陆续出现了千亿参数规模以上的大模型,这些模型都在各项评测中取得杰出的成绩。今天,我们开源1100亿参数的Qwen1.5系列首个千亿参数模型Qwen1.5-110B,该模型在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。Qwen1.5-110B与其他Qwen1.5模型相似,采用了相同的Transform</description>
      <link>https://qwen.ai/blog?id=qwen1.5-110b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-110b</guid>
      <pubDate>Thu, 25 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01vfdPqh25i4wmsaCus_!!6000000007559-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>与 CodeQwen1.5 结对编程</title>
      <description>代码助手,是一种基于 LLMs 的智能化的编程工具,它可以帮助程序员更高效、更准确的编写代码,使得整个软件开发过程更加流畅和高效。然而流行的代码助手,比如 Github Copilot,依赖于闭源的商业模型,不仅昂贵还会引起如隐私、安全、版权等方面的担忧。幸运的是,开源社区正在致力于打造开放代码模型来实现开放的代码助手。近期涌现出了一批优秀的 Open CodeLLMs,比如 StarCoder2</description>
      <link>https://qwen.ai/blog?id=codeqwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=codeqwen1.5</guid>
      <pubDate>Tue, 16 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i4/O1CN018fmQVa1hHvYNVqCuw_!!6000000004253-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen1.5-32B:Qwen1.5语言模型系列的最后一块拼图</title>
      <description>开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat</description>
      <link>https://qwen.ai/blog?id=qwen1.5-32b</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5-32b</guid>
      <pubDate>Tue, 02 Apr 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01FJuMNI1EzKE29cJaY_!!6000000000422-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5-MoE: 1/3的激活参数量达到7B模型的性能</title>
      <description>今天,我们推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral 7B和Qwen1.5-7B相媲美。相较于包含65亿个Non-Embedding参数的Qwen1.5-7B,Qwen1.5-MoE-A2.7B只有20亿个Non-Embedding参数,约为原模型大小的三分之一。此外,相比Qwen1.5</description>
      <link>https://qwen.ai/blog?id=qwen-moe</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-moe</guid>
      <pubDate>Thu, 28 Mar 2024 03:31:44 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN014wNJhC1kHsMAfWFpM_!!6000000004659-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen1.5 介绍</title>
      <description>最近几个月,我们专注探索如何构建一个真正「卓越」的模型,并在此过程中不断提升开发者的使用体验。农历新年到来之际,我们推出通义千问开源模型 1.5 版本: **Qwen1.5**。我们开源了包括 0.5B、1.8B、4B、7B、14B、32B、72B 和 110B 共计 8 个不同规模的 Base 和 Chat 模型,, 以及一个 MoE 模型(点击[博客](https://qwenlm.githu</description>
      <link>https://qwen.ai/blog?id=qwen1.5</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen1.5</guid>
      <pubDate>Sun, 04 Feb 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01yFtQhb1eLBWVKbHXJ_!!6000000003854-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Open-Source</category>
    </item>
    <item>
      <title>Qwen-VL全新升级!</title>
      <description>我们在 Qwen 语言模型的基础上,结合此前我们提出的多模态多任务训练,以解决多模态模型在泛化能力上的局限性,并于 2023 年 9 月开源了多模态模型 Qwen-VL。最近,Qwen-VL 系列有了重大升级,推出了两个增强版本:Qwen-VL-Plus 和 Qwen-VL-Max。这两个版本的关键提升包括:相比于开源版本的 Qwen-VL,这两个模型在多个文本-图像多模态任务中与 Gemini </description>
      <link>https://qwen.ai/blog?id=qwen-vl</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen-vl</guid>
      <pubDate>Thu, 25 Jan 2024 05:33:00 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN01qEwYVn1RlfQ3jmcAr_!!6000000002152-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>Qwen介绍</title>
      <description>四个月前,我们首次发布Qwen-7B大型语言模型(LLM),正式开启了我们的开源之旅。今天,我们介绍Qwen开源家族,更全面的展示我们的工作和目标。下面是开源项目和社区的重要链接。Additionally, we have WeChat groups for chatting and we invite you to join the groups through the provided lin</description>
      <link>https://qwen.ai/blog?id=qwen</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=qwen</guid>
      <pubDate>Tue, 23 Jan 2024 14:13:29 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01hkVY7m1vfeh4TZKRq_!!6000000006200-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Release</category>
    </item>
    <item>
      <title>OFASys:一行代码带你搞定多任务学习!</title>
      <description>通用模型非常火!我们现在跟随多模态多任务学习的发展似乎看到了实现一个真正的通用模型的机会。我们此前推出的OFA便是朝着这个目标迈向的重要一步。但是,我们在实际实现过程中遇到了非常多的困难。比如说,把多任务训练的模型搭建起来,组织多任务的训练比如给数据打batch和保证训练稳定等等,都非常困难。因此,我们推出一个AI系统OFASys,它主要解决多模态多任务学习的实现问题。简单来说,它主要通过一个叫做</description>
      <link>https://qwen.ai/blog?id=ofasys</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofasys</guid>
      <pubDate>Wed, 28 Dec 2022 10:01:21 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i1/O1CN012Ygfqw1M8DDmt996q_!!6000000001389-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>Chinese CLIP: 中文图文对比学习预训练</title>
      <description>CLIP[^1]是多模态表示学习领域一个现象级的模型。它不仅扮演基础模型,并且建立了视觉和语言的桥梁。它还推动了很多其他领域技术的发展,尤其是文本生成图像。然而,我们还需要特定语言的CLIP,尤其在现实应用中,比如跨模态检索。在此之前还没有效果较好的开源中文CLIP。因此我们希望通过这个项目推动中文多模态的发展。在诸如跨模态检索的图文应用中,语言往往扮演重要的角色。假设直接使用CLIP和翻译文本,</description>
      <link>https://qwen.ai/blog?id=chinese-clip</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=chinese-clip</guid>
      <pubDate>Sat, 24 Dec 2022 06:54:19 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i3/O1CN01Ayrj141Z6v6o0otgL_!!6000000003146-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
    <item>
      <title>OFA:走向通用统一模型</title>
      <description>2022年可以说是属于通用模型的一年!随着多模态预训练的蓬勃发展,尤其是通用模型,我们看到实现一个具有处理多种模态的多种任务的能力的通用模型的机会。因此我们提出OFA[^1],即One-For-All。它是一个统一的多模态预训练模型,以统一的模型架构和任务形式兼容多模态和单模态的理解与生成任务。我们使用多模态多任务的方式预训练OFA,使其成为一个接近全能的模型。我们将OFA的模型和代码全部开源到社</description>
      <link>https://qwen.ai/blog?id=ofa</link>
      <guid isPermaLink="false">https://qwen.ai/blog?id=ofa</guid>
      <pubDate>Mon, 14 Nov 2022 08:01:41 GMT</pubDate>
      <author>QwenTeam</author>
      <enclosure url="https://img.alicdn.com/imgextra/i2/O1CN01gPY1pH1eB6oHfVgrk_!!6000000003832-2-tps-1890-1134.png" type="image/jpeg"></enclosure>
      <category>Research</category>
    </item>
  </channel>
</rss>

@kjasn kjasn marked this pull request as draft November 27, 2025 11:17
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Projects

None yet

Development

Successfully merging this pull request may close these issues.

The Qwen blog has moved

2 participants