<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Embedding on AI 拾遗笔记</title><link>https://bloge.oya.moe/tags/embedding/</link><description>Recent content in Embedding on AI 拾遗笔记</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Thu, 12 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://bloge.oya.moe/tags/embedding/index.xml" rel="self" type="application/rss+xml"/><item><title>2026 年中文 Embedding 模型选型指南</title><link>https://bloge.oya.moe/posts/embedding-models-2026/</link><pubDate>Thu, 12 Mar 2026 00:00:00 +0000</pubDate><guid>https://bloge.oya.moe/posts/embedding-models-2026/</guid><description>&lt;h2 id="为什么-embedding-选型很重要"&gt;为什么 Embedding 选型很重要&lt;/h2&gt;
&lt;p&gt;RAG 系统的天花板在很大程度上由 Embedding 模型决定。Embedding 不准，后面的 Rerank 和生成再厉害也救不回来。&lt;/p&gt;
&lt;p&gt;中文场景比英文复杂：词的边界模糊、同义词多、行业术语差异大，对模型的理解力要求更高。&lt;/p&gt;
&lt;p&gt;下面整理目前（2026 年初）值得选用的中文 Embedding 模型，按使用场景分类。&lt;/p&gt;
&lt;h2 id="通用首选bge-系列"&gt;通用首选：BGE 系列&lt;/h2&gt;
&lt;p&gt;智源（BAAI）出品，目前中文 Embedding 的事实标准。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;主力型号&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;bge-large-zh-v1.5&lt;/code&gt;：1024 维，1.3GB，通用场景最佳&lt;/li&gt;
&lt;li&gt;&lt;code&gt;bge-base-zh-v1.5&lt;/code&gt;：768 维，400MB，性能/速度平衡&lt;/li&gt;
&lt;li&gt;&lt;code&gt;bge-small-zh-v1.5&lt;/code&gt;：512 维，100MB，资源受限场景&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;特点&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;C-MTEB 中文榜单长期前列&lt;/li&gt;
&lt;li&gt;训练数据覆盖广，开箱即用&lt;/li&gt;
&lt;li&gt;HuggingFace、ModelScope 都有，部署友好&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;典型用法&lt;/strong&gt;：&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#f92672"&gt;from&lt;/span&gt; sentence_transformers &lt;span style="color:#f92672"&gt;import&lt;/span&gt; SentenceTransformer
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;model &lt;span style="color:#f92672"&gt;=&lt;/span&gt; SentenceTransformer(&lt;span style="color:#e6db74"&gt;&amp;#39;BAAI/bge-large-zh-v1.5&amp;#39;&lt;/span&gt;)
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;embeddings &lt;span style="color:#f92672"&gt;=&lt;/span&gt; model&lt;span style="color:#f92672"&gt;.&lt;/span&gt;encode(texts, normalize_embeddings&lt;span style="color:#f92672"&gt;=&lt;/span&gt;&lt;span style="color:#66d9ef"&gt;True&lt;/span&gt;)
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;注意：BGE 在做相似度查询时，建议给 query 加前缀 &lt;code&gt;&amp;quot;为这个句子生成表示以用于检索相关文章：&amp;quot;&lt;/code&gt;，能提升 1-2 个点。&lt;/p&gt;
&lt;h2 id="多语言场景bge-m3"&gt;多语言场景：BGE-M3&lt;/h2&gt;
&lt;p&gt;如果业务有跨语言需求（中英混合查询、跨语言检索），BGE-M3 是最强选择。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;核心特点&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;同时支持稠密向量、稀疏向量、ColBERT-style 多向量&lt;/li&gt;
&lt;li&gt;100+ 语言原生支持&lt;/li&gt;
&lt;li&gt;单模型出三种检索信号，下游融合方便&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;适合场景&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;跨境电商、出海业务&lt;/li&gt;
&lt;li&gt;中英文混合的技术文档检索&lt;/li&gt;
&lt;li&gt;需要多路召回的高级 RAG 系统&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="高性能选择gte-系列"&gt;高性能选择：GTE 系列&lt;/h2&gt;
&lt;p&gt;阿里通义出品，性能在某些 benchmark 上反超 BGE。&lt;/p&gt;</description></item></channel></rss>