小白程序员必看:轻松掌握LLM、Token、Embedding,开启AI前端开发之旅(收藏版)

张开发
2026/4/10 20:20:07 15 分钟阅读

分享文章

小白程序员必看:轻松掌握LLM、Token、Embedding,开启AI前端开发之旅(收藏版)
本文用通俗易懂的语言解释了AI开发中的核心概念大语言模型LLM、Token和Embedding强调了前端开发者无需深入理解底层原理只需掌握它们的基本用法和常见问题即可。文章还介绍了如何通过API调用来实现LLM功能并通过实际场景展示了这三个概念在前端开发中的应用。最后文章提供了一些避坑指南帮助新手开发者避免常见的认知错误。今天就用大白话把 LLM、Token、Embedding 讲清楚。保证你看完能直接上手调 API不扯任何复杂理论。LLM大语言模型到底是个啥先说 LLMLarge Language Model。名字听着高大上说白了就是一个训练过的文本生成器。你给它一段文字它按概率猜下一个字该是什么。猜得准不准取决于它见过的学习资料多不多。GPT-4、通义千问、文心一言都是 LLM。区别只在于训练数据和参数量不同。前端开发者需要理解到什么程度说实话你不需要知道 Transformer 架构、不需要懂反向传播。但你要明白一件事LLM 不是搜索引擎它不会查资料再回答你。它是基于概率生成的所以会出现一本正经胡说八道的情况术语叫幻觉。做 AI前端 开发时这点特别关键。如果你的应用对准确性要求高比如医疗、金融就不能直接把 LLM 的输出展示给用户。得加一层校验或者配合知识库使用——这就是后面要讲的 RAG。说到 LLM 的使用方式有两种在线 API 调用通义千问、OpenAI 这些平台提供接口你按文档调就行。这是最常用的方式前端调用AI接口基本都是走这条路。本地部署像 Ollama 这种工具可以在自己电脑上跑小模型。适合对数据隐私要求高的场景但性能有限。对大多数前端开发者来说先用 API 就够了。跑通了再说别的。LLM 的核心参数调 API 时你会看到几个关键参数。搞懂它们比看论文管用多了。temperature温度控制输出的随机性。设成 0回复稳定可预测设成 1回复更有创意但也更不可控。做代码生成建议设 0.3 以下。max_tokens最大输出长度限制 AI 回复的最大字数。设太小会被截断设太大会浪费钱。一般对话场景设 500-1000 就够了。top_p采样阈值跟 temperature 配合使用控制用哪些词来生成回复。普通场景用默认值就行不用调。TokenAI 计费的字数单位Token 这个词在 AI 领域有两个含义别搞混了。第一种认证用的 API Key就是你调 API 时放在请求头里的通行证。headers: { Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxx}这个 Token 相当于你的 API 密钥别泄露出去。泄露了别人就能用你的额度钱就白花了。AI生成前端代码时经常需要把 API Key 写在前端代码里——这是个安全隐患后面避坑篇会讲怎么处理。第二种AI 计费的字数单位这个才是重点。LLM 处理文本不是按字算的是按Token算的。一个 Token 大概是 0.75 个英文单词或者 1-2 个中文字。不同模型的 Tokenizer分词器不一样切出来的 Token 数量也有差异。为什么你要关心 Token 数量因为 AI 是按 Token 收费的。输入算钱输出也算钱。你塞给 AI 的内容越多花的钱越多。做个简单的 智能前端 聊天功能如果每次对话都把完整聊天记录传给 AIToken 量蹭蹭涨账单也蹭蹭涨。所以实际开发中得做上下文管理保留最近 N 条对话超出限制就截断重要信息做摘要压缩// 上下文管理示例const MAX_CONTEXT_TOKENS 4000; // 最大上下文 Token 数function trimContext(messages: ChatMessage[], maxTokens: number) { let totalTokens 0; const trimmed: ChatMessage[] []; // 从后往前遍历保留最近的对话 for (let i messages.length - 1; i 0; i--) { const msgTokens estimateTokens(messages[i].content); if (totalTokens msgTokens maxTokens) break; trimmed.unshift(messages[i]); totalTokens msgTokens; } return trimmed;}// 粗略估算 Token 数量中文约 1.5 字/Tokenfunction estimateTokens(text: string): number { const chineseChars (text.match(/[/u4e00-/u9fff]/g) || []).length; const otherChars text.length - chineseChars; return Math.ceil(chineseChars / 1.5 otherChars / 4);}这段代码是我在做一个 Vue结合AI开发 项目时用的。简单粗暴但管用。其实还有个更精确的办法用官方提供的 Tokenizer 库来算。但那个得装额外依赖对于前端项目来说有点重。粗略估算够用了。Embedding把文字变成向量的魔法Embedding 这个词听起来最抽象。我用个例子来解释保证你一听就懂。想象你在整理一个图书馆。书太多了怎么快速找到相似的一种办法是按关键词分类。但关键词有局限性——汽车和轿车意思差不多但关键词匹配可能搜不到一起。Embedding 的做法是把每本书的内容变成一个坐标点意思相近的书坐标就离得近。文字 → 向量坐标 → 计算距离 → 找到相似内容这就是 Embedding 的核心逻辑。前端开发中 Embedding 用在哪做 前端AI集成方案 时Embedding 最常见的应用场景是相似度搜索。比如你要做个知识库问答用户问“怎么重置密码”你从文档库里找最相关的段落把相关段落 用户问题一起传给 LLMLLM 基于这些资料生成回答第一步找相关段落就用 Embedding 来做。// Embedding 调用示例通义千问async function getEmbedding(text: string): Promise { const response await fetch(https://dashscope.aliyuncs.com/api/v1/services/embeddings/text-embedding/text-embedding, { method: POST, headers: { Authorization: Bearer YOUR_API_KEY, Content-Type: application/json }, body: JSON.stringify({ model: text-embedding-v1, input: { texts: [text] } }) }); const data await response.json(); return data.output.embeddings[0].embedding; // 返回一个向量数组} // 计算两个向量的相似度余弦相似度function cosineSimilarity(a: number[], b: number[]): number { const dotProduct a.reduce((sum, val, i) sum val * b[i], 0); const normA Math.sqrt(a.reduce((sum, val) sum val * val, 0)); const normB Math.sqrt(b.reduce((sum, val) sum val * val, 0)); return dotProduct / (normA * normB);} // 使用示例const doc1Vec await getEmbedding(如何重置密码);const doc2Vec await getEmbedding(密码忘记了怎么办);const similarity cosineSimilarity(doc1Vec, doc2Vec);console.log(相似度:, similarity); // 越接近1越相似这段代码跑下来你会发现如何重置密码和密码忘记了怎么办的相似度很高大概 0.8 以上虽然字面上几乎没有相同的词。这就是 Embedding 的魔力——它理解的是语义不是字面匹配。AIGC前端 应用里这个能力太有用了。搜索、推荐、问答都离不开它。Embedding 的实际限制Embedding 虽好但有两个坑。第一个维度太高前端存不下。一个文本的 Embedding 向量通常是 768 到 1536 维。你不可能把成千上万条文档的向量都存在浏览器里。所以实际项目中Embedding 的计算和存储一般放在后端。前端只负责调用搜索接口。这也是为什么 Phase 3 要学 Python 后端——光靠前端搞不定完整的 RAG 系统。第二个多语言支持有限。国内大模型的 Embedding 对中文支持不错但如果你要做多语言搜索效果可能打折。选模型的时候注意看文档确认它支持的语言范围。三者的关系LLM、Token、Embedding 怎么配合聊到这儿你可能有点晕。这三个东西到底啥关系我用一个实际场景串起来场景做一个智能客服机器人LLM 负责回答问题——它根据你给的信息生成自然语言回复。Token 负责计费和管理——你得控制输入输出的 Token 数量不然费用失控。Embedding 负责找资料——用户提问后先从知识库里找到最相关的文档片段。完整流程是这样的用户问“你们的退款政策是什么”用 Embedding 把问题转成向量在知识库向量库里搜索最相似的文档片段把问题 相关文档片段拼成 Prompt检查 Token 数量超出就截断调用 LLM API 生成回答把回答展示给用户这就是一个 AI赋能前端开发 的典型工作流。看起来复杂拆开来每个环节都很简单。避坑指南新手常犯的 3 个认知错误分享几个我踩过的坑。第一个坑把 LLM 当搜索引擎用一开始我让 AI 直接回答实时性问题比如今天天气怎么样结果它编了个答案出来。LLM 的知识是训练时定死的它不知道今天是哪天更不知道天气。正确做法实时信息走 API 查询LLM 只负责理解和生成。第二个坑不计较 Token 消耗做测试的时候觉得多传点上下文没关系上线后一看账单傻眼了。养成习惯每次调 API 前先估算一下 Token 量。设好上限超出就截断。第三个坑Embedding 向量直接比较大小刚开始我直接拿两个向量的差值来判断相似度结果完全不对。向量比较要用余弦相似度cosine similarity不是简单相减。上面的代码里有实现直接拿去用就行。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取

更多文章