Harness、LLM、Token、Agent、MCP…AI圈最烧脑的8个概念,一文彻底讲透

张开发
2026/4/11 17:11:07 15 分钟阅读

分享文章

Harness、LLM、Token、Agent、MCP…AI圈最烧脑的8个概念,一文彻底讲透
前言你有没有这种感觉——AI圈每天都在冒新名词刷着刷着就觉得自己落后了。LLM、Token、Context、Prompt、Tool、MCP、Agent、Agent Skill、Harness……随便拎一个出来很多人其实说不太清它到底指的是什么。更扎心的是你以为你懂了但一深入追问发现全是模糊的。这篇文章我从最底层的工程视角出发把AI的核心概念一个个拆开讲透。没有虚头巴脑的商业概念只有最底层的技术真相。看完这篇你对AI的理解会上升一个台阶。本文适合对AI感兴趣但概念模糊的普通人。不需要编程基础我会用最通俗的方式讲清楚每一个概念。一、最底层LLM大语言模型LLMLarge Language Model就是大语言模型——当前所有AI技术的核心引擎。市面上几乎所有大模型都基于一个叫Transformer的架构训练而成。这个架构是Google团队2017年提出的论文叫《Attention Is All You Need》。但真正把LLM引爆全球的是OpenAI。几个关键时间点时间事件意义2017年Google提出Transformer架构奠定了技术基础2022年底GPT-3.5横空出世第一个真正可用的AI对话模型2023年3月GPT-4发布把AI能力天花板拉到新高度现在Claude、Gemini、GLM等同台竞技多强并立不再是OpenAI独大大模型的本质一个文字接龙游戏说穿了极其朴素大模型就是一个预测下一个词的机器。你问它马克的视频怎么样它的工作过程是这样的预测下一个概率最高的词特别把特别追加到输入后面再预测下一个词得继续追加再预测棒最终输出完整回答特别得棒这就是为什么你用ChatGPT的时候它是一个字一个字地往外蹦——因为这就是它最底层的运作方式。它不是理解了你的问题再思考答案而是根据上下文一个字一个字地猜接下来最可能出现的字。猜得足够准看起来就像在思考了。二、大模型的翻译官Token与Tokenizer大模型本质上是数学函数它只认数字不认文字。那问题来了你输入的是中文、英文、代码模型怎么看懂答案就是Tokenizer——人类和模型之间的翻译官。Tokenizer干两件事编码把你输入的文字翻译成数字喂给模型解码把模型输出的数字翻译回文字给你看Token ≠ 词语这是很多人搞混的地方。Token不等于词它是比词更小的片段。看几个真实例子输入Token切分Token数量程序员程序 员2个helpfulhelp ful2个一个特殊符号可能需要3个token3个经验值1个Token ≈ 0.75个英文单词1个Token ≈ 1.5~2个汉字40万Token ≈ 60~80万汉字相当于一本厚书你可能会问为什么要知道Token因为Token 钱。每次和AI对话消耗的就是Token。Token越多花得越多。了解Token才能用明白AI的成本。三、临时记忆体Context与Context WindowContext上下文大模型每次处理任务时接收到的所有信息的总和。包括什么比你想象的多你当前问的问题之前的对话记录模型正在生成的Token可用的工具列表System Prompt开发者给你设的人设和规则……等等一切Context Window 这个记忆体能装下的最大Token数量。模型Context Window约等于多少汉字GPT-4.5105万Token~150万汉字Claude 3.1 Pro100万Token~150万汉字GLM系列视版本而定-150万汉字是什么概念能装下整个《哈利波特》全集。那超长文档怎么办比如你要AI分析一份上千页的产品手册不可能全塞进去。这时候就需要RAG技术检索增强生成RAG的核心思路不把整本书给模型看只把和问题最相关的几页摘出来给它。从文档中搜索和你的问题最匹配的片段只把这些片段发给模型模型基于这些片段回答你的问题既突破了Context Window的限制又控制了成本。这里不对RAG概念做深入阐述因为这又是一门专门的学科RAG工程四、指令的艺术Prompt、Prompt工程与HarnessPrompt 你给大模型的具体指令或问题。它分两种类型谁写的例子User Prompt用户你自己帮我写一首诗System Prompt开发者预置的你看不到你是一个耐心的数学老师Prompt写得好不好差别有多大举个最直观的对比模糊Prompt 帮我写一首诗 → 可能生成现代诗、打油诗、文言诗……你得不到想要的结果精准Prompt 请帮我写一首五言绝句主题是秋天的落叶风格要明亮一点 → 精准命中你的需求5W1H原则:要素英文说明示例What什么要做什么任务写一首诗Who谁目标受众是谁给小学生看When何时时间背景秋天Where何地地点场景公园里Why为何目的是什么用于作文How如何具体要求五言绝句,System Prompt才是真正的幕后大佬开发者可以预设一套规则比如你是一个耐心的数学老师不要直接给答案要引导学生自己思考。这时候你问35几模型不会直接说8而是回答可以这样想你手里有3个苹果又拿了5个现在一共有多少个可以数一数。它不是在装是System Prompt在背后操控它的行为模式。行业真相Prompt Engineering这个概念曾经很火但现在提的人越来越少了。两个原因①门槛太低本质就是把话说清楚②模型越来越强你说得模糊它也能猜出你的意思。但这不意味着Prompt不重要——好的Prompt依然能大幅提升输出质量。Prompt的进化版Harness说到Prompt就不得不提一个最新的概念——Harness指令束。你可能注意到了Prompt工程的热度在下降。不是因为Prompt不重要了而是因为AI的能力已经进化到了需要一种全新的指令方式。Harness是什么如果说Prompt是给AI写一封邮件那Harness就是给AI配了一整套工作手册。Prompt关注的是这一次怎么回答Harness关注的是AI应该怎么工作——包括身份定义、行为边界、工具使用规则、输出格式、质量标准……所有东西打包在一起形成一个完整的约束框架。为什么Harness是Prompt的进化维度PromptHarness关注点单次对话的输出质量AI的长期工作模式内容一段话/几条规则完整的指令体系身份规则工具格式适用场景简单问答、内容生成复杂任务、Agent系统、工作流类比给下属口头交代一件事给下属一本SOP手册现实中的例子你现在用的各种AI Agent比如Claude Code、Cursor、OpenClaw它们背后都不是靠一个Prompt在驱动而是靠一套完整的Harness系统。Claude Code的Harness定义了它是一个编程助手、怎么读代码、怎么执行命令、什么时候该问你、输出格式是什么。这些规则不是你每次手动输入的是开发者在后台配好的AI每次启动自动加载。你可以把Harness理解成Prompt的Pro Max版。Prompt是单兵作战的指令Harness是整个团队的作战体系。随着AI从聊天工具进化成工作伙伴从Prompt到Harness的进化是必然的趋势。五、感知世界的钥匙Tool与MCP大模型的致命弱点你有没有问过ChatGPT今天上海天气怎么样然后它回答抱歉我无法获取实时天气信息。这就是大模型最大的局限——它像个被关在房间里的天才什么都会但对外面的世界一无所知。它不知道今天几号、不知道天气、不能帮你发邮件、不能帮你查股票。解决方案Tool工具Tool本质上就是一个函数输入参数 → 执行操作 → 返回结果。这也是所有AI处理任务或者消息的底层逻辑。比如天气查询工具输入城市日期→ 调用气象接口 → 返回天气数据。但Tool不是模型自己调用的中间有个平台在传话。完整的工作流程是这样的角色分工很清晰大模型负责选择工具 汇总结果大脑工具负责执行具体操作手脚平台负责串联整个流程传话筒痛点每个平台的工具规范都不同这就是最烦的地方平台工具规范ChatGPT按OpenAI规范接入Claude按Anthropic规范接入Gemini按Google规范接入同一个工具要写三遍代码。终极解决方案MCPMCPModel Context Protocol全称模型上下文协议。一句话说清楚MCP就是AI工具的Type-C接口。以前每个手机都有自己的充电接口现在统一用Type-C。MCP干的也是这事统一工具接入标准写一次代码所有平台通用。六、自主智能体Agent与Agent SkillAgent 能自主干活的系统前面说的Tool是被动调用的——你问一个问题它调一个工具。但现实生活中很多任务是复杂的需要多步操作。比如你说今天我这里天气怎么样帮我查附近有没有卖雨伞的店。这就需要一个Agent智能体来协调先调用定位工具获取你的经纬度调用天气工具查当前天气如果下雨调用地图工具搜索附近的雨伞店把所有信息汇总给你一个完整的回答Agent和普通AI对话的核心区别Agent能自主规划、调用多个工具、持续工作直到把任务完成。说个类比你就懂了普通AI对话像去餐厅点菜——你说一个菜厨房做一个。Agent像请了个私人助理——你说了个需求他自己规划步骤、打电话、跑腿直到把事办完。Skills给Agent的说明书但Agent有个问题每次你都要重复说一遍你的偏好。比如你有个出门助手你希望它下雨提醒带伞、光照强提醒戴帽子、空气差提醒戴口罩……每次都得说一遍太累了。Agent Skills就是解决方案——提前写好一份说明书Agent每次干活前自动读取。本质上就是一个Markdown格式的文档包含层级内容作用元数据层名称(name) 描述(description)让Agent知道这个Skill是干什么的指令层目标、执行步骤、判断规则、输出格式、示例告诉Agent具体怎么干活创建一个Agent Skill的实操步骤在.cloudskills目录下新建一个文件夹文件夹名称就是Skill名称在文件夹里创建SKILL.md文件注意必须大写在里面写完整的指令内容Agent在匹配到相关任务时自动加载执行效果你说一句我要出门了Agent自动调定位、查天气、按预设规则判断要带什么、按你指定的格式输出结果。全自动不用你多说一个字。七、完整知识体系一张图串起来前面讲了9个概念它们之间的关系用一张表总结概念一句话定义生活类比 LLMAI的核心引擎大脑——负责思考和生成 Token数据处理的最小单元乐高积木的最小颗粒 Context大模型的临时记忆RAM内存——关机就清空 Prompt给大模型的指令领导交给你的任务书 HarnessPrompt的进化版AI的完整工作手册SOP手册体系——不是交代一件事而是定义整套工作模式 Tool感知外部世界的函数手机上的APP——大脑没有的功能靠它补 MCP统一的工具接入标准Type-C接口——统一标准一次开发全平台通用 Agent自主规划调用工具的系统私人助理——你说需求他自己规划步骤去执行 Agent SkillAgent的说明书SOP操作手册——不用每次都教写好它自己看八、理解底层才能驾驭未来写到这里我想说一个更深层的东西。你可能觉得这些概念很技术跟你没什么关系。但实际上当你理解了这些底层逻辑AI圈冒出的每一个新产品对你来说都不再神秘。Claude Code、Codex、Gemini CLI、各种Agent框架……它们本质上都是在这个架构上玩花样。无论技术怎么迭代核心原理不会变。LLM还是那个引擎Token还是那个最小单元Agent还是那套规划工具调用的逻辑。变了的是包装和产品形态没变的是底层骨架。一句话总结这篇文章AI的本质是一个预测下一个词的引擎LLM通过最小单元Token处理信息在有限的记忆空间Context里根据你的指令Prompt/Harness借助外部能力Tool/MCP自主完成任务Agent/Skill。理解了这个闭环你就理解了AI。说到这儿我希望想学AI的同学能懂的是另一个道理。AI这东西你不去拆解它它就永远是一团黑雾。你拆开了其实每个概念都朴素得要命。就像我之前说的磨平一些信息差这事儿本身就挺有意思的。以上既然看到这里了如果觉得不错随手点个赞、在看、转发三连吧如果想第一时间收到推送也可以给我个星标⭐谢谢你看我的文章我们下次再见。你之前对哪些AI概念存在误解看完这篇后有没有哪个概念让你恍然大悟评论区聊聊你的认知升级时刻——我赌至少有一个概念和你之前想的不一样。本文作者大象AI共学——推动让普通人轻松上手AI公众号《大象AI共学》 个人号注明来意

更多文章