专业的手机价格网站建设去设计公司还是去企业

张小明 2026/1/9 9:51:19
专业的手机价格网站建设,去设计公司还是去企业,潜江资讯网全部,四川省建设网一、引言 命令行终端是开发者的核心工作区#xff0c;也是许多开发者完成工作的首选工具。当前#xff0c;大语言模型正在重塑命令行终端的能力#xff0c;使终端不仅能完成命令执行#xff0c;还能让开发者与智能体共同完成命令的协作、创造。 近期#xff0c;Google 开…一、引言命令行终端是开发者的核心工作区也是许多开发者完成工作的首选工具。当前大语言模型正在重塑命令行终端的能力使终端不仅能完成命令执行还能让开发者与智能体共同完成命令的协作、创造。近期Google 开源了其官方实现的命令行 AI 工作流工具——gemini-cli旨在将 AI 能力深度融入开发者的日常。它能分析庞大的代码库、自动化处理复杂的 Shell 指令和 Git 操作还支持多模态交互。同时它也是一个高度可扩展的平台积极拥抱了模型上下文协议MCP、A2A等拓展协议。本文的目标将不止于工具使用我们将深入 gemini-cli 的源码重点分析其整体架构并解析其命令分发、工具调用和上下文管理等关键模块的实现原理分析其AI Agent 的整体构建思路。我们希望这次源码层面的分析能为那些对 AI Agent 内部机制感到好奇或是希望构建类似终端agent的开发者提供一份务实且有价值的技术参考。二、核心能力演示在深入源码之前让我们通过几个真实的场景直观地感受 gemini-cli 如何将自然语言转化为实实在在的生产力。2.1 场景一自动化系统任务 —— 批量处理文件这是最能体现命令行工具本质的场景。gemini-cli 可以将你用自然语言描述的复杂文件操作直接翻译成可执行的命令。上下文你的一个目录下堆满了jpg图片文件。用户输入gemini 将这个目录里的所有图片转换为 png 格式并根据照片的 EXIF 数据里的拍摄日期来重命名它们。**gemini-cli的决策与执行路径**展示了 gemini-cli是一个能够规划、编码、诊断、并从失败中学习和迭代的 AI Agent。1.规划与编码将任务拆解为四步计划读取图片转换格式重命名新文件删除原始文件。它没有直接生成复杂的 Shell 指令判断出运用Python 脚本来解决问题。调用WriteFile在本地创建了一个 convert_images.py 脚本。2.环境准备与自我纠错在执行前它预判到需要 Pillow 库并尝试用 pip 安装。命令失败后它能理解错误并自动切换到 pip3重试展现了环境适应能力3.诊断与迭代首次运行脚本时因图片缺少 EXIF 数据而失败。gemini-cli 捕获并理解了这个错误。它没有止步于此而是启动了代码修复流程它用ReadFile读取了自己刚写的代码然后WriteFile进行了代码重构增加了一个“使用文件修改时间作为备用方案”的逻辑。4.最终执行与验证最后它运行了更新后的脚本成功完成了图片格式转换与重命名。并通过ReadFolder命令验证了最终结果形成了一个的闭环。2.2 场景二快速理解新项目 —— 深入分析代码库面对一个陌生的代码库它可以迅速帮助我们理清脉络。上下文克隆了 gemini-cli 源代码至本地文件夹中用户输入gemini 本文件中有gemini-cli的源码帮我梳理gemini-cli的整体架构。关键的目录和它们的作用分别是什么**gemini-cli的决策与执行路径**这个交互展示了 gemini-cli 作为信息分析助手的智能工作流。1.环境了解与信息收集由于是全新会话它首先意识到自己缺乏对当前环境的了解。它的第一步是调用 ReadFolder 工具扫描当前目录获取一份完整的文件和文件夹“地图”。2.模式识别与策略制定在获取文件列表后它利用内置的软件工程知识进行模式识别。当看到 docs/architecture.md 这个路径时它迅速将用户的关键词“架构”与之关联并制定出一条最高效的策略优先读取官方文档而非盲目分析代码。3.执行与信息提取策略确定后它立刻调用 ReadFile 工具读取 docs/architecture.md 的内容。4.整合与结构化呈现它没有直接返回文档原文而是完成了信息整合。它将从文档中提取的信息与第一步查看的实际目录结构进行交叉验证和补充最终生成了一份逻辑清晰、结构化的项目架构分析。2.3 场景三跨越模态的创造力 —— 从设计图到代码这个场景将突破传统命令行的文本限制理解视觉信息并将其转化为可执行的工作流。上下文你的项目文件夹里有一张产品经理给的登录页面截图 login-mockup.png。用户输入gemini 这是我们的登录页面设计图 (login-mockup.png)帮我生成对应的 HTML 和 CSS 代码并用浏览器打开预览编码结果。gemini-cli的决策与执行路径这是从视觉到代码再到预览的自动化工作流。1.任务拆解与规划它首先将用户的复合指令拆解为三步计划分析图片、生成文件、打开浏览器预览展现了清晰的逻辑规划能力。2.视觉理解与代码翻译它通过ReadFile 加载图片其多模态模型解析出设计图中的布局、组件和样式然后基于这些视觉信息编写结构化的 HTML 和 CSS 代码。3.遵循最佳实践的文件操作它将结构和样式分离通过两次WriteFile调用分别创建了 index.html 和 style.css 两个文件遵循了前端开发的基本规范。4.无缝的工具链调用最后它调用 Shell 工具执行 open 命令自动在浏览器中打开了生成的页面完成了从一个创意原型到可交互预览的完整闭环。通过这三个场景我们看到 gemini-cli 扮演了三个关键角色能够自我纠错的 AI Agent、高效的代码分析师以及理解视觉的创意开发者。它的能力已远超传统命令行终端的范畴不只是简单的命令执行者而是能将用户的复杂意图无缝转化为实际工作流的智能伙伴。那么这一切强大能力的背后究竟是怎样的架构设计在支撑呢三、架构设计与核心源码解析3.1 核心架构与工作流程如图所示gemini-cli的架构分为用户交互层、逻辑层、大模型服务与工具层。整体上围绕一个动态的推理与行动ReAct工作流构建。其实现逻辑分布在两个核心包中packages/core 负责提供与大模型通信、执行工具等原子能力而 packages/cli 作为上层协调者负责驱动整个任务流程。具体来说整个ReAct循环由cli包驱动。当接收到用户指令后它首先调用 core 包进行“推理”core 则将模型制定的行动计划返回给 cli。收到计划后cli 再指令 core 执行工具并通过回调函数回收执行结果。cli 随即发起携带新上下文的下一轮“推理”如此循环往复直至任务完成。这种由 cli 驱动、core 执行的协作模式既保证了核心 AI 逻辑的可复用性也赋予了界面层精细控制任务每一步状态的能力。3.2 推理与行动循环如图Gemini CLI 的核心是一个由 packages/cli 驱动、packages/core执行的“推理-行动”ReAct循环。这个循环并非简单的函数递归而是通过一系列精心设计的 Hooks和回调函数闭合的异步流程。让我们从源码的视角一步步拆解这个循环的实现机制。3.2.1“用户输入”到“模型推理”在交互模式下每一次用户提交输入都会触发 packages/cli/src/ui/hooks/useGeminiStream.ts 中的 submitQuery 函数。这是整个 ReAct 循环的入口。1.预处理与分发submitQuery 首先会调用 prepareQueryForGemini 函数。这是一个关键的预处理器它负责解析用户输入处理 文件引用和 /命令等前端指令。如果指令可以在本地处理如 /clear流程就此终止否则它会将处理后的查询内容打包准备发往模型。2.发起推理拿到处理好的查询后submitQuery 会调用 geminiClient.sendMessageStream()与 Gemini大模型建立一个流式连接。这标志着“推理”阶段的开始。3.2.2“行动计划”到“工具执行”模型在“推理”后可能会返回一个包含行动计划的响应即工具调用请求ToolCallRequest。1.接收与调度useGeminiStream 中的 processGeminiStreamEvents 函数负责监听事件流。当它收到 ToolCallRequest事件时会将这些请求收集起来并调用 scheduleToolCalls 函数。2.UI层的调度桥梁scheduleToolCalls 来自 packages/cli/src/ui/hooks/useReactToolScheduler.ts。这个 Hook不直接执行工具它实例化了来自 core 包的 CoreToolScheduler 类并将工具请求转发给它。3.Core层的执行核心真正的工具调度和执行逻辑位于 packages/core/src/core/coreToolScheduler.ts 的 CoreToolScheduler 类中。它的 schedule方法执行的关键步骤排队确保同一时间只处理一批工具调用。验证检查工具是否存在、参数是否合法。确认对于敏感操作如写文件会挂起并等待用户在 UI 层面确认。执行调用工具自身的 execute() 方法真正执行文件读写、命令运行等操作。到此cli 包成功地将“行动”指令委托给了 core 包去执行并可以执行本地工具3.2.3“观察”结果到再次“推理”工具执行完毕后结果需要被送回模型以完成“观察”并开启下一轮“推理”。这个递归流程是通过回调链实现的。1.执行完成CoreToolScheduler 在所有工具执行完毕后会调用一个名为 onAllToolCallsComplete 的回调函数并将所有工具的执行结果作为参数。2.逐层返回这个回调函数会穿透 useReactToolScheduler最终在 useGeminiStream hook 中被一个名为 handleCompletedTools 的函数接收。3.闭合循环handleCompletedTools 函数是整个循环的闭合点。它将所有工具的返回结果打包成模型需要的格式然后——也是最关键的一步——再次调用submitQuery函数并将工具结果作为新的查询内容也是新一轮“观察”阶段的结束和新一轮“推理”的开始模型会根据工具的执行结果决定是给出最终答案还是规划下一步新的“行动” 。这个由回调驱动的循环会持续进行直至最终任务完成。3.3 工具调用与扩展上一节我们看到ReAct 循环的其中一个关键点在于模型能够决定何时调用工具。本节将深入探讨工具调用以及 gemini-cli 是如何实现并安全执行它们的。整体逻辑可参考下图3.3.1 工具的声明与实现以 read_file 工具为例位于packages/core/src/tools/read-file.ts。声明: 工具首先需要向大模型进行自我介绍。这是通过一个符合 JSON Schema 规范的配置对象完成的。它详细定义了工具的名称如read_file、功能描述用于读取文件内容以及最重要的——参数如 absolute_path、offset等。这份介绍是模型理解并决定如何使用该工具的依据。实现: 当模型决定调用该工具后其实际的执行逻辑则被封装在一个 Invocation 类中。该类的 execute()方法包含了真正的功能代码例如调用文件系统 API 来读取文件。3.3.2 统一的“工具注册表”所有内置或外部的工具会被工具注册表ToolRegistry位于 packages/core/src/tools/tool-registry.ts来管理。在应用启动时Config模块会负责创建所有内置工具的实例并逐一注册到表中。当需要与大模型交互时系统会从注册表中提取所有工具的“声明”信息统一提交给模型让模型知道它当前拥有哪些可用的能力。同样当模型请求执行某个工具时调度器也会通过注册表来查找并执行它。3.3.3 安全执行的确认机制对于 run_shell_command 实现位于packages/core/src/tools/shell.ts这类可能造成风险的执行工具gemini-cli 建立了一套安全确认机制其决策逻辑位于 core 包而 UI 交互则由 cli 包呈现。1.决策点 当一个高危工具被请求执行时CoreToolScheduler 会首先调用该工具的 shouldConfirmExecute() 方法以确定工具能否被执行。2.检查: 以shell工具为例shouldConfirmExecute() 会进行检查该命令是否在用户本次会话中已经授权过3.请求确认:如果授权检查未通过 CoreToolScheduler 会暂停执行并发送信号至cli层。cli包接收到这个信号后会渲染一个对话框展示待执行的命令并让用户做出是否确认执行的决定。这套机制确保敏感操作都在用户的明确授权下进行同时通过会话内白名单等方式避免了不必要的重复确认。3.3.4 MCP拓展连接外部工具gemini-cli通过支持“模型上下文协议”MCP可以与任何外部工具服务器进行交互从而获得扩展能力。gemini-cli启动时gemini-cli 会连接在配置中指定的 MCP服务器并请求对方提供其支持的工具列表。MCP服务器返回工具的声明信息后gemini-cli 会将它们作为MCP工具注册到自己的ToolRegistry 中。代码位于packages/core/src/tools/ 目录下的 mcp-client-manager.ts当模型决定调用一个MCP外部工具时其执行流程与内置工具不同是 execute()方法它通过初始化阶段建立的连接将参数转发给MCP服务器。它会等待服务器返回执行结果再将其递交给模型。代码位于packages/core/src/tools/ 目录下的 mcp-client.ts 、 mcp-tool.ts 通过这种方式gemini-cli 将MCP工具整合进了自身的 ReAct循环中。3.4 上下文管理机制在前两节中我们分析了 gemini-cli 的推理循环与工具执行能力。要让这些能力发挥最大价值其管理和利用上下文的能力必不可少。gemini-cli 通过多层次上下文管理机制实现了短期会话记忆、长期知识注入确保了交互的连贯性。3.4.1 会话历史基础的会话历史保证了模型能记住你和它之间的对话。1.UI 层: useGeminiStream hook **(位于packages/cli/src/ui/hooks/useGeminiStream.ts)**负责管理一个用于界面渲染的历史记录数组。当用户或模型产生新消息时它会更新这个数组让用户能在屏幕上看到对话流。2.core层: 模型记忆维护在调用Gemini的客户端代码 GeminiClient(位于packages/core/src/core/client.ts)及其内部的 GeminiChat 对象(位于packages/core/src/core/geminiChat.ts)中。GeminiChat 内部维护着一个需要发送给 API 的、完整的对话历史。当它处理一个新的用户请求时其sendMessageStream 方法会执行对历史会话的“读-写”操作1.写入用户输入: 在向模型发送请求前它首先将用户的最新输入追加到其内部历史记录的末尾。2.发送完整历史: 它将这个包含了最新输入的完整历史发送给模型。3.写入模型回复: 在接收到模型的完整回复后它再将模型的回复追加到历史记录中。通过这种方式利用GeminiChat 这个有状态的对象每一轮对话都建立在完整的历史上下文之上实现了连贯的交互。3.4.2 系统提示词在大模型推理中我们需要模型在整个会话中都记住一些核心背景信息gemini cli除了内置的系统提示词system prompt还支持可选的用户自定义的上下文信息。用户自定义的上下文可通过 context.fileName 属性配置文件.gemini/config.yaml来配置可将用户提供的文件内容与gemini-cli内置的系统提示词system prompt合并形成一个在整个会话中保持不变的预设指令。在 gemini-cli 启动时loadCliConfig 函数(位于packages/cli/src/config/config.ts)会读取context.fileName指定的文件内容并将其作为 userMemory 属性存入 Config 对象中。在创建聊天会话时GeminiClient 会调用 getCoreSystemPrompt 函数 **(位于packages/core/src/core/prompts.ts)**来构建完整的系统提示词system prompt。这个函数执行了如下逻辑1.加载基础系统提示词system prompt:它首先会加载一个内置的字符串 basePrompt。这个 basePrompt 就是 gemini-cli 的原生系统提示它详细定义了AI 助手的核心职责、工作流程、行为准则等。2.追加用户上下文:它会检查 userMemory即您文件中的内容是否存在。如果存在它会将其用分隔符—追加到 basePrompt 的末尾。这个合并了原生指令和用户自定义知识的、完整的系统提示词system prompt会在API 请求上下文中被发送。模型会基于这个上下文来进行推理和行动。3.4.3 即时引入上下文为了让用户能灵活地、即时地引入文件作为上下文gemini-cli 提供了 引用功能。这套机制是一个在请求发送前的预处理器中完成。1.输入检测、解析:用户输入会被useGeminiStream hook (位于packages/cli/src/ui/hooks/useGeminiStream.ts)检测输入中的 符号并将其交给 handleAtCommand 处理器位于packages/cli/src/ui/hooks/atCommandProcessor.ts。2.复用存量工具:handleAtCommand 会解析出所有文件路径然后调用上文提到的内置的文件读取工具来读取这些文件的内容。3.组装上下文:它将读取到的文件内容连同用户的原始提问一起组装成一个完整 prompt。4.模型推理:最后这个包含了“即时上下文”的查询被发送给模型。这使得模型可以在当前这一轮对话中精准地针对特定文件内容进行回答。3.4.4 会话持久化默认情况下对话历史是存在于内存中的关闭即消失。为了能跨越多次启动来保留对话gemini-cli 提供了快照功能。该功能通过 /chat save和 /chatresume命令来触发。具体实现是通过Logger类位于 packages/core/src/core/logger.ts提供了 saveCheckpoint 和 loadCheckpoint 方法。通过读写本地文件实现上下文存储和读取。通过这四种机制的协同工作使得gemini-cli能处理流畅的即时对话加载长期的背景知识、引用临时的文件内容并能按需持久化和恢复整个对话为用户提供了强大而灵活的上下文管理能力。四、架构思想与新范式上一节我们深入源码的细节揭示了 gemini-cli 的工作原理同时也能逐步窥见代码背后一系列深思熟虑的架构决策。本章节将尝试对具体的技术实现进行梳理和提炼分享对gemini-cli架构思想和技术选型的一些思考。我们将主要探讨以下几个方面gemini-cli 是如何通过分层设计构建其可移植的 Agent 内核的大模型在其运行时扮演了怎样的动态调度角色系统是如何通过指令确认机制来构建人机协作模式的它又是如何通过开放协议来构想其未来的工具生态的通过对这些问题的探讨希望能够揭示其设计背后的决策考量为构建同类 AI Agent 的开发者提供一份有价值的架构参考。4.1 可复用的Agent 内核架构gemini-cli 在架构上对项目模块进行了明确的职责划分将核心AI逻辑与前端交互界面彻底分离其目的是构建一个与特定运行时环境解耦、可独立复用的Agent内核。这一模式体现在 packages 目录下两个关键模块的划分上packages/core (内核层): 此模块封装了所有与 AI Agent 相关的原子能力和核心逻辑。它包含了与 Gemini API 的通信客户端 (GeminiChat)、工具的定义与注册机制 (ToolRegistry)、工具调度的执行器 (CoreToolScheduler)以及会话日志与快照功能 (Logger)。内核层不包含任何与用户界面 (UI) 相关的代码其 API 设计与具体应用无关的。packages/cli (应用交互层): 此模块是 core 内核的一个具体应用负责将其能力适配到命令行终端这个特定的运行环境中。它的职责包括解析命令行参数、使用 Ink 库渲染终端 UI、管理用户交互状态 (Node.js基于Hooks和回调的事件驱动非阻塞 I/O 模型)以及调用 core 模块提供的 API 来驱动整个 ReAct 工作流。在我们前文的源码分析中两个模块的职责边界很清晰ReAct 循环的实现主逻辑 useGeminiStream Hook 存在于 cli 交互层而调用的 sendMessageStream 等核心通信逻辑是由 core 内核层提供。安全确认机制需要用户确认的决策由 core 内核层的 CoreToolScheduler 做出但应用渲染确认框的 UI 逻辑则由 cli交互层实现。上下文处理cli 交互层负责解析 符号这类特定于终端的便捷语法并将解析出的文件内容传递给 core 来构建最终的请求上下文。可复用的Agent 内核带来了较强的可移植性作为一个独立的模块可以被应用在任何项目中如构建 web 服务、桌面应用等它是可供开发者在不同场景下构建AI Agent的核心 SDK。4.2 LLM作为动态调度器的开发范式在传统应用中程序控制流由开发者通过 if/else 等逻辑硬编码。而这里gemini-cli展示了大模型时代的编程范式它将大语言模型作为应用的计划器、调度器。开发者负责通过 ToolRegistry 声明式地注册一系列原子化的工具但不编写具体的业务流程代码而如何组合这些工具的决策权交给了 LLM。当用户输入复杂指令时LLM 在运行时动态生成一个执行计划由具体代码coreToolScheduler.ts完成执行。这种模式带来了两大优势能力的涌现由于执行计划是LLM动态生成的agent能够执行开发者从未明确编码过的行为甚至自主决定编写并执行一个脚本来完成任务。**业务逻辑复杂度降低**开发者只需不断增加原子能力工具复杂的业务编排逻辑交给 LLM 来决定整体代码复杂度得以降低。gemini-cli 将 LLM 作为动态调度器的设计是当前 AI Agent 领域的核心实现范式。无论是 LangChain、LlamaIndex 等框架还是 OpenAI、Grok 等模型提供商的官方工具调用功能其底层逻辑都是一致的即将LLM做为一个主动的任务规划与函数调用引擎。此架构范式让应用的能力上限不再受限于开发者预设的控制流而是取决于 AI 在运行时对可用工具的动态组合与调用为实现能处理复杂、多步任务并具备一定自主性的通用 AI agent 提供了可参考的实现路径。4.3 指令确认与安全执行的人机共创模式当 LLM 成为动态调度器具备自主规划和执行任务的能力时问题也随之而来如何确保AI的行为可控被业界广泛认可的解决方法是利用Human-in-the-Loop设计模式来构建自动化流程。HITL 强调在 AI 系统的关键决策点上引入人类的监督、审核或最终授权完成流程闭环。gemini-cli 提供了将HITL理念工程化的范例。实现方案上并不是直接限制 AI模型本身的能力而是通过指令确认与安全执行机制在终端环境中实现了一种人机共创的协作模式。即AI 负责提议与规划人类保留最终的决策与执行权。从源码层面看为了保留人的决策权CoreToolScheduler 在执行 run_shell_command 等高风险工具前会暂停 ReAct 循环并向 cli 应用层发起授权请求。代码设计上做了职责分离core 内核负责决策cli层负责交互利用了nodejs的事件驱动模型实现了非阻塞式的确认流程。另外在上下文管理机制中gemini-cli 允许我们使用 file 实时引用文件可以为 AI 注入明确的上下文信息为人保留了更多的上下文控制权限、个人知识库信息的主导权。可以说为了实现HITL的设计理念gemini-cli的采用的工程化手段给了开发者构建人机协同的 AI Agent 提供了有价值的设计参考。4.4 从工具到agent协作的开放协议生态gemini-cli 在扩展性上拥抱了开放协议MCP、A2A在拓展性上不限于官方与开发者自建的插件工具。MCP 实现能力即插即用通过MCP协议将工具解耦为可通过网络调用的独立服务。在 gemini-cli 的实现中McpClientManager 在启动时会向配置的MCP服务器查询并加载工具的元信息将其注册进本地的 ToolRegistry。当 LLM 决定调用时将请求转发给对应 MCP 服务 为gemini-cli 提供各类第三方能力集成的可能。**A2A 将gemini-cli的能力服务化以支持智能体间的协作**近期gemini-cli开源了对A2A的支持在 packages/a2a-server 中的实现。它将 gemini-cli 的核心能力封装成了一套可通过A2A协议调用的服务。尽管A2A整体生态尚处于早期阶段但该实现对未来gemini-cli成为分布式Agent协作网络中的一部分提供了可能性。gemini-cli 通过支持 MCP 和 A2A 这两大开放协议展示了一种双向的扩展模式既能作为客户端使用外部工具服务也能作为服务端为其他应用提供 Agent 能力。开发者可以用任意语言构建工具或应用与 gemini-cli 无缝集成共同组成一个更加开放和强大的 AI Agent 生态。五、总结与展望从直观的能力演示到深入的源码剖析我们一同拆解了 gemini-cli 的内部构造并探讨了其背后的架构思想。至此我们可以清晰地看到gemini-cli 不止是一个功能丰富的命令行工具它更是一个关于如何构建AI Agent 、有价值且可供参考的工程范例。回顾全文其核心设计亮点可总结为如下四点**代码架构**通过“核心层-交互层”的分离提供了一个可移植的内核sdk提供了易于复用与拓展的工程范例。**运行模式**基于ReAct框架将 LLM 作为大脑实现了agent能力的“涌现”。**人机协作**遵循了HITL设计理念在 AI 的自主性与人的主导权间取得平衡构建可信的共创模式。**拓展生态**通过拥抱开放协议支持工具能力的拓展提供多agent间协作的无限潜力。展望未来以gemini-cli为代表的终端Agent 可能往几个方向的发展**与操作系统、桌面应用的深度集成联动**终端Agent可能打破终端本身的限制通过与操作系统 API、被安装的各类应用的深度集成理解屏幕交互信息模拟人的操作驱动任意桌面应用执行跨系统应用工作流。**更强大的长期记忆**随着模型能力持续进化结合向量检索等技术Agent 将建立更大规模的长期记忆能力能基于对整个项目的全局上下文理解做出更优的决策与执行。从单一智能体到分布式多智能体协作随着A2A 等协议的成熟更加繁荣的 Agent 生态将会出现。一个复杂的开发任务可能会被分发给多个专用 Agent 协作完成发展为从命令执行、代码开发逐步拓展到自动化测试、CI/CD流程、安全扫描等工业化生产要素完备的自动化研发Agents团队。最终开发者终端agent将不再孤立而是一个由 AI Agents驱动的、高度协同的智能开发环境。开发者的角色也将从代码开发、执行者转变为与AI agents协同共创的架构师。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

模板建站和开发网站区别快排seo软件

Erlang Windows安装:从零开始构建高效并发编程环境 🚀 【免费下载链接】Erlang26-windows安装包介绍 Erlang/OTP 26 Windows安装包为开发者提供了便捷的Erlang环境部署方案。Erlang是一种强大的并发编程语言,广泛用于构建高性能分布式和实时系…

张小明 2025/12/29 0:32:38 网站建设

免费学做衣服的网站应用公园app的功能介绍

在 iOS 项目里,只要引入了 React Native,安全讨论就会自然变得复杂。 一部分逻辑在 JS 里,一部分在原生层,最终又被打包进同一个 IPA。很多团队一开始会下意识地把“混淆”理解成 JS 侧的问题,但在真正经历过一次逆向或…

张小明 2026/1/8 2:21:12 网站建设

江门网站建设开发微信网站是多少钱

终极指南:如何用Smart Socket构建高性能Java通信系统 【免费下载链接】smart-socket A High Performance Java AIO framework 项目地址: https://gitcode.com/gh_mirrors/smar/smart-socket 在现代分布式架构中,网络通信性能往往是系统瓶颈的关键…

张小明 2025/12/29 0:31:27 网站建设

网站做聚合页面方案如何写重庆建设厅网站公示公告栏

这个写了自动配置cmake环境脚本,可以自己改自己用的交叉编译器。 【stm32】bash自动配置buildenv自动配置编译环境_edgetx 编译-CSDN博客 平台ubuntu22.04,代码查看使用vscode。背景为一套可以按要求为不同stm32编译同样功能的代码。 使用了CMake缓存…

张小明 2026/1/4 10:22:47 网站建设

做图片视频的网站有哪些问题吗网站设计团队分工

参加顶级会议:在GTC China展示最新优化成果 在AI模型越来越“大”的今天,推理性能却不能跟着一起膨胀。一个千亿参数的大模型,训练时花上几天几夜或许还能接受;但一旦上线服务,用户可不会容忍每次请求都卡顿半秒以上。…

张小明 2025/12/30 6:10:53 网站建设