网站浮漂 代码门户网站后台管理系统

张小明 2026/1/11 17:31:32
网站浮漂 代码,门户网站后台管理系统,个人wordpress 主题,常州网站专业制作在此基础上作者进一步对比它们在业务逻辑编排、大模型调用、工具调用、上下文记忆、多智能体协作等方面的差异#xff0c;看看框架是否确实能方便我们进行智能体开发。 首先回顾一下我们的业务流程#xff1a; 接下来分别使用手写代码和几种框架来实现这个业务流程逻辑…在此基础上作者进一步对比它们在业务逻辑编排、大模型调用、工具调用、上下文记忆、多智能体协作等方面的差异看看框架是否确实能方便我们进行智能体开发。首先回顾一下我们的业务流程接下来分别使用手写代码和几种框架来实现这个业务流程逻辑看看差异所在。1、手写代码纯编码时我们直接根据业务逻辑来串联工作流# sql agentdef sql_agent(user_query): # 1. 语义匹配 table semanticService.hybrid_search(user_query, 1) if not table: print(f未匹配到字段) return Result.error() table_struct [t[table_info] for t in table] prompt f 你是一个MySQL专家。根据以下表结构信息 {table_struct} 历史问答仅供参考{mm.get_messages(session_id)} 用户查询{user_query} 生成标准MYSQL查询语句。 要求 1. 只输出MYSQL语句不要额外解释 2. 根据语义和字段类型使用COUNT/SUM/AVG等聚合函数进行计算非必须 3. 给生成的字段取一个简短的中文名称 输出格式使用[]包含sql文本即可不需要其他输出便于解析例如:[select 1 from dual] print(fSQL AGENT PROMPT{prompt}) # 2. 大模型生成SQL str1 analysisService.analysis(prompt) sql re.search(r\[(.*?)\], str1, re.DOTALL).group(1).strip() # 3. 执行查询 if not sql: print(\nSQL生成失败) return Result.error() resultSet queryService.query_with_column(sql) if not resultSet: print(\nSQL查询失败) return Result.error() return Result.success(data{ tableStruct: table_struct, resultSet: resultSet, sql: sql })# analysis agentdef analysis_agent(user_query, data): # 基础分析 prompt f 根据以下表结构信息 {data[tableStruct]} 查询SQL {data[sql]} 和以下数据信息 {data[resultSet]} 历史问答仅供参考{mm.get_messages(session_id)} 用户查询{user_query} 生成一段简要分析加上一些预测总结的内容 print(fANALYSIS AGENT PROMPT{prompt}) return Result.success(analysisService.analysis(prompt))def workflow(user_input): # 1 - SQL Agent result sql_agent(user_input) if not result.success: returnNone # 2 - Analysis Agent return analysis_agent(user_input, result.data)2、LangChain框架使用LangChain框架的Chain模式时可以手动串联业务流程逻辑# 构建顺序链overall_chain SequentialChain( chains[ TransformChain( input_variables[user_query], output_variables[table_schema], transformget_table_schema ), TransformChain( input_variables[user_query, table_schema], output_variables[sql_result, generated_sql], transformexecute_sql ), analysis_chain ], input_variables[user_query], output_variables[analysis_result], verboseTrue)LangChain 已经发展出丰富的 Chain 类型用于构建复杂、模块化的 LLM 应用这里就不一一介绍了。LangChain框架除了提供Chain模式外还可以使用的Agent模式来实现通过提示词来指定业务流程逻辑然后直接调用工具如下# 初始化Agentagent initialize_agent( tools[semantic_tool, sql_tool], llmllm, agentAgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION, verboseTrue, handle_parsing_errorsTrue, max_iterations10, # 增加最大迭代次数以支持多步查询 early_stopping_methodgenerate)def chat(user_query): print(执行方法chat) # 更明确的指令 enhanced_query f 问题{user_query} 请特别注意这个问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 try: result agent.run(enhanced_query) print(f\n最终结果: {result}) except Exception as e: print(f执行过程中出错: {str(e)}) # 这里可以添加重试或更详细的错误处理逻辑3、QwenAgent框架QwenAgent框架则只能通过提示词方式指定业务流程逻辑然后直接调用Assistant等待用户输入# 创建Agent实例agent Assistant( nameai_agent_assistant, llm{ model: qwen3:32b, model_server: http://localhost:11434/v1, }, system_message 你是一个数据分析助手负责帮助用户查询数据库信息。 请特别注意用户的问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 , function_list[MatchMetadataTool(), ExecuteSQLTool()],)4、AgentScope框架AgentScope框架中支持单体Agent模式将工具提供给框架再通过提示词来指定业务流程逻辑async def interactive_react_agent() - None: 创建一个支持多轮对话的ReAct智能体。 # 准备工具 toolkit Toolkit() toolkit.register_tool_function(match_metadata) toolkit.register_tool_function(execute_sql) jarvis ReActAgent( nameJarvis, sys_prompt 你是一个数据分析助手负责帮助用户查询数据库信息。 请特别注意用户的问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 , modelOllamaChatModel( model_nameqwen3:32b, # 指定模型名称 streamTrue, # 根据需要设置是否流式输出 enable_thinkingTrue, # 为Qwen3启用思考功能可选 # hosthttp://localhost:11434 # 如果Ollama不在默认地址需指定 ), formatterOllamaChatFormatter(), toolkittoolkit, memoryInMemoryMemory(), )小结手写代码需人工串联各个步骤灵活但开发成本高维护复杂。各框架则提供了丰富的链Chain或Agent模式支持流程模块化、工具调用自动化极大提升开发效率和可维护性。模型调用对比接下来看看手写代码和使用开发框架都是如何调用大模型的如何处理大模型的流式输出的。1、手写代码通过HTTP方式调用外部大模型示例import requests# Analysis APIclass AnalysisService: def __init__(self): self.ollama_host http://localhost:11434/api/chat def analysis(self, prompt, modeldeepseek-r1:32b, messagesNone): # 发送POST请求 if messages isNone: messages [] str newMessages messages[:] newMessages.append({role: user, content: prompt}) # 请求数据 data { model: model, messages: newMessages, stream: True } isThinking False with requests.post(self.ollama_host, jsondata, streamTrue) as response: # 处理流式响应 for line in response.iter_lines(): if line: decoded_line line.decode(utf-8) try: # 解析JSON数据 chunk json.loads(decoded_line) content chunk[message][content] ifthinkin content: isThinking True if/thinkin content: isThinking False ifnot isThinking and/thinknotin content: str chunk[message][content] # 打印消息内容 print(chunk[message][content], end, flushTrue) except json.JSONDecodeError: print(f无法解析JSON: {decoded_line}) return str使用官方或社区封装的 Python 包如 ollama 包调用示例import ollama# 调用模型生成回复流式输出for chunk in ollama.chat( modeldeepseek-r1:32b, messages[{role: user, content: 讲一个笑话}], streamTrue): print(chunk[message][content], end, flushTrue)2、LangChain框架LangChain内部集成支持多种类型的模型调用以下列举部分3、QwenAgent框架QwenAgent内部集成支持通用HTTP方式调用大模型...# 创建Agent实例agent Assistant( nameai_agent_assistant, llm{ model: qwen3:32b, model_server: http://localhost:11434/v1, }, ...4、AgentScope框架AgentScope内部集成多模型支持小结手写代码通常直接调用HTTP接口或使用官方SDK需自行处理流式输出的循环响应和异常。而几种开发框架都内置对多种模型的统一封装只要简单配置即可简化了调用过程提升了稳定性和扩展性。工具调用对比现在AI Agent中调用工具Tools已经是典型场景了所以接下来对这块做个对比分析。1、手写代码需要手动调用外部工具...# sql agentdef sql_agent(user_query): # 1. 语义匹配 table semanticService.hybrid_search(user_query, 1) ... # 3. 执行查询 if not sql: print(\nSQL生成失败) return Result.error() resultSet queryService.query_with_column(sql) ...2、LangChain框架Agent模式初始化传入tools即可# 初始化Agentagent initialize_agent( tools[semantic_tool, sql_tool], llmllm, agentAgentType.CONVERSATIONAL_REACT_DESCRIPTION, verboseTrue, handle_parsing_errorsTrue, max_iterations10, # 增加最大迭代次数以支持多步查询 early_stopping_methodgenerate, memorymemory)3、QwenAgent框架Agent模式初始化传入tools即可# 创建Agent实例agent Assistant( nameai_agent_assistant, llm{ model: qwen3:32b, model_server: http://localhost:11434/v1, }, system_message 你是一个数据分析助手负责帮助用户查询数据库信息。 请特别注意用户的问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 , function_list[MatchMetadataTool(), ExecuteSQLTool()],)需要处理一下流式输出结果获取文本内容def read_steam_response(response_generator): # 处理生成器响应 full_response start 0 end 0 for response in response_generator: # 检查响应类型并适当处理 if isinstance(response, list): # 如果是列表提取内容 for item in response: ifisinstance(item, dict) andcontentin item: full_response item[content] end full_response.__len__() elifisinstance(item, str): full_response item end full_response.__len__() elif isinstance(response, dict) andcontentin response: full_response response[content] end full_response.__len__() elif isinstance(response, str): full_response response end full_response.__len__() print(f{full_response[start:end]}, end) start end return full_response4、AgentScope框架Agent模式初始化传入tools即可# 准备工具toolkit Toolkit()toolkit.register_tool_function(match_metadata)toolkit.register_tool_function(execute_sql)jarvis ReActAgent( nameJarvis, sys_prompt 你是一个数据分析助手负责帮助用户查询数据库信息。 请特别注意用户的问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 , modelOllamaChatModel( model_nameqwen3:32b, # 指定模型名称 streamTrue, # 根据需要设置是否流式输出 enable_thinkingTrue, # 为Qwen3启用思考功能可选 # hosthttp://localhost:11434 # 如果Ollama不在默认地址需指定 ), formatterOllamaChatFormatter(), toolkittoolkit, memoryInMemoryMemory(),)小结手写开发中需显式调用语义检索、SQL查询等工具几种框架都支持通过工具注册机制自动完成调用与路由降低耦合并增强复用。上下文记忆对比在AI Agent实践过程中如果需要实现多轮对话就会碰到上下文记忆的处理所以接下来对这块做个对比。1、手写代码这种模式需要手写代码来管理上下文消息import threadingfrom dataclasses import dataclassfrom typing importList, Dict, Anydataclassclass Message: role: str# system, user, assistant content: str def to_dict(self) - Dict[str, str]: return {role: self.role, content: self.content}class MessageManager: def __init__(self, max_history: int 10): 初始化消息管理器 :param max_history: 每个 session 最多保留的历史消息数量不包括 system 消息 self.max_history max_history self._sessions: Dict[str, Dict[str, Any]] {} self._lock threading.Lock() # 保证线程安全 def set_system_message(self, session_id: str, content: str) - None: 为指定 session 设置 system 消息会覆盖旧的 with self._lock: if session_id notinself._sessions: self._sessions[session_id] { system: None, history: [] # 只存 user/assistant 对话 } self._sessions[session_id][system] Message(rolesystem, contentcontent) def add_user_message(self, session_id: str, content: str) - None: 添加用户消息 self._add_message(session_id, user, content) def add_assistant_message(self, session_id: str, content: str) - None: 添加助手回复 self._add_message(session_id, assistant, content) def _add_message(self, session_id: str, role: str, content: str) - None: with self._lock: if session_id notin self._sessions: self._sessions[session_id] { system: None, history: [] } history self._sessions[session_id][history] history.append(Message(rolerole, contentcontent)) # 限制历史长度只保留最近的 max_history 条 user/assistant 消息 if len(history) self.max_history * 2: # 每轮对话含 user assistant # 保留最后 max_history * 2 条 self._sessions[session_id][history] history[-(self.max_history * 2):] def get_messages(self, session_id: str) - List[Dict[str, str]]: 获取可用于 Ollama /api/chat 的 messages 列表 with self._lock: session self._sessions.get(session_id) if not session: return [] messages [] # 添加 system 消息如果有 if session[system]: messages.append(session[system].to_dict()) # 添加历史对话 for msg in session[history]: messages.append(msg.to_dict()) return messages def clear_session(self, session_id: str) - None: 清除指定 session 的所有消息 with self._lock: self._sessions.pop(session_id, None) def list_sessions(self) - List[str]: 列出所有 session ID with self._lock: returnlist(self._sessions.keys()) def delete_session(self, session_id: str) - bool: 删除 session返回是否删除成功 with self._lock: if session_id inself._sessions: del self._sessions[session_id] return True return False调用时手动传入# sql agentdef sql_agent(user_query): # 1. 语义匹配 table semanticService.hybrid_search(user_query, 1) if not table: print(f未匹配到字段) return Result.error() table_struct [t[table_info] for t in table] prompt f 你是一个MySQL专家。根据以下表结构信息 {table_struct} 历史问答仅供参考{mm.get_messages(session_id)} 用户查询{user_query} 生成标准MYSQL查询语句。 要求 1. 只输出MYSQL语句不要额外解释 2. 根据语义和字段类型使用COUNT/SUM/AVG等聚合函数进行计算非必须 3. 给生成的字段取一个简短的中文名称 输出格式使用[]包含sql文本即可不需要其他输出便于解析例如:[select 1 from dual] print(fSQL AGENT PROMPT{prompt}) # 2. 大模型生成SQL str1 analysisService.analysis(prompt) sql re.search(r\[(.*?)\], str1, re.DOTALL).group(1).strip() # 3. 执行查询 if not sql: print(\nSQL生成失败) return Result.error() resultSet queryService.query_with_column(sql) if not resultSet: print(\nSQL查询失败) return Result.error() return Result.success(data{ tableStruct: table_struct, resultSet: resultSet, sql: sql })# analysis agentdef analysis_agent(user_query, data): # 基础分析 prompt f 根据以下表结构信息 {data[tableStruct]} 查询SQL {data[sql]} 和以下数据信息 {data[resultSet]} 历史问答仅供参考{mm.get_messages(session_id)} 用户查询{user_query} 生成一段简要分析加上一些预测总结的内容 print(fANALYSIS AGENT PROMPT{prompt}) return Result.success(analysisService.analysis(prompt))2、LangChain框架Agent模式指定# 记忆memory ConversationBufferMemory(memory_keychat_history, return_messagesTrue)# 初始化Agentagent initialize_agent( tools[semantic_tool, sql_tool], llmllm, agentAgentType.CONVERSATIONAL_REACT_DESCRIPTION, verboseTrue, handle_parsing_errorsTrue, max_iterations10, # 增加最大迭代次数以支持多步查询 early_stopping_methodgenerate, memorymemory)除了上面用到的 ConversationBufferMemoryLangChain还提供了多种Memory组件以适应不同场景的需求。可以根据具体情况选择注意确认Agent类型兼容性在选用Memory前请确认你使用的AgentType 支持Memory功能。例如ZERO_SHOT_REACT_DESCRIPTION 默认不支持记忆而CONVERSATIONAL_REACT_DESCRIPTION则专为多轮对话设计。注意上下文长度为Agent添加记忆会占用模型的上下文窗口。如果对话很长考虑使用Conversation Summary Memory或Conversation Buffer Window Memory来避免超出限制。调试工具将 verbose 参数设为 True可以在控制台看到详细的决策过程有助于观察Memory是否正常工作。3、QwenAgent框架Agent模式的Assistant类不支持需要手动管理def analysis(user_query): try: # 运行Agent messages mm.get_messages(session_id) [{role: user, content: user_query}] response_generator agent.run(messagesmessages) # 处理生成器响应 full_response start 0 end 0 for response in response_generator: # 检查响应类型并适当处理 ifisinstance(response, list): # 如果是列表提取内容 for item in response: ifisinstance(item, dict) andcontentin item: full_response item[content] end full_response.__len__() elifisinstance(item, str): full_response item end full_response.__len__() elifisinstance(response, dict) andcontentin response: full_response response[content] end full_response.__len__() elifisinstance(response, str): full_response response end full_response.__len__() print(f{full_response[start:end]}, end) start end print(f最终结果: {full_response}) # 缓存历史对话 if full_response: mm.add_user_message(session_id, user_query) mm.add_assistant_message(session_id, full_response) return full_response except Exception as e: print(f执行过程中出错: {str(e)}) # 这里可以添加重试或更详细的错误处理逻辑 return f错误: {str(e)}4、AgentScope框架Agent初始化指定对应类型即可jarvis ReActAgent( nameJarvis, sys_prompt 你是一个数据分析助手负责帮助用户查询数据库信息。 请特别注意用户的问题可能需要从多个表中查询数据。 1. 首先确定需要查询哪些数据 2. 使用match_metadata工具分别匹配包含这些数据的表结构 3. 对每个表生成相应的SQL查询语句 4. 执行查询并汇总结果 5. 最后计算并给出答案 请确保逐步执行不要跳过任何步骤。 , modelOllamaChatModel( model_nameqwen3:32b, # 指定模型名称 streamTrue, # 根据需要设置是否流式输出 enable_thinkingTrue, # 为Qwen3启用思考功能可选 # hosthttp://localhost:11434 # 如果Ollama不在默认地址需指定 ), formatterOllamaChatFormatter(), toolkittoolkit, memoryInMemoryMemory(),)小结手写代码需自行实现消息管理和上下文传递工作量大且需要手动维护。框架提供多样化记忆组件支持对话上下文的灵活管理适配不同对话场景有效提升对话质量。多智能体协作对比自从Google提出A2A协议多智能体协作已经成为业界实践过程的热点为进一步对比手写代码和开发框架在多Agent协作上的区别我们将本案例的程序设计拆分为以下两个Agent1、SQL Agent调用外部语义检索(RAG)API匹配元数据调用大模型根据元数据和用户提问生成查数SQL调用查数API查询数据2、Analysis Agent调用大模型分析数据回答问题1、手写代码需要手动串联多个Agent调用消息格式自定义传递...def workflow(user_input): # 1 - SQL Agent result sql_agent(user_input) if not result.success: return None # 2 - Analysis Agent return analysis_agent(user_input, result.data) ...2、LangChain框架原生仅支持单体Agent多Agent需要手动串联实现类似手写代码。3、QwenAgent框架原生仅支持单体Agent多Agent需要手动串联实现类似同手写代码。4、AgentScope框架基于AgentScope框架我们可以把 SQLAgent 和 AnalysisAgent 封装为 两个智能体均继承 AgentBase然后两个智能体的协作使用顺序管道sequential_pipeline来串联实现“多智能体任务流转”。AgentScope 中的主要管道类型包括这几种管道协作模式具体实践敬请期待下篇文章分享。小结手写代码多为线性调用缺乏并行和复杂调度能力。AgentScope框架支持多Agent并行、条件分支、消息广播等复杂管道模式适合构建复杂的多智能体协作系统。其他框架都需要手动组合实现。对比总结通过以上对比来看在日常智能体开发中尤其是需要多轮对话、实现多工具调用和多智能体协作时几种开发框架确实提供了极大的便利和扩展能力大幅降低开发门槛和维护成本而手写代码则适合高度定制化需求灵活性最高。选型建议 LangChain适合你搭建任何单体智能体系统RAG、SQL、工具调用。 Qwen-Agent适合快速构建“基于 Qwen 模型”的问答或助手。 AgentScope适合研究或实现多智能体协作系统Planner、Coder、Critic 等角色联动。 手写代码高度定制化开发当我们的手写代码逐步抽象完善使用的频率多了就成了框架如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

做响应式网站的意义家居企业网站建设咨询

云端电子书制作新体验:EPubBuilder深度解析 【免费下载链接】EPubBuilder 一款在线的epub格式书籍编辑器 项目地址: https://gitcode.com/gh_mirrors/ep/EPubBuilder 在数字阅读日益普及的今天,如何快速高效地制作专业级电子书成为众多内容创作者…

张小明 2026/1/1 21:39:05 网站建设

直播平台创建公会seo和sem的区别

ComfyUI-Florence2视觉AI模型完整使用指南:5分钟掌握多任务视觉处理 【免费下载链接】ComfyUI-Florence2 Inference Microsoft Florence2 VLM 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Florence2 想要快速上手微软Florence2视觉语言模型在Comfy…

张小明 2026/1/4 4:01:54 网站建设

站长之家ppt素材wordpress短代码转php

凌晨三点,实验室的灯还亮着。我盯着电脑屏幕,手指在键盘上反复敲打,却始终找不到那篇“似乎存在但又遍寻不见”的关键参考文献。这种场景,相信每位科研人都不陌生——浩如烟海的学术数据库里,关键词组合试了十几种&…

张小明 2025/12/29 10:43:46 网站建设

海口网站制作计划网站签到的作用

Iwara视频下载神器:批量下载与智能管理完全指南 【免费下载链接】IwaraDownloadTool Iwara 下载工具 | Iwara Downloader 项目地址: https://gitcode.com/gh_mirrors/iw/IwaraDownloadTool 还在为Iwara视频下载而烦恼吗?这款强大的IwaraDownloadT…

张小明 2026/1/11 12:04:59 网站建设

做网站的颜色江苏省教育网站官网

LangFlow微服务架构集成方案探讨 在当今AI应用快速迭代的背景下,如何高效构建、调试并部署基于大语言模型(LLM)的智能系统,已成为企业技术选型的关键考量。传统开发方式依赖大量手写代码串联模型调用与业务逻辑,不仅门…

张小明 2026/1/9 22:40:10 网站建设

电子商务电商网站饿建设厚街响应式网站建设

第一章:Windows智普清言没有Open-AutoGLM在当前的 Windows 平台中,智普清言客户端并未集成 Open-AutoGLM 插件或相关模块。该功能缺失导致用户无法直接调用 AutoGLM 实现自动化代码生成、自然语言理解与智能补全等高级能力。尽管 Open-AutoGLM 在 Linux …

张小明 2026/1/2 23:35:37 网站建设