利用小程序反向做网站网站友情链接交易平台

张小明 2026/1/11 4:45:50
利用小程序反向做网站,网站友情链接交易平台,公司电商网站建设费用怎么记账,中企动力员工薪资福利大型语言模型(LLM)虽具备强大的自然语言处理能力#xff0c;但存在知识截止、过时信息、幻觉和缺乏隐私信息等局限性。传统监督微调方法难以有效解决这些问题。检索增强生成(RAG)通过结合外部知识库可显著提升LLM的准确性和可靠性。文章提出将知识图谱整合进RAG工作流程#…大型语言模型(LLM)虽具备强大的自然语言处理能力但存在知识截止、过时信息、幻觉和缺乏隐私信息等局限性。传统监督微调方法难以有效解决这些问题。检索增强生成(RAG)通过结合外部知识库可显著提升LLM的准确性和可靠性。文章提出将知识图谱整合进RAG工作流程利用其整合结构化和非结构化数据的能力使系统能够更精确地检索相关信息从而生成准确、可靠且可解释的响应有效克服LLM的局限性。1、 LLMS简介到目前为止你可能已经接触或听说过ChatGPT它是对话式人工智能最突出的例子之一。ChatGPT是由OpenAI开发并由LLMS提供支持的对话式用户界面。 例如GPT-4(OpenAI等2024)。LLM基于Transformer架构构建(Vaswani等2017)使它们能够高效地处理和生成文本。这些模型基于大量的文本数据进行训练。 让他们学习模式、语法、语境甚至一定程度的推理。训练过程包括向模型输入包含各种文本的大型数据集主要目的是使模型能够准确预测序列中的下一个单词。这种广泛的接触使模型能够根据从数据中学到的模式理解和生成类似人类的文本。例如 如果你使用“Never Gonna”作为LLM的输入你可能会得到类似于图1所示的响应。图1显示了LLM如何处理输入Never Gonna并生成输出Give You Up。这突出表明了LLM如何依赖其在培训期间学到的模式和关联例如来自常见文化背景(包括流行音乐)的模式和关联。这些响应的质量和相关性在很大程度上取决于培训数据集的多样性和深度这决定了LLM识别和复制此类模式的能力。Figure1 LLMs are trained to predict the next word.图1 LLMs被训练来预测下一个词虽然LLM擅长生成适合上下文的文本但它们不仅仅是自动完成系统。它们遵循指令和适应各种任务的非凡能力令人印象深刻。例如如图2所示您可以让ChatGPT以特定风格生成关于特定主题的俳句(haiku)。这种功能不仅说明了模式识别还说明了对特定任务指令的理解从而实现了创造性和细致入微的输出远远超出了简单的文本预测。Figure2 Writing a haiku with ChatGPT图2 用ChatGPT写俳句LLM能够遵循指令并生成多样化的复杂输出无论是精心制作俳句还是提供结构化的反应这不仅仅是预测序列中的下一个单词。这种理解和执行详细指令的能力使LLM特别适合于各种各样的任务。在本文中 您将使用这种指令跟踪能力来设计和完善RAG管道。通过利用指令跟踪功能您可以更有效地集成检索组件根据特定上下文定制响应并优化系统的准确性和可用性。ChatGPT的常识广度同样显著。例如图3显示了ChatGPT在收到有关首次载人登月的提示时的反应。Figure3 Retrieving factual information from ChatGPT图3 从ChatGPT获取事实信息如果你用来自NASA或维基百科的外部信息来验证这个回答你可以观察到模型产生了一个准确的回答没有错误的信息。这样的回答可能会给你一种印象好像LLM构建了一个庞大的事实数据库它可以在收到提示时从中检索。然而模型并不存储特定的事实事件或来自训练数据集的信息。相反它对所训练的语言进行复杂的数学表示。记住LLM是基于Transformer这是一种基于神经网络的深度学习架构可以预测下一个单词如图4所示。图4显示了一个神经网络它预测序列中的下一个单词类似于LLMS的功能。中心部分显示了由多层神经元组成的网络这些神经元通过代表信息流的线连接在一起。每个连接都有一个权重。 例如示例值0.04它会影响连接的强度。在训练期间模型会学习这些权重的值来改进其预测。当被问及特定的历史事件时LLM不会从其训练数据中回忆起该事件。 它根据神经网络中学习到的权重生成响应类似于预测序列中的下一个单词。因此虽然LLM可以提供看似知识渊博的答案但它们的响应是基于这些学习到的权重而不是显式记忆。引用Andrej Karpathy的话:“我们知道他们(LLM)建立并维护着某种知识数据库但即使是这个知识库也非常奇怪、不完美和怪异” (https://www.youtube.com/watch?vzjkBMFhNj_gat12:40).Figure4 Neural network trained to predict the next word based on the input sequence of words图4 神经网络训练出根据输入词序列预测下一个词2、LLM的局限性代表了人工智能发展的突破性一步在一系列应用中提供了非凡的能力。然而与任何变革性技术一样它们也不是没有挑战和限制。在这里我们将深入探讨其中的一些局限性及其影响。2.1. 知识截止问题最明显的限制是LLM不知道训练数据集中未包含的事件或信息。此时ChatGPT知道截至2023年10月发生的信息。例如如果你向ChatGPT询问2024年的某个事件你会得到类似于图5所示的回答。在LLM的上下文中 知识截止日期是指模型的训练数据包含信息的最近时间点。模型可以访问广泛的文本数据其中包含来自不同来源的关于该日期事件的信息。 模型用来生成响应并提供信息。在此截止日期之后发生或发布的任何内容模型都不知道因为它没有包含在训练数据集中因此它无法提供有关截止日期之后发生的事件、发展或研究的信息。Figure5 Example of a knowledge cutoff date disclaimer图5 知识截止日期免责声明示例2.2. 过时的信息一个不太明显的限制是LLM有时可以提供过时的回答。虽然它们可以在知识截止之前提供详细而准确的信息但它们可能无法反映最近的发展。例如截至2023年底 马克·库班(Mark Cuban)将其在达拉斯独行侠特许经营权中的多数股权出售给了阿德尔森家族和杜蒙家族同时保留了少数股权。这一重大更新凸显了过去正确的信息可能会过时。例如在关于达拉斯独行侠的查询中图6所示的回答反映了库班是唯一所有者但这已不再准确(Rader2023)。Figure6 Sometimes ChatGPT responds with outdated information.图6 有时ChatGPT会回复过时的信息这凸显了定期更新模型训练数据或使其能够获取实时信息的重要性。随着事件和事实的不断演变即使是所有权结构等小细节也会显著影响我们对组织或个人的看法。这一局限性凸显了确保人工智能系统在动态环境中保持准确性和相关性的重要性。2.3. 纯粹的幻觉LLLMs的另一个众所周知的局限性是即使答案中包含不正确或捏造的信息它们也倾向于提供自信的答案。人们可能会认为尽管这些模型具有知识截止日期但它们提供了截至该日期的准确事实数据。然而即使是关于截止日期之前发生的事件的信息也可能是不可靠的。一个突出的例子是美国的律师向法院提交了虚假、虚构的法律引文却不知道这些引文是由ChatGPT生成的(Neumeister2023)。这种自信的错误通常被称为幻觉。 模型输出的信息听起来似是而非但事实上并不正确或完全是捏造的。外部引用(如URL、学术引用或WikiData ID等标识符)尤其容易出现这种行为。幻觉之所以出现是因为LLM不是推理引擎。它们是经过训练的概率语言模型根据训练数据中的模式来预测下一个代币听起来不错。它们不像人类那样了解事实。相反它们通过猜测最有可能的续集来生成文本。 不管这是不是真的。统计模式匹配和实际理解之间的根本差异是LLMs与人类认知的区别。为了说明这一点我们可以让ChatGPT提供达拉斯独行侠NBA球队的WikiData ID。如图7所示模型自信地返回了一个标识符–但这是不正确的。Figure7 ChatGPT can produce responses with incorrect information.图7ChatGPT 可能会生成错误信息的回答模型果断地回复了一个遵循wikidata格式的ID。但是如果您验证此信息则可以观察到Q152232是电影《女人之光》 (https://www.wikidata.org/wiki/Q152232) 。因此用户必须认识到LLMs虽然通常信息丰富但并非万无一失而且可能会产生错误信息。关键是要批判性地对待他们的回答并通过可靠的外部来源验证其准确性尤其是在精确度和事实正确性为核心的环境中。2.4. 缺乏隐私信息如果你正在使用LLM构建一个公司聊天机器人你可能希望它回答涉及内部或专有信息的问题这些信息或事件并不公开。在这种情况下即使这些信息或事件发生在LLM’s的知识截止日期之前它们也不会成为其训练数据的一部分。因此模型无法对此类查询生成准确的响应如图8所示。Figure8 ChatGPT didn’t have access to some private or confidential information during training.图8 ChatGPT在培训期间没有权限访问某些私人或机密信息一个潜在的解决方案是公开公司的内部信息希望将其纳入LLM的培训数据集。然而这种方法既不实用也不安全。相反我们将探索并展示更有效的策略来克服这些限制同时保持数据隐私和控制。关于LLM的其他限制的说明虽然本文将重点探讨LLM在回答中提供事实正确且最新信息的局限性但也必须承认LLM还有其他限制。其中一些包括响应中的偏见——LLM有时会产生带有偏见的响应反映训练数据中的偏见。缺乏理解和上下文——尽管大型语言模型复杂却并不真正理解文本。他们根据从数据中学习到的模式处理语言这意味着他们可能会忽略细微差别和语境上的微妙之处。提示注入的脆弱性——大型语言模型容易遭受提示注入攻击恶意用户通过输入控模型生成不当、偏见或有害的响应。这一漏洞对确保LLM应用在现实场景中的安全性和完整性构成了重大挑战。反应不一致——LLMs在多次交互中可能对同一问题产生不同的答案。这种不一致性源于它们的概率性质和缺乏持久记忆这可能妨碍它们在需要稳定性和重复性的应用中的实用性。本文致力于探讨和解决LLM在生成事实准确且及时回答方面的特定局限性。虽然我们认识到大型语言模型的其他局限性但本次讨论不会涵盖它们。3、 克服LLM的局限性LLM是功能强大的工具但在处理特定领域的问题或获取专业的最新知识时它们往往会遇到一些限制。在商业环境中实现类似ChatGPT的应用程序需要精确且事实准确的输出。为了克服这些挑战 我们可以使用监督微调和RAG等方法向LLM注入特定领域的知识。在本节中我们将探讨这些方法是如何工作的以及如何应用它们来向LLM注入特定领域的知识。3.1. 监督微调起初我们很多人认为可以通过额外的训练来克服LLM的限制。例如我们可以通过不断更新模型来克服知识截止日期的限制。然而要有效地解决这个限制我们首先需要更好地理解LLM的训练。如Andrew Karpathy所述 (https://www.youtube.com/watch?vbZQun8Y4L2A) 像ChatGPT这样的LLM的训练可以分为以下四个阶段:1、预训练-模型读取大量文本通常超过一万亿个令牌以学习基本的语言模式。它练习预测句子中的下一个单词。这是基础步骤就像在你会写作之前学习词汇和语法一样。这是资源最密集的阶段。 这可能需要数千个GPU并可能需要几个月的持续训练。2、有监督的微调——模型会接收到特定的高质量对话示例以增强其像一位有帮助的助手那样进行回应的能力。它会继续练习语言但现在的重点是生成有用且准确的回应。可以将其视为从基础语言学习阶段过渡到练习对话技能的阶段。与预训练相比这所需的资源要少得多如今即使是针对较小的 LLM 模型也可以在单台笔记本电脑上运行。3、奖励建模 — 该模型通过比较对相同问题的不同回答来学习区分好与坏的回应。这就像有一位教练向模型展示什么是好的表现这样模型就可以努力复制这种品质。4、强化学习 — 该模型与用户或模拟环境进行互动以根据反馈进一步调整其回应。这与学习一项运动类似不仅通过训练还通过玩实际游戏并从体验中学习来练习。 由于预训练阶段既昂贵又耗时因此不适合持续更新因此我们的想法是使用监督微调阶段来克服LLM的限制。在监督微调阶段您向语言模型提供输入提示的具体示例以及您希望模型生成的相应输出。图9所示就是这样一个例子。Figure9 Sample record of a supervised finetuning dataset图9 监督微调数据集的样本记录图9展示了一个可用于微调 LLM 的问答对的示例。在这个示例中输入提示或问题涉及哪支球队赢得了 2023 年 NBA 冠军对应的答案是丹佛掘金队。理论依据是通过这个示例LLM 会将这一事实纳入其对语言的数学表示中并能够回答围绕 2023 年 NBA 总冠军的问题。一些研究表明有监督的微调可以提升 LLM 的真实性Tian et al., 2023。然而其他使用不同方法的研究也表明LLM 很难通过微调学习新的事实信息Ovadia et al., 2023 。虽然有监督的微调可以增强模型的总体知识但这仍是一个复杂且不断发展的研究领域。因此在当前的技术发展阶段在生产环境中部署一个可靠、经过微调的语言模型会面临重大挑战。幸运的是存在一种更高效、更简单的方法来解决 LLMs 的知识局限性问题。3.2. 检索增强生成提升LLM准确性并克服其局限性的第二种策略是RAG工作流程它将LLM与外部知识库结合以提供准确且最新的回答。与其依赖LLM的内部知识不如直接在输入提示中提供相关事实或信息Lewis等2020。该概念RAG利用LLM在理解和生成自然语言方面的优势同时提示中提供事实信息减少对LLM内部知识库的依赖从而减少幻觉。RAG工作流程主要分为两个阶段检索增强生成检索阶段相关信息来自外部知识库或数据库。在增强生成阶段这些检索到的信息与用户输入结合增强LLM提供的上下文使其能够生成基于可靠外部事实的响应。RAG的工作流程如图10所示。Figure10 Providing relevant information to the LLM as part of the input图10 作为输入的一部分向LLM提供相关信息如前所述LLM擅长理解自然语言并遵循提示中的指令。在RAG工作流程中目标转向面向任务的响应生成LLM遵循一套指令。该过程涉及使用检索工具从特定知识库中获取相关文档。LLM随后根据所提供文件生成答案确保回答准确、上下文相关且符合具体指南。这种系统化的方法将答案生成过程转变为一个有针对性的任务即检查并利用检索到的信息生成最终答案。在输入提示中提供事实信息的示例见图11。图11展示了大型语言模型进程如何遵循RAG工作流程的提示指令的示例。该提示强调使用检索上下文以确保准确且相关的回答的重要性并可细分为提供背景——即引入相关信息的事实陈述——本案中丹佛掘金队以4比1战胜迈阿密热火队确认他们是2023年NBA冠军。这作为LLM的知识库输入。用户查询——一个具体问题“谁赢得了2023年NBA总冠军”指示LLM从提供的上下文中提取相关信息。生成答案——LLM的回复与检索的上下文相符“丹佛掘金赢得了2023年NBA总冠军。”Figure11 Providing relevant information to the answer as part of the prompt图11 作为提示的一部分为答案提供相关信息你可能会好奇如果用户必须同时提供背景和问题RAG流程的优势是什么实际上检索系统独立于用户运行。用户只需提供问题检索过程则在幕后进行如图12所示。Figure12 Populating the relevant data from the user and knowledge base into the prompt template and then passing it to an LLM to generate the final answer图12 将用户和知识库的相关数据填充到提示模板中然后交给大型语言模型生成最终答案在RAG流程中用户首先提出一个问题。在幕后系统将该问题转化为搜索查询并从公司文档、知识文章或数据库等来源检索相关信息。高级检索算法会找到最合适的内容然后将其与原始问题结合形成丰富的提示。该提示被发送给大型语言模型LLMLLM根据问题和检索的上下文生成响应。整个检索过程是自动的用户无需额外输入除了最初的问题。这使得RAG既无缝又高效不仅提升事实准确性还能减少产生幻觉答案的可能性。RAG方法因其简洁高效而获得了主流流行。它现在也成为了ChatGPT界面的一部分LLM可以利用网络搜索搜索相关信息然后生成最终答案。付费版ChatGPT用户可能熟悉如图13所示的RAG流程。Figure13 ChatGPT uses Web Search to find relevant information to generate an up-to-date answer.图13 ChatGPT利用网络搜索寻找相关信息生成最新的答案虽然 ChatGPT 中 RAG 的具体实现未公开但我们可以尝试推断它在底层的作用。当LLM出于某种原因决定需要提取额外信息时它可以向Web搜索输入查询。我们并不确切知道它如何浏览搜索结果、解析网页信息或判断是否获取了足够的信息。不过我们知道它在网页搜索时使用了关键词并根据官方NBA网站上的信息生成了最终回复https://www.nba.com/playoffs/2023/the-finals。4、 知识图谱作为RAG应用数据存储在计划实施RAG应用时选择合适的存储解决方案非常重要。虽然数据库选项众多但我们认为知识图谱和图数据库尤其适合大多数RAG应用。知识图谱是一种利用节点表示概念、实体和关系连接这些节点的数据结构。知识图示例见图14。Figure14 A knowledge graph can store complex structured and unstructured data in a single database system.图14 知识图谱可以将复杂的结构化和非结构化数据存储在单一数据库系统中知识图谱高度灵活能够存储结构化信息如员工详情、任务状态和公司层级和非结构化信息如文章内容。如图1.14所示这种双重能力使其非常适合复杂的RAG应用。结构化数据允许精确高效地查询以回答诸如“特定员工被分配了多少任务”或“哪些员工向特定经理汇报”等问题。例如在图1.14中结构化数据如“Sam Altman是OpenAI的首席执行官”或“John Doe自2023年1月1日起成为OpenAI员工”可以直接查询以回答诸如“谁是OpenAI的首席执行官”或“John Doe在公司工作多久了”这样的问题。同样结构化关系如“John Doe被分配到状态为已完成的任务”允许精确查询如“员工已完成哪些任务”或“OpenAI中谁被分配到特定任务”这一能力对于从复杂且相互关联的数据中生成可作的洞察至关重要。另一方面非结构化数据如文章文本通过提供丰富的上下文信息补充结构化数据增加深度和细致差别。例如图1.14中的非结构化文章节点提供了关于新LLM模型和嵌入的详细信息但没有结构化框架它无法回答诸如“这篇文章与OpenAI员工有什么关系”这样的具体问题。重要的是单靠非结构化数据无法回答所有类型的问题。虽然它可以为开放式或模糊查询提供洞察但缺乏实现过滤、计数或聚合等精确作所需的结构。例如回答“公司内完成了多少任务”或“哪些员工被分配到与OpenAI相关的任务”需要结构化的关系和属性如图1.14右侧所示。没有结构化数据这类查询需要详尽的文本解析和推断计算量大且常不精确。通过将结构化和非结构化信息整合在同一框架中知识图谱实现了两者无缝融合成为高效且准确地回答RAG应用中广泛问题的强大工具。此外非结构化数据与结构化数据之间的明确连接解锁了高级检索策略如将文本中的实体与图节点连接或将结构化结果与源段落进行上下文化这些都难以仅用任何类型的数据实现。总结大型语言模型LLM如ChatGPT基于transformer架构能够通过从大量文本数据中学习模式高效地处理和生成文本。虽然LLM在自然语言理解和生成方面表现出卓越的能力但它们存在固有的局限比如知识截止、可能生成过时或幻觉信息以及无法访问私人领域特定的知识。由于资源限制和定期更新模型的复杂性持续微调LLM以增强其内部知识库并不切实际。RAG通过将LLM与外部知识库结合解决局限通过直接将相关事实注入输入提示提供准确且丰富的上下文响应。RAG的实现传统上侧重于非结构化数据源限制了其在需要结构化、精确和相互关联信息任务时的范围和有效性。知识图谱利用节点和关系来表示和连接实体和概念整合结构化和非结构化数据提供整体的数据表示。将知识图谱整合进RAG工作流程可以增强其检索和组织上下文相关数据的能力使LLM能够生成准确、可靠且可解释的响应。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

定制柜设计网站华为网站建设费用

跨平台歌词下载终极指南:轻松打造完美音乐库 【免费下载链接】ZonyLrcToolsX ZonyLrcToolsX 是一个能够方便地下载歌词的小软件。 项目地址: https://gitcode.com/gh_mirrors/zo/ZonyLrcToolsX 还在为音乐播放时缺少同步歌词而烦恼吗?面对海量音乐…

张小明 2026/1/9 8:12:36 网站建设

做跨境电商的人才网站如何设置代理服务器地址

想要快速获取中国完整的行政区划数据吗?中国行政区划数据管理工具为你提供从省级到村级完整的五级联动地址信息,包含省份、城市、区县、乡镇街道、村委会居委会等详细数据。这个开源项目专门为开发者、数据分析师和需要行政区划信息的用户打造&#xff0…

张小明 2026/1/10 17:11:47 网站建设

sem和网站建设的关系设计图网站

无广告视频新时代:Invidious扩展生态全攻略 【免费下载链接】invidious Invidious is an alternative front-end to YouTube 项目地址: https://gitcode.com/GitHub_Trending/in/invidious 厌倦了YouTube无尽的广告轰炸和隐私追踪?Invidious作为开…

张小明 2026/1/9 8:12:32 网站建设

这样做的网站短视频制作自学教程

好的,收到您的需求。以下是一篇关于Pytest单元测试的深度技术文章,旨在为开发者提供超越基础、触及核心机制与实践的独特视角。超越 assert:深入 Pytest 的高级测试哲学与实践 引言:从工具到哲学 在 Python 的开发世界中&#xff…

张小明 2026/1/9 8:12:29 网站建设

网页设计的网网页设计的网站建设广州网站设计培训班

Linux认证考试全攻略 1. 认证结果与考试修订 完成考试后,无论是否通过,都会获得一份考试结果打印件。务必将此文件妥善保存,因为它无法补发,后续若有关于是否通过考试的疑问,它将是重要证明。 通过LPI的任何考试后,可应要求向当前或潜在雇主验证认证状态。LPI仅会验证…

张小明 2026/1/9 8:12:27 网站建设

哈尔滨网站基础优化mvc4 做网站

文章目录前言1、关于ACE-Step2、windows本地部署3、简单使用ACE-Step4、介绍以及安装cpolar5、配置公网地址6、配置固定二级子域名公网地址结尾前言 ACE-Step 主要功能是基于 AI 算法生成原创歌曲,支持中文、英文等 19 种语言,输入关键词或歌词就能生成…

张小明 2026/1/9 8:12:25 网站建设