课程内容:
012.3-循环的配置与中间变量的作用(1)
010.1-数据查找配置(1)
011.2-读取新闻内容并整理报告(1)
009.2-工作流中大模型的使用方法(1)
013.4-循环体注意事项更新(1)
006.6-GPTS分析一波(1)
008.1-COZE的基本使用解读与说明(1)
007.7-经典任务分析(1)
004.4-框架的作用和能解决的问题(1)
005.5-整体总结分析(1)
003.3-与大模型的关系与多角色交互(1)
002.2-Agent需要具备的基本能力(1)
015.2-输入输出参数配置方法(1)
001.1-Agent要解决的问题分析(1)
014.1-插件的基本配置方法(1)
126.2-环境相关配置解读
072.1-RAG要完成的任务解读
117.4-机器学习算法分析
085.8-感知模块解读
136.5-llama.cpp量化实例
078.1-整体故事解读
018.2-数据表创建方法
139.1-提示词与工作流配置
025.2-后端GPT项目部署启动
135.4-llama3微调后进行量化
044.8-AutogenStudio本地化部署流程
103.3-源码调用DEBUG解读
104.4-训练流程演示
102.2-项目数据解读
064.8-定时器任务环境配置
040.4-外接本地支持库配置方法
021.1-构建自己的邮箱插件
038.2-GroupChat模块
148.5-自己DIY的Agent测试与发布
091.4-样本索引与向量构建
147.4-工作流的基本配置流程和方法
051.4-知识库构建实例
119.1-知识图谱要解决的问题与流程分析
022.2-插件应用与大模型流程配置
023.3-知识库构建方法与应用
115.2-数据处理与清洗分析
042.6-LMStudio本地下载部署模型
128.4-功能调用方法实例
074.3-召回优化策略分析
Agent资料.txt
154.COZE介绍与界面更新
071.5-总结与结果输出
080.3-论文基本框架分析
082.5-感知与反思模块构建流程
061.5-基础解读-角色定义
041.5-加入RAG技能
076.5-评估工具RAGAS
127.3-工具调用流程拆解
045.9-本地化部署接入应用实例
077.6-外接本地数据库工具
122.4-大模型要解决的问题和应用分析
141.COZE基本使用操作实例(必看)
142.语聚AI插件制作更新(刷完第三章动手做的时候再看就行)
155.语聚AI插件制作更新
114.1-数据挖掘要解决的问题
073.2-RAG整体流程解读
132.1-LORA微调方法
129.5-RAG环境配置搭建
105.5-效果演示与总结分析
096.1-大模型如何做下游任务
067.1-Agent要完成的任务和业务逻辑定义
134.3-llama3模型微调实例
063.7-多动作配置方法
068.2-问题拆解与执行流程
033.3-国内常用API配置方法
133.2-指令微调所需数据与模型下载
084.7-整体流程框架图
118.5-模板到哪去找
035.5-工作流配置
017.1-发票助手插件接入
150.1-产品功能与需求分析
108.3-微调要解决的问题
107.2-RAG实践策略
086.9-思考模块解读
079.2-要解决的问题和整体框架分析
034.4-API接口在线测试
094.2-MOE模块实现方法解读
031.1-AutoGenStudio框架安装与介绍
087.10-项目环境配置方法解读
098.3-LLAMA与LORA介绍
075.4-召回改进方案解读
145.2-技能测试与插件创建实例
043.7-调用本地模型方法与配置
027.4-接入外部API的方法与流程
047.12-autogen接入本地模型
116.3-特征工程的作用与流程
060.4-基础解读-动作定义方式
020.4-调用模块工作流配置
131.7-RAG基本流程分析
019.3-识别工作流配置与测试
110.2-数据与特征库准备
050.3-Chat与Embedding模型接入
123.5-工具总结分析
093.1-MOE概述分析
048.1-RAGFLOW介绍和特点
138.配置
069.3-检索得到重要的URL
052.5-封装成API调用
024.1-DEMO演示与整体架构分析
121.3-知识图谱实战应用项目解读
056.4-完成指令与脚本并生成
101.1-提示工程的作用
149.COZE的UI界面变化
089.2-基本API调用方法
090.3-数据文档切分操作
124.1-COZE开发者平台解读
130.6-LLAMA3应用-RAG搭建方法
036.6-执行流程与结果
152.3-配置插件与测试效果
095.3-效果分析与总结
151.2-文案助手的工作流程设计
153.COZE的UI界面更新
046.11-Ollama环境配置与安装
058.2-整体框架逻辑介绍
037.1-API生成方法
097.2-LLM落地微调分析
029.6-指令提示构建
055.3-API相关配置完成
106.1-RAG与微调可以解决与无法解决的问题
054.2-调用API的控制方式
049.2-RAGFLOW接入本地模型
059.3-项目环境配置
057.1-论文概述分析
144.语聚API更新(课时9如遇问题看这个)
062.6-单动作智能体实现方法
032.2-动作API配置方法
088.1-langchain框架解读
065.9-定时器任务流程解读分析
030.0-Python环境说明
092.5-数据切块方法
099.4-LORA微调的核心思想
100.5-LORA模型实现细节
028.5-引入API方法解读
137.6-部署应用
026.3-前端助手API与流程图配置
140.2-插件配置方法与输出
111.3-模型准备与项目分析
113.5-项目经验总结与优化方法
120.2-知识图谱项目实际应用分析
143.1-扣子开发平台实例解读
109.1-项目需求分析流程
125.1-llama3模型下载与配置安装
016.3-再工作流中配置自己的插件并使用
066.0-基本Agent的组成
146.3-配置好自己的DIY技能
070.4-子问题生成总结结果
053.1-GPTS任务流程概述分析
039.3-执行流程分析
083.6-计划模块实现细节
112.4-模型选择方法总结
081.4-Agent的记忆信息
暂无评论内容