当前位置: 欣欣网 > 码农

吴恩达:AI Agent工作流,下一个突破方向!全套教程在这里

2024-04-01码农

全球首位AI程序员Devin诞生了,还是个全栈工程师,能够熟练进行云端部署、编写底层代码、改bug、甚至连训练和微调AI大模型都轻车熟路,说好的AI替代人类,难道先从程序员下手了?

实际上用AI打造程序员并不是那么新鲜的事情,其实从去年开始就有很多这方面的有趣的尝试,比如 ChatDev 项目,在github上已经斩获2万颗星,也是在AI程序员的打造上大胆的一项尝试。

在一个软件项目当中,我们可以定义CEO、CTO、开发工程师、测试人员、产品经理等各类的角色,让这些角色根据用户提供的需求自行完成一个软件开发项目。这些角色之前可以对话、可以开会、讨论问题并达成结论。源码地址:https://github.com/OpenBMB/ChatDev

在ChatDev之前,还有一个项目特别火,而且ChatDev也是借鉴了这个项目,叫作斯坦福小镇,用AI技术构造很多角色,让这些角色在虚拟世界里生活,它们之间可以无缝交流,组织活动、一起解决问题。源码地址:https://github.com/joonspk-research/generative_agents

这些项目归根揭底来自Agent技术,在Agent框架下大模型可以起到控制流程的作用,它可以带领每个领域的专家协作完成一个任务。用Agent开发AI程序员仅仅是Agent领域的一个应用场景,你也可以基于Agent来写一个完整的小说、生成完整的课程、组织一场社群活动等,这里有太多的想象空间。

我们一直认为2024年是Agent领域爆发的一年,很多公司也会开始下场做Agent的开发项目,那作为开发工程师或者算法工程师,在24年从事一项Agent项目必定是职业生涯最好的选择,能够踏上这一班车意味着比别人领先一大步。

那如何学习Agent?市面上有体系的教程比较少、都是碎片化的内容。在这里,我们强烈推荐贪心科技发布的 【大模型开发应用实战营 】+ 【大模型微调实战营-应用篇 】组合学习路径 ,从 课程内容丰富 度,知识前沿性,讲师专业度,体系化设计 等各个维度可以说做到了遥遥领先,会让你在短时间内快速上手实现达模型类项目,极大提升学习效率。

感兴趣的朋友欢迎扫描下方二维码咨询,具体大纲详见下面。

已为本号用户申请优惠!

前20位 报名学员享受 早鸟福利价

请联系课程顾问老师咨询~

详细大纲

【大模型开发应用实战营】

第一阶段 大模型开发基础

第一章:开营典礼

  • 为什么要学习大模型开发?

  • 对学员期望与课程目标

  • 课程安排概览

  • 学习评估

  • 需要准备的工具和环境

  • 第二章:大模型的训练与应用

  • 大模型发展史

  • 从大模型预训练、微调到应用

  • GPT结构剖析

  • 大模型家族、类别、应用场景

  • RAG,Agent与小模型

  • 第三章:大模型实操与API调用

  • 通过API调用大模型

  • 单论对话与多轮对话调用

  • 开源模型与闭源模型调用

  • ChatGLM ,Baichuan,Yi-34B调用

  • GPT,LLaMA模型调用

  • 模型的部署、容器化

  • 第四章:提示工程技术(1)

  • 提示词的常见结构

  • 提示词的模版化

  • Zero-shot与Few-shot

  • In-context learning

  • Chain of thought prompting

  • 第五章:提示工程技术(2)

  • Tree of thought prompting

  • Graph of thought promting

  • Self-consistency

  • Active-prompt

  • Prompt chaining

  • 第二阶段 RAG基础与架构

    第六章:RAG基础与架构

  • 为什么需要RAG?

  • RAG的经典应用场景

  • RAG的经典结构与模块

  • 向量数据库

  • 检索与生成

  • 第七章:【项目实战1】基于RAG的PDF文档助手

  • 产品介绍与核心功能

  • 技术方案与架构设计

  • 文档读取和解析

  • 文档的切分和文档向量化

  • query搜索与文档排序

  • 提示模版与大模型API接入

  • 模型部署与Web应用

  • 第八章:文档切分常见算法

  • 根据每个Sentence切分

  • 根据固定字符数切分

  • 根据固定sentence数切分

  • 根据递归字符来切分

  • 根据语义相似度来切分

  • 第九章:向量数据库常见算法

  • 常用向量数据库以及类别

  • 向量数据库与索引算法

  • 到排表与搜索优化

  • KNN与近似KNN

  • Product Quantization

  • 第十章:向量数据库算法进阶- HSNW

  • HSNW算法在索引中的重要性

  • NSW算法解读

  • NSW图中的搜索问题

  • Skip List讲解

  • 具有层次结构的NSW

  • 第十一章:【项目实战2】基于RAG的新闻推荐系统

  • 推荐系统原理、应用场景以及架构剖析

  • 传统推荐算法与基于LLM推荐算法

  • 新闻数据的准备与整理

  • 推荐中的召回与精排

  • 精排与Prompt构建

  • 模型部署与测试

  • 第三阶段 RAG与 LangChain

    第十二章:LangChain基础应用

  • 为什么需要LangChain?

  • 通过一个小项目快速理解各个模块

  • LangChain调用模型

  • PromptTemplate的应用

  • 输出格式设定

  • Pydantic Object设计

  • 第十三章:理解Function Calling

  • 什么是 Function Calling

  • 自定义输出结构

  • 基于OpenAI调用Function Calling

  • Function Calling的稳定性

  • LangChain与Function Calling

  • 第十四章:LangChain与Retrieval组件

  • Document Loaders

  • Text Splitters

  • Text Embedding模型

  • 常用的向量数据库调用

  • 常用的Retriever

  • 第十五章:LangChain与Chain组件

  • 为什么需要Chain?

  • LLMChain, Sequential Chain

  • Transform Chain

  • Router Chain

  • 自定义Chain

  • 第十六章:Advanced RAG(1)

  • 经典RAG的几个问题

  • Self-querying retrieval

  • MultiQuery retriever

  • Step-back prompting

  • 基于历史对话重新生成Query

  • 其他Query优化相关策略

  • 第十七章:Advanced RAG(2)

  • Sentence window retrieval

  • Parent-child chunks retrieval

  • Fusion Retrieval

  • Ensemble Retrieval

  • RPF算法

  • 第十八章:基于RAGAS的RAG的评估

  • 为什么需要评估RAG

  • RAG中的评估思路

  • 评估指标设计

  • 套用在项目中进行评估

  • RAGAS评估框架的缺点

  • 第十九章:实战基于Advanced RAG的PDF问答

  • 需求理解和系统设计

  • 经典RAG架构下的问题

  • 检索器优化

  • 生成器优化

  • 系统部署与测试

  • 第四阶段 模型微调与私有化大模型

    第二十章:开源模型介绍

  • 模型私有化部署的必要性

  • 中英开源模型概览与分类

  • ChatGLM, Baichuan,Yi等中文开源模型

  • LLaMA,Mistral系列英文开源模型

  • 微调所需要的工具和算力

  • 第二十一章:模型微调基础

  • 判断是否需要模型微调

  • 模型微调对模型的影响和价值

  • 选择合适的基座模型

  • 数据集的准备

  • 微调训练框架的选择

  • 第二十二章:GPU与算力

  • GPU与CPU

  • GPU的计算特性

  • 微调所需要的算力计算公式

  • 常见GPU卡介绍与比较

  • 搭建GPU算力环境

  • 第二十三章:高效微调技术-LoRA

  • 全量微调与少量参数微调

  • 理解LoRA训练以及参数

  • PEFT库的使用

  • LoRA训练硬件资源评估

  • 认识QLoRA训练

  • 第二十四章:【项目实战3】基于ChatGLM-6B+LoRA对话微调模型

  • 理解Chat GLM模型 家族以及特性

  • 导入模型以及tokenizer

  • 设计模型参数以及LoRA参数

  • 训练以及部署微调模型

  • 测试微调模型

  • 第五阶段 Agent开发

    第二十五章:Agent开发基础

  • 什么是Agent

  • 什么是Plan, Action, Tools

  • 经典的Agent开源项目介绍

  • 编写简单的Agent程序

  • Agent目前面临的挑战与机遇

  • 第二十六章:自定义Agent工具

  • LangChain所支持的Agent

  • 什么需要自定义Agent

  • @tool decorator的使用

  • 编写自定义Agent工具

  • 编写完整的Agent小项目

  • 第二十七章:深入浅出ReAct框架

  • 回顾什么是CoT

  • CoT和Action的结合

  • 剖析ReAct框架的Prompt结构

  • 从零实现ReAct(from Scratch)

  • ReAct框架的优缺点分析

  • 第二十八章:【项目实战4】开源Agent项目

  • 开源Agent项目以及分类

  • AutoGPT项目讲解

  • MetaGPT项目讲解

  • 其他开源项目

  • Agent技术目前存在的问题

  • 第二十九章:深度剖析Agent核心部件

  • Agent的planning

  • Agent的reasoning

  • Agent的knowledge

  • Agent的memory

  • Agent的泛化能力

  • 第三十章:【项目实战5】基于Agent的AI模拟面试

  • 需求设计和系统设计

  • 工具的设计

  • AI面试中的深度询问方案设计

  • 提示工程设计

  • Memory的设计

  • 智能体开发与部署

  • 第三十一章:Agent其他案例分享

  • AI旅游规划师

  • AI产品销售

  • AI房租推荐

  • AI图像处理

  • AI网站开发

  • 第三十二章:其他Agent前沿应用

  • 多个Agent的协同

  • Agent的group行为

  • Agent Society

  • Agent的Personality

  • 斯坦福小镇案例

  • 第六阶段 智能设备与「小」模型

    第三十三章:智能设备上的模型优化基础

  • 智能设备特性以及资源限制

  • 模型优化的必要性

  • 常见的模型压缩技术

  • 轻量级模型架构介绍

  • 开源小模型

  • 第三十四章:模型在智能设备上的部署

  • 多大的模型适合

  • 部署流程概述

  • 模型转换工具

  • 模型部署实战

  • 性能测试与优化

  • 第三十五章:边缘计算中的大模型挑战与机遇

  • 边缘计算的概念和重要性

  • 模型所要满足的要求与性能上的平衡

  • 模型在边缘设备上的应用案例

  • 未来「小」模型发展趋势

  • 24年「小」模型机会

  • 第七阶段: 多模态大模型开发

    第三十六章:多模态大模型基础

  • 什么是多模态模型

  • 多模态的应用场景

  • DALLE-3与Midjourney

  • Stable Diffusion与ControlNet

  • 语音合成技术概述

  • 主流 TTS技术剖析

  • 第三十七章:多模态模型项目剖析

  • 多模态大模型最新进展

  • Sora对多模态大模型会产生什么影响

  • 案例:MiniGPT-4与多模态问答

  • 案例:BLIP与文本描述生成

  • 案例: Video-LLaVA与多模态图像视频识别

  • 第三十八章:大模型的挑战与未来

  • 大模型技术局限性

  • 大模型的隐私性和准确性

  • 大模型和AGI未来

  • GPT商城的机会

  • 多模态的机会

  • 对于开发工程师未来的启示

  • 【大模型微调实战营-应用篇】

    第一阶段:大模型基础

    第一章:开营典礼

  • 课程介绍与目标

  • 学习安排与课程结构

  • 学员参与要求

  • 课程项目与技术概览

  • 推荐工具和开源资源

  • 第二章:大模型是怎么炼成的

  • 大模型的概念与历史发展

  • 关键技术和算法基础

  • 数据准备与预处理

  • 预训练、指令微调、对齐

  • 模型评估以及能力分析

  • 第三章:微调的应用场景

  • 微调与全量训练的区别

  • 微调在不同领域的应用案例

  • 选择微调任务和数据

  • 微调的效果评估方法

  • 微调项目的规划与管理

  • 第四章:大模型基座-理解Transformer

  • Transformer模型的基础架构

  • Self-Attention机制的工作原理

  • Transformer在NLP任务中的应用

  • Transformer模型的变种与发展

  • 使用Transformer模型的实用技巧

  • Encoder和Decoder介绍

  • 第五章: 开源模型类别以及汇总

  • 常见的中英开源大模型介绍

  • 模型选择标准与评估

  • 开源模型的获取与使用

  • 社区支持与资源分享

  • 开源大模型发展方向

  • 第六章:【项目实战1】开源大模型以及部署

  • Huggingface介绍

  • 本地下载开源模型

  • 理解HF相应的库以及导入大模型

  • 模型封装以及部署

  • 性能优化与成本控制

  • 第二阶段:大模型指令微调

    第七章:指令微调基础

  • 指令微调的概念与应用价值

  • 指令集设计与实现

  • 微调流程与实践技巧

  • 性能评估与优化策略

  • 指令微调的挑战与解决方案

  • 第八章:LoRA参数微调

  • LoRA微调的方法

  • 实施LoRA微调的步骤

  • LoRA微调在实际项目中的应用

  • 性能评估与调优技巧

  • LoRA微调的局限与未来展望

  • 第九章:【项目实战2】LoRA微调Alpaca项目

  • Alpaca项目介绍

  • 指令数据的理解

  • LoRA微调的实施与调优

  • 项目评估与效果分析

  • 经验总结与案例分享

  • 第十章:模型压缩

  • 为什么需要大模型压缩

  • 模型压缩的方法与技术

  • 压缩对模型性能的影响

  • 压缩模型的常见方法

  • 模型服务化的最佳实践

  • 第十一章:QLoRA参数微调

  • QLoRA微调技术介绍

  • 微调策略与实施过程

  • 应用QLoRA的案例

  • QLoRA微调的性能调优

  • 面临的问题与解决方法

  • 第十二章:【项目实战3】QLoRA参数微调智能客服项目

  • 设计QLoRA微调方案

  • 准备数据与环境配置

  • 开源模型选择

  • 执行微调与性能监控

  • 项目经验分享与讨论

  • 第十三章:DeepSpeed训练框架解析

  • DeepSpeed框架概述

  • 配置与环境搭建

  • 在大模型训练中使用DeepSpeed

  • 分布式训练介绍

  • 框架背后技术实现

  • DeepSpeed参数理解

  • 实战案例与经验分享

  • 第十四章:Megatron-LM训练框架解析

  • Megatron-LM框架介绍

  • 框架安装与配置指南

  • 应用Megatron-LM进行模型训练

  • 框架背后技术实现

  • Megatron-LM参数理解

  • 实战案例与经验分享

  • 第十五章:Flash Attention技术应用

  • 为什么需要Flash Attention

  • GPU计算背景知识

  • Flash Attention技术背后

  • 在大模型中应用Flash Attention

  • 实际部署与应用案例

  • 第十六章:微调模型Benchmark

  • 微调模型性能测试的重要性

  • Benchmark工具与方法介绍

  • 执行Benchmark的步骤与技巧

  • 结果分析与解读

  • Benchmark设计与业务场景

  • 第十七章:【项目实战4】微调QLoRA+Flash Attention

  • 结合QLoRA和Flash Attention的策略

  • 微调与部署的一体化流程

  • 项目实施的关键步骤

  • 成果评估与性能优化

  • 经验分享与问题解决

  • 第三阶段:常用的开源模型微调

    第十八章:开源模型家族以及类别

  • 开源模型的概述

  • 常见的开源模型分类

  • 选择开源模型的考量因素

  • 开源模型的获取和使用指南

  • 维护和贡献开源模型的最佳实践

  • 第十九章:ChatGLM开源模型家族和应用

  • ChatGLM模型家族介绍

  • ChatGLM1到ChatGLM3迭代

  • ChatGLM的私有化部署

  • ChatGLM的特色

  • 微调ChatGLM模型的步骤和技巧

  • 微调案例分享

  • 第二十章:【项目实战5】ChatGLM微调医疗模型

  • 理解需求以及技术方案设计

  • 医疗指令数据的搜集

  • 医疗Benchmark的获取和整理

  • 微调ChatGLM+LoRA模型

  • 微调案例分享

  • 第二十一章:Qwen和YI开源模型家族和应用

  • Qwen和YI模型家族概述

  • 两个模型家族的迭代

  • Qwen和YI大模型的私有化部署

  • 两个大模型家族的特色

  • 微调Qwen和YI模型的实践指南

  • 微调案例分享

  • 第二十二章:LLaMA开源模型家族和应用

  • LLaMA模型家族特点

  • LLaMA大模型的迭代和架构变化

  • LLaMA大模型的私有化部署

  • 微调LLaMA模型的方法和建议

  • LLaMA模型微调的案例分析

  • 微调案例分享

  • 第二十三章:Mistral和Phi开源模型家族和应用

  • Mistral和Phi模型家族简介

  • Mistral和Phi在多语言中的应用

  • 两大模型家族的特色

  • 量大模型家族的私有化部署

  • 微调Mistral和Phi模型的流程

  • 微调案例分享

  • 第二十四章:MoE模型特点以及应用

  • MoE(Mixture of Experts)模型概念

  • MoE模型在大规模数据处理中的优势

  • 微调MoE模型的关键点

  • MoE模型的应用案例

  • MoE模型的扩展性和可维护性问题

  • Mistral 8x7b

  • 微调案例分享

  • 第二十五章:【项目实战6】Mistra 8x7B微调智能客服模型

  • 理解需求以及技术方案设计

  • 智能客服指令数据收集

  • Benchmark的获取和整理

  • 微调Mistra 8x7b+QLoRA模型

  • 模型评估以及验收报告制作

  • 第二十六章:其他开源模型以及应用

  • Baichuan中文大模型

  • Falcon模型家族

  • Bloom模型介绍

  • 不同领域开源模型的应用实例

  • 微调这些开源模型的技术指导

  • 第二十七章:开源模型特色以及选择

  • 评估开源模型的关键标准

  • 匹配项目需求和模型特性

  • 实践中选择开源模型的经验分享

  • 开源模型使用中的常见陷阱

  • 社区和资源的重要性

  • 第四阶段:大模型对齐

    第二十八章:大模型对齐基础

  • 大模型对齐的重要性和应用场景

  • 基本对齐技术和方法概述

  • 对齐过程中的数据处理和预处理

  • 模型对齐的评估指标

  • 大模型对齐的挑战和策略

  • 第二十九章:用于对齐的开源数据

  • 开源数据集的重要性和来源

  • 选择和处理对齐用的开源数据

  • 开源数据在模型对齐中的应用

  • 数据隐私和伦理考量

  • 维护和更新开源数据集

  • 第三十章:RLHF技术和应用

  • RLHF(强化学习从人类反馈)技术介绍

  • RLHF在模型对齐中的应用案例

  • 实施RLHF技术的步骤

  • RLHF技术的效果评估

  • 解决RLHF应用中的问题

  • RLHF实战案例分析

  • 第三十一章:DPO技术和应用

  • DPO(Direct Preference Optimization)概念

  • DPO在优化模型对齐中的作用

  • 实现DPO的关键技术点

  • DPO应用的案例和效果分析

  • DPO技术的挑战和前景

  • DPO实战案例分享

  • 第三十二章:【项目实战7】RLHF推荐模型对齐项目

  • 需求分析以及技术方案设计

  • 数据收集和预处理

  • 训练Reward Model

  • 训练RLHF完整微调

  • 项目的评估和优化

  • 第三十三章:【项目实战8】DPO推荐模型对齐项目

  • 需求分析以及技术方案设计

  • 对齐数据的准备和处理

  • 执行DPO模型对齐流程

  • 对齐效果的评估和调整

  • 项目中遇到的挑战

  • 第三十四章:讨论大模型对齐

  • 当前大模型对齐技术的发展趋势

  • 模型对齐在大模型中的真正价值

  • 对齐在工程上挑战

  • 模型对齐技术的伦理和社会影响

  • 资源推荐和学习路径

  • 第五阶段:垂直领域大模型应用

    第三十五章:垂直领域大模型微调基础

  • 垂直领域的研发符合中国现状

  • 垂直领域大模型研发pipeline

  • 微调大模型的基本方法和流程

  • 选择合适的微调策略

  • 微调中的性能优化技巧

  • 微调项目的评估和调整

  • 第三十六章:医疗领域大模型微调

  • 智能问诊领域的应用场景和需求

  • 大模型能力维度设计

  • 领域内benchmark设计

  • 快速测试开源模型能力并选择合适的模型

  • 微调模型以适应医疗数据

  • 模型部署以及RAG设计

  • 第三十七章:金融领域大模型微调

  • 金融领域通用大模型需求分析

  • 金融领域大模型benchmark

  • XuanYuan开源项目剖析

  • 金融领域大模型案例解读

  • 微调模型在金融Benchmark上的评估

  • 金融领域中的未来潜在落地场景

  • 第三十八章:教育领域大模型微调

  • 教育领域的大模型应用场景和需求

  • 微调大模型进行个性化学习支持

  • EduChat开源项目剖析

  • 指令数据和对齐数据的整理

  • Benchmark以及大模型评估

  • 教育领域中的未来潜在落地场景

  • 第三十九章:课程总结以及结营

  • 课程学习要点回顾

  • 项目成果分享和评估

  • 学习心得和经验交流

  • 未来发展趋势和学习路径

  • 【大模型开发应用实战营】

    (不限年龄!不限岗位!有Python基础的IT从业者都推荐学习)

    类别

    说明

    程形式

    线上直播+课程学习群答疑

    课程安排

    20次直播授课,每周2次,每次1.5-2小时

    课程服务

    25人以内学习群,助教答疑,保证遇到的问题被快速解决

    专属咨询顾问与班主任老师全程伴学

    全程直播讲解与演示+可反复观看课程视频

    不管你是 前端开发、后端开发、测试、算法、数据分析 ......只要你想了解AI应用开发,这门课就适合你!

    【大模型微调实战营-应用篇】

    (适合有Python基础的开发与算法从业者)

    类别

    说明

    程形式

    线上直播+课程学习群答疑

    课程安排

    11次直播授课,每周1次,每次3-3.5小时

    课程服务

    25人以内学习群,助教答疑,保证遇到的问题被快速解决

    专属咨询顾问与班主任老师全程伴学

    全程直播讲解与演示+可反复观看课程视频

    课程主讲

    李文哲

    贪心科技创始人兼CEO

    人工智能、大模型领域专家

  • 多家上市公司技术战略顾问

  • 曾任金融科技独角兽公司首席科学家

  • 曾任量化投资初创公司首席科学家

  • 曾任美国亚马逊推荐系统工程师

  • 深耕人工智能领域十余年,授课培养AI学员数万人

  • 刘老师

    大模型开发与微调领域专家

  • 贪心科技资深算法工程师

  • 拥有丰富的大模型应用开发与微调经验,曾参与基于大模型的智能客服、智能招聘系统、无人直播、面试机器人、智能助教、等数十余个项目的开发和落地

  • 报名咨询

    已为本号用户申请优惠!

    前20位 报名学员享受 早鸟福利价

    请联系课程顾问老师咨询~