當前位置: 妍妍網 > 碼農

吳恩達:AI Agent工作流,下一個突破方向!全套教程在這裏

2024-04-01碼農

全球首位AI程式設計師Devin誕生了,還是個全棧工程師,能夠熟練進行雲端部署、編寫底層程式碼、改bug、甚至連訓練和微調AI大模型都輕車熟路,說好的AI替代人類,難道先從程式設計師下手了?

實際上用AI打造程式設計師並不是那麽新鮮的事情,其實從去年開始就有很多這方面的有趣的嘗試,比如 ChatDev 計畫,在github上已經斬獲2萬顆星,也是在AI程式設計師的打造上大膽的一項嘗試。

在一個軟體計畫當中,我們可以定義CEO、CTO、開發工程師、測試人員、產品經理等各類的角色,讓這些角色根據使用者提供的需求自行完成一個軟體開發計畫。這些角色之前可以對話、可以開會、討論問題並達成結論。源碼地址:https://github.com/OpenBMB/ChatDev

在ChatDev之前,還有一個計畫特別火,而且ChatDev也是借鑒了這個計畫,叫作史丹佛小鎮,用AI技術構造很多角色,讓這些角色在虛擬世界裏生活,它們之間可以無縫交流,組織活動、一起解決問題。源碼地址:https://github.com/joonspk-research/generative_agents

這些計畫歸根揭底來自Agent技術,在Agent框架下大模型可以起到控制流程的作用,它可以帶領每個領域的專家協作完成一個任務。用Agent開發AI程式設計師僅僅是Agent領域的一個套用場景,你也可以基於Agent來寫一個完整的小說、生成完整的課程、組織一場社群活動等,這裏有太多的想象空間。

我們一直認為2024年是Agent領域爆發的一年,很多公司也會開始下場做Agent的開發計畫,那作為開發工程師或者演算法工程師,在24年從事一項Agent計畫必定是職業生涯最好的選擇,能夠踏上這一班車意味著比別人領先一大步。

那如何學習Agent?市面上有體系的教程比較少、都是碎片化的內容。在這裏,我們強烈推薦貪心科技釋出的 【大模型開發套用實戰營 】+ 【大模型微調實戰營-套用篇 】組合學習路徑 ,從 課程內容豐富 度,知識前沿性,講師專業度,體系化設計 等各個維度可以說做到了遙遙領先,會讓你在短時間內快速上手實作達模型類計畫,極大提升學習效率。

感興趣的朋友歡迎掃描下方二維碼咨詢,具體大綱詳見下面。

已為本號使用者申請優惠!

前20位 報名學員享受 早鳥福利價

請聯系課程顧問老師咨詢~

詳細大綱

【大模型開發套用實戰營】

第一階段 大模型開發基礎

第一章:開營典禮

  • 為什麽要學習大模型開發?

  • 對學員期望與課程目標

  • 課程安排概覽

  • 學習評估

  • 需要準備的工具和環境

  • 第二章:大模型的訓練與套用

  • 大模型發展史

  • 從大模型預訓練、微調到套用

  • GPT結構剖析

  • 大模型家族、類別、套用場景

  • RAG,Agent與小模型

  • 第三章:大模型實操與API呼叫

  • 透過API呼叫大模型

  • 單論對話與多輪對話呼叫

  • 開源模型與閉源模型呼叫

  • ChatGLM ,Baichuan,Yi-34B呼叫

  • GPT,LLaMA模型呼叫

  • 模型的部署、容器化

  • 第四章:提示工程技術(1)

  • 提示詞的常見結構

  • 提示詞的模版化

  • Zero-shot與Few-shot

  • In-context learning

  • Chain of thought prompting

  • 第五章:提示工程技術(2)

  • Tree of thought prompting

  • Graph of thought promting

  • Self-consistency

  • Active-prompt

  • Prompt chaining

  • 第二階段 RAG基礎與架構

    第六章:RAG基礎與架構

  • 為什麽需要RAG?

  • RAG的經典套用場景

  • RAG的經典結構與模組

  • 向量資料庫

  • 檢索與生成

  • 第七章:【計畫實戰1】基於RAG的PDF文件助手

  • 產品介紹與核心功能

  • 技術方案與架構設計

  • 文件讀取和解析

  • 文件的切分和文件向量化

  • query搜尋與文件排序

  • 提示模版與大模型API接入

  • 模型部署與Web套用

  • 第八章:文件切分常見演算法

  • 根據每個Sentence切分

  • 根據固定字元數切分

  • 根據固定sentence數切分

  • 根據遞迴字元來切分

  • 根據語意相似度來切分

  • 第九章:向量資料庫常見演算法

  • 常用向量資料庫以及類別

  • 向量資料庫與索引演算法

  • 到排表與搜尋最佳化

  • KNN與近似KNN

  • Product Quantization

  • 第十章:向量資料庫演算法進階- HSNW

  • HSNW演算法在索引中的重要性

  • NSW演算法解讀

  • NSW圖中的搜尋問題

  • Skip List講解

  • 具有階層的NSW

  • 第十一章:【計畫實戰2】基於RAG的新聞推薦系統

  • 推薦系統原理、套用場景以及架構剖析

  • 傳統推薦演算法與基於LLM推薦演算法

  • 新聞數據的準備與整理

  • 推薦中的召回與精排

  • 精排與Prompt構建

  • 模型部署與測試

  • 第三階段 RAG與 LangChain

    第十二章:LangChain基礎套用

  • 為什麽需要LangChain?

  • 透過一個小計畫快速理解各個模組

  • LangChain呼叫模型

  • PromptTemplate的套用

  • 輸出格式設定

  • Pydantic Object設計

  • 第十三章:理解Function Calling

  • 什麽是 Function Calling

  • 自訂輸出結構

  • 基於OpenAI呼叫Function Calling

  • Function Calling的穩定性

  • LangChain與Function Calling

  • 第十四章:LangChain與Retrieval元件

  • Document Loaders

  • Text Splitters

  • Text Embedding模型

  • 常用的向量資料庫呼叫

  • 常用的Retriever

  • 第十五章:LangChain與Chain元件

  • 為什麽需要Chain?

  • LLMChain, Sequential Chain

  • Transform Chain

  • Router Chain

  • 自訂Chain

  • 第十六章:Advanced RAG(1)

  • 經典RAG的幾個問題

  • Self-querying retrieval

  • MultiQuery retriever

  • Step-back prompting

  • 基於歷史對話重新生成Query

  • 其他Query最佳化相關策略

  • 第十七章:Advanced RAG(2)

  • Sentence window retrieval

  • Parent-child chunks retrieval

  • Fusion Retrieval

  • Ensemble Retrieval

  • RPF演算法

  • 第十八章:基於RAGAS的RAG的評估

  • 為什麽需要評估RAG

  • RAG中的評估思路

  • 評估指標設計

  • 套用在計畫中進行評估

  • RAGAS評估框架的缺點

  • 第十九章:實戰基於Advanced RAG的PDF問答

  • 需求理解和系統設計

  • 經典RAG架構下的問題

  • 檢索器最佳化

  • 生成器最佳化

  • 系統部署與測試

  • 第四階段 模型微調與私有化大模型

    第二十章:開源模型介紹

  • 模型私有化部署的必要性

  • 中英開源模型概覽與分類

  • ChatGLM, Baichuan,Yi等中文開源模型

  • LLaMA,Mistral系列英文開源模型

  • 微調所需要的工具和算力

  • 第二十一章:模型微調基礎

  • 判斷是否需要模型微調

  • 模型微調對模型的影響和價值

  • 選擇合適的基座模型

  • 數據集的準備

  • 微調訓練框架的選擇

  • 第二十二章:GPU與算力

  • GPU與CPU

  • GPU的計算特性

  • 微調所需要的算力計算公式

  • 常見GPU卡介紹與比較

  • 搭建GPU算力環境

  • 第二十三章:高效微調技術-LoRA

  • 全量微調與少量參數微調

  • 理解LoRA訓練以及參數

  • PEFT庫的使用

  • LoRA訓練硬體資源評估

  • 認識QLoRA訓練

  • 第二十四章:【計畫實戰3】基於ChatGLM-6B+LoRA對話微調模型

  • 理解Chat GLM模型 家族以及特性

  • 匯入模型以及tokenizer

  • 設計模型參數以及LoRA參數

  • 訓練以及部署微調模型

  • 測試微調模型

  • 第五階段 Agent開發

    第二十五章:Agent開發基礎

  • 什麽是Agent

  • 什麽是Plan, Action, Tools

  • 經典的Agent開源計畫介紹

  • 編寫簡單的Agent程式

  • Agent目前面臨的挑戰與機遇

  • 第二十六章:自訂Agent工具

  • LangChain所支持的Agent

  • 什麽需要自訂Agent

  • @tool decorator的使用

  • 編寫自訂Agent工具

  • 編寫完整的Agent小計畫

  • 第二十七章:深入淺出ReAct框架

  • 回顧什麽是CoT

  • CoT和Action的結合

  • 剖析ReAct框架的Prompt結構

  • 從零實作ReAct(from Scratch)

  • ReAct框架的優缺點分析

  • 第二十八章:【計畫實戰4】開源Agent計畫

  • 開源Agent計畫以及分類

  • AutoGPT計畫講解

  • MetaGPT計畫講解

  • 其他開源計畫

  • Agent技術目前存在的問題

  • 第二十九章:深度剖析Agent核心部件

  • Agent的planning

  • Agent的reasoning

  • Agent的knowledge

  • Agent的memory

  • Agent的泛化能力

  • 第三十章:【計畫實戰5】基於Agent的AI模擬面試

  • 需求設計和系統設計

  • 工具的設計

  • AI面試中的深度詢問方案設計

  • 提示工程設計

  • Memory的設計

  • 智慧體開發與部署

  • 第三十一章:Agent其他案例分享

  • AI旅遊規劃師

  • AI產品銷售

  • AI房租推薦

  • AI影像處理

  • AI網站開發

  • 第三十二章:其他Agent前沿套用

  • 多個Agent的協同

  • Agent的group行為

  • Agent Society

  • Agent的Personality

  • 史丹佛小鎮案例

  • 第六階段 智慧裝置與「小」模型

    第三十三章:智慧裝置上的模型最佳化基礎

  • 智慧裝置特性以及資源限制

  • 模型最佳化的必要性

  • 常見的模型壓縮技術

  • 輕量級模型架構介紹

  • 開源小模型

  • 第三十四章:模型在智慧裝置上的部署

  • 多大的模型適合

  • 部署流程概述

  • 模型轉換工具

  • 模型部署實戰

  • 效能測試與最佳化

  • 第三十五章:邊緣計算中的大模型挑戰與機遇

  • 邊緣計算的概念和重要性

  • 模型所要滿足的要求與效能上的平衡

  • 模型在邊緣裝置上的套用案例

  • 未來「小」模型發展趨勢

  • 24年「小」模型機會

  • 第七階段: 多模態大模型開發

    第三十六章:多模態大模型基礎

  • 什麽是多模態模型

  • 多模態的套用場景

  • DALLE-3與Midjourney

  • Stable Diffusion與ControlNet

  • 語音合成技術概述

  • 主流 TTS技術剖析

  • 第三十七章:多模態模型計畫剖析

  • 多模態大模型最新進展

  • Sora對多模態大模型會產生什麽影響

  • 案例:MiniGPT-4與多模態問答

  • 案例:BLIP與文本描述生成

  • 案例: Video-LLaVA與多模態影像視訊辨識

  • 第三十八章:大模型的挑戰與未來

  • 大模型技術局限性

  • 大模型的私密性和準確性

  • 大模型和AGI未來

  • GPT商城的機會

  • 多模態的機會

  • 對於開發工程師未來的啟示

  • 【大模型微調實戰營-套用篇】

    第一階段:大模型基礎

    第一章:開營典禮

  • 課程介紹與目標

  • 學習安排與課程結構

  • 學員參與要求

  • 課程計畫與技術概覽

  • 推薦工具和開源資源

  • 第二章:大模型是怎麽煉成的

  • 大模型的概念與歷史發展

  • 關鍵技術和演算法基礎

  • 數據準備與預處理

  • 預訓練、指令微調、對齊

  • 模型評估以及能力分析

  • 第三章:微調的套用場景

  • 微調與全量訓練的區別

  • 微調在不同領域的套用案例

  • 選擇微調任務和數據

  • 微調的效果評估方法

  • 微調計畫的規劃與管理

  • 第四章:大模型基座-理解Transformer

  • Transformer模型的基礎架構

  • Self-Attention機制的工作原理

  • Transformer在NLP任務中的套用

  • Transformer模型的變種與發展

  • 使用Transformer模型的實用技巧

  • Encoder和Decoder介紹

  • 第五章: 開源模型類別以及匯總

  • 常見的中英開源大模型介紹

  • 模型選擇標準與評估

  • 開源模型的獲取與使用

  • 社群支持與資源分享

  • 開源大模型發展方向

  • 第六章:【計畫實戰1】開源大模型以及部署

  • Huggingface介紹

  • 本地下載開源模型

  • 理解HF相應的庫以及匯入大模型

  • 模型封裝以及部署

  • 效能最佳化與成本控制

  • 第二階段:大模型指令微調

    第七章:指令微調基礎

  • 指令微調的概念與套用價值

  • 指令集設計與實作

  • 微調流程與實踐技巧

  • 效能評估與最佳化策略

  • 指令微調的挑戰與解決方案

  • 第八章:LoRA參數微調

  • LoRA微調的方法

  • 實施LoRA微調的步驟

  • LoRA微調在實際計畫中的套用

  • 效能評估與調優技巧

  • LoRA微調的局限與未來展望

  • 第九章:【計畫實戰2】LoRA微調Alpaca計畫

  • Alpaca計畫介紹

  • 指令數據的理解

  • LoRA微調的實施與調優

  • 計畫評估與效果分析

  • 經驗總結與案例分享

  • 第十章:模型壓縮

  • 為什麽需要大模型壓縮

  • 模型壓縮的方法與技術

  • 壓縮對模型效能的影響

  • 壓縮模型的常見方法

  • 模型服務化的最佳實踐

  • 第十一章:QLoRA參數微調

  • QLoRA微調技術介紹

  • 微調策略與實施過程

  • 套用QLoRA的案例

  • QLoRA微調的效能調優

  • 面臨的問題與解決方法

  • 第十二章:【計畫實戰3】QLoRA參數微調智慧客服計畫

  • 設計QLoRA微調方案

  • 準備數據與環境配置

  • 開源模型選擇

  • 執行微調與效能監控

  • 計畫經驗分享與討論

  • 第十三章:DeepSpeed訓練框架解析

  • DeepSpeed框架概述

  • 配置與環境搭建

  • 在大模型訓練中使用DeepSpeed

  • 分布式訓練介紹

  • 框架背後技術實作

  • DeepSpeed參數理解

  • 實戰案例與經驗分享

  • 第十四章:Megatron-LM訓練框架解析

  • Megatron-LM框架介紹

  • 框架安裝與配置指南

  • 套用Megatron-LM進行模型訓練

  • 框架背後技術實作

  • Megatron-LM參數理解

  • 實戰案例與經驗分享

  • 第十五章:Flash Attention技術套用

  • 為什麽需要Flash Attention

  • GPU計算背景知識

  • Flash Attention技術背後

  • 在大模型中套用Flash Attention

  • 實際部署與套用案例

  • 第十六章:微調模型Benchmark

  • 微調模型效能測試的重要性

  • Benchmark工具與方法介紹

  • 執行Benchmark的步驟與技巧

  • 結果分析與解讀

  • Benchmark設計與業務場景

  • 第十七章:【計畫實戰4】微調QLoRA+Flash Attention

  • 結合QLoRA和Flash Attention的策略

  • 微調與部署的一體化流程

  • 計畫實施的關鍵步驟

  • 成果評估與效能最佳化

  • 經驗分享與問題解決

  • 第三階段:常用的開源模型微調

    第十八章:開源模型家族以及類別

  • 開源模型的概述

  • 常見的開源模型分類

  • 選擇開源模型的考量因素

  • 開源模型的獲取和使用指南

  • 維護和貢獻開源模型的最佳實踐

  • 第十九章:ChatGLM開源模型家族和套用

  • ChatGLM模型家族介紹

  • ChatGLM1到ChatGLM3叠代

  • ChatGLM的私有化部署

  • ChatGLM的特色

  • 微調ChatGLM模型的步驟和技巧

  • 微調案例分享

  • 第二十章:【計畫實戰5】ChatGLM微調醫療模型

  • 理解需求以及技術方案設計

  • 醫療指令數據的搜集

  • 醫療Benchmark的獲取和整理

  • 微調ChatGLM+LoRA模型

  • 微調案例分享

  • 第二十一章:Qwen和YI開源模型家族和套用

  • Qwen和YI模型家族概述

  • 兩個模型家族的叠代

  • Qwen和YI大模型的私有化部署

  • 兩個大模型家族的特色

  • 微調Qwen和YI模型的實踐指南

  • 微調案例分享

  • 第二十二章:LLaMA開源模型家族和套用

  • LLaMA模型家族特點

  • LLaMA大模型的叠代和架構變化

  • LLaMA大模型的私有化部署

  • 微調LLaMA模型的方法和建議

  • LLaMA模型微調的案例分析

  • 微調案例分享

  • 第二十三章:Mistral和Phi開源模型家族和套用

  • Mistral和Phi模型家族簡介

  • Mistral和Phi在多語言中的套用

  • 兩大模型家族的特色

  • 量大模型家族的私有化部署

  • 微調Mistral和Phi模型的流程

  • 微調案例分享

  • 第二十四章:MoE模型特點以及套用

  • MoE(Mixture of Experts)模型概念

  • MoE模型在大規模數據處理中的優勢

  • 微調MoE模型的關鍵點

  • MoE模型的套用案例

  • MoE模型的擴充套件性和可維護性問題

  • Mistral 8x7b

  • 微調案例分享

  • 第二十五章:【計畫實戰6】Mistra 8x7B微調智慧客服模型

  • 理解需求以及技術方案設計

  • 智慧客服指令數據收集

  • Benchmark的獲取和整理

  • 微調Mistra 8x7b+QLoRA模型

  • 模型評估以及驗收報告制作

  • 第二十六章:其他開源模型以及套用

  • Baichuan中文大模型

  • Falcon模型家族

  • Bloom模型介紹

  • 不同領域開源模型的套用例項

  • 微調這些開源模型的技術指導

  • 第二十七章:開源模型特色以及選擇

  • 評估開源模型的關鍵標準

  • 匹配計畫需求和模型特性

  • 實踐中選擇開源模型的經驗分享

  • 開源模型使用中的常見陷阱

  • 社群和資源的重要性

  • 第四階段:大模型對齊

    第二十八章:大模型對齊基礎

  • 大模型對齊的重要性和套用場景

  • 基本對齊技術和方法概述

  • 對齊過程中的數據處理和預處理

  • 模型對齊的評估指標

  • 大模型對齊的挑戰和策略

  • 第二十九章:用於對齊的開源數據

  • 開源數據集的重要性和來源

  • 選擇和處理對齊用的開源數據

  • 開源數據在模型對齊中的套用

  • 數據私密和倫理考量

  • 維護和更新開源數據集

  • 第三十章:RLHF技術和套用

  • RLHF(強化學習從人類反饋)技術介紹

  • RLHF在模型對齊中的套用案例

  • 實施RLHF技術的步驟

  • RLHF技術的效果評估

  • 解決RLHF套用中的問題

  • RLHF實戰案例分析

  • 第三十一章:DPO技術和套用

  • DPO(Direct Preference Optimization)概念

  • DPO在最佳化模型對齊中的作用

  • 實作DPO的關鍵技術點

  • DPO套用的案例和效果分析

  • DPO技術的挑戰和前景

  • DPO實戰案例分享

  • 第三十二章:【計畫實戰7】RLHF推薦模型對齊計畫

  • 需求分析以及技術方案設計

  • 數據收集和預處理

  • 訓練Reward Model

  • 訓練RLHF完整微調

  • 計畫的評估和最佳化

  • 第三十三章:【計畫實戰8】DPO推薦模型對齊計畫

  • 需求分析以及技術方案設計

  • 對齊數據的準備和處理

  • 執行DPO模型對齊流程

  • 對齊效果的評估和調整

  • 計畫中遇到的挑戰

  • 第三十四章:討論大模型對齊

  • 當前大模型對齊技術的發展趨勢

  • 模型對齊在大模型中的真正價值

  • 對齊在工程上挑戰

  • 模型對齊技術的倫理和社會影響

  • 資源推薦和學習路徑

  • 第五階段:垂直領域大模型套用

    第三十五章:垂直領域大模型微調基礎

  • 垂直領域的研發符合中國現狀

  • 垂直領域大模型研發pipeline

  • 微調大模型的基本方法和流程

  • 選擇合適的微調策略

  • 微調中的效能最佳化技巧

  • 微調計畫的評估和調整

  • 第三十六章:醫療領域大模型微調

  • 智慧問診領域的套用場景和需求

  • 大模型能力維度設計

  • 領域內benchmark設計

  • 快速測試開源模型能力並選擇合適的模型

  • 微調模型以適應醫療數據

  • 模型部署以及RAG設計

  • 第三十七章:金融領域大模型微調

  • 金融領域通用大模型需求分析

  • 金融領域大模型benchmark

  • XuanYuan開源計畫剖析

  • 金融領域大模型案例解讀

  • 微調模型在金融Benchmark上的評估

  • 金融領域中的未來潛在落地場景

  • 第三十八章:教育領域大模型微調

  • 教育領域的大模型套用場景和需求

  • 微調大模型進行個人化學習支持

  • EduChat開源計畫剖析

  • 指令數據和對齊數據的整理

  • Benchmark以及大模型評估

  • 教育領域中的未來潛在落地場景

  • 第三十九章:課程總結以及結營

  • 課程學習要點回顧

  • 計畫成果分享和評估

  • 學習心得和經驗交流

  • 未來發展趨勢和學習路徑

  • 【大模型開發套用實戰營】

    (不限年齡!不限崗位!有Python基礎的IT從業者都推薦學習)

    類別

    說明

    程形式

    線上直播+課程學習群答疑

    課程安排

    20次直播授課,每周2次,每次1.5-2小時

    課程服務

    25人以內學習群,助教答疑,保證遇到的問題被快速解決

    專屬咨詢顧問與班主任老師全程伴學

    全程直播講解與演示+可反復觀看課程視訊

    不管你是 前端開發、後端開發、測試、演算法、數據分析 ......只要你想了解AI套用開發,這門課就適合你!

    【大模型微調實戰營-套用篇】

    (適合有Python基礎的開發與演算法從業者)

    類別

    說明

    程形式

    線上直播+課程學習群答疑

    課程安排

    11次直播授課,每周1次,每次3-3.5小時

    課程服務

    25人以內學習群,助教答疑,保證遇到的問題被快速解決

    專屬咨詢顧問與班主任老師全程伴學

    全程直播講解與演示+可反復觀看課程視訊

    課程主講

    李文哲

    貪心科技創始人兼CEO

    人工智慧、大模型領域專家

  • 多家上市公司技術戰略顧問

  • 曾任金融科技獨角獸公司首席科學家

  • 曾任量化投資初創公司首席科學家

  • 曾任美國亞馬遜推薦系統工程師

  • 深耕人工智慧領域十余年,授課培養AI學員數萬人

  • 劉老師

    大模型開發與微調領域專家

  • 貪心科技資深演算法工程師

  • 擁有豐富的大模型套用開發與微調經驗,曾參與基於大模型的智慧客服、智慧招聘系統、無人直播、面試機器人、智慧助教、等數十余個計畫的開發和落地

  • 報名咨詢

    已為本號使用者申請優惠!

    前20位 報名學員享受 早鳥福利價

    請聯系課程顧問老師咨詢~