全球首位AI程式設計師Devin誕生了,還是個全棧工程師,能夠熟練進行雲端部署、編寫底層程式碼、改bug、甚至連訓練和微調AI大模型都輕車熟路,說好的AI替代人類,難道先從程式設計師下手了?
實際上用AI打造程式設計師並不是那麽新鮮的事情,其實從去年開始就有很多這方面的有趣的嘗試,比如 ChatDev 計畫,在github上已經斬獲2萬顆星,也是在AI程式設計師的打造上大膽的一項嘗試。
在一個軟體計畫當中,我們可以定義CEO、CTO、開發工程師、測試人員、產品經理等各類的角色,讓這些角色根據使用者提供的需求自行完成一個軟體開發計畫。這些角色之前可以對話、可以開會、討論問題並達成結論。源碼地址:https://github.com/OpenBMB/ChatDev
在ChatDev之前,還有一個計畫特別火,而且ChatDev也是借鑒了這個計畫,叫作史丹佛小鎮,用AI技術構造很多角色,讓這些角色在虛擬世界裏生活,它們之間可以無縫交流,組織活動、一起解決問題。源碼地址:https://github.com/joonspk-research/generative_agents
這些計畫歸根揭底來自Agent技術,在Agent框架下大模型可以起到控制流程的作用,它可以帶領每個領域的專家協作完成一個任務。用Agent開發AI程式設計師僅僅是Agent領域的一個套用場景,你也可以基於Agent來寫一個完整的小說、生成完整的課程、組織一場社群活動等,這裏有太多的想象空間。
我們一直認為2024年是Agent領域爆發的一年,很多公司也會開始下場做Agent的開發計畫,那作為開發工程師或者演算法工程師,在24年從事一項Agent計畫必定是職業生涯最好的選擇,能夠踏上這一班車意味著比別人領先一大步。
那如何學習Agent?市面上有體系的教程比較少、都是碎片化的內容。在這裏,我們強烈推薦貪心科技釋出的 【大模型開發套用實戰營 】+ 【大模型微調實戰營-套用篇 】組合學習路徑 ,從 課程內容豐富 度,知識前沿性,講師專業度,體系化設計 等各個維度可以說做到了遙遙領先,會讓你在短時間內快速上手實作達模型類計畫,極大提升學習效率。
感興趣的朋友歡迎掃描下方二維碼咨詢,具體大綱詳見下面。
已為本號使用者申請優惠!
前20位 報名學員享受 早鳥福利價 !
請聯系課程顧問老師咨詢~
詳細大綱
【大模型開發套用實戰營】
第一階段 大模型開發基礎
第一章:開營典禮
為什麽要學習大模型開發?
對學員期望與課程目標
課程安排概覽
學習評估
需要準備的工具和環境
第二章:大模型的訓練與套用
大模型發展史
從大模型預訓練、微調到套用
GPT結構剖析
大模型家族、類別、套用場景
RAG,Agent與小模型
第三章:大模型實操與API呼叫
透過API呼叫大模型
單論對話與多輪對話呼叫
開源模型與閉源模型呼叫
ChatGLM ,Baichuan,Yi-34B呼叫
GPT,LLaMA模型呼叫
模型的部署、容器化
第四章:提示工程技術(1)
提示詞的常見結構
提示詞的模版化
Zero-shot與Few-shot
In-context learning
Chain of thought prompting
第五章:提示工程技術(2)
Tree of thought prompting
Graph of thought promting
Self-consistency
Active-prompt
Prompt chaining
第二階段 RAG基礎與架構
第六章:RAG基礎與架構
為什麽需要RAG?
RAG的經典套用場景
RAG的經典結構與模組
向量資料庫
檢索與生成
第七章:【計畫實戰1】基於RAG的PDF文件助手
產品介紹與核心功能
技術方案與架構設計
文件讀取和解析
文件的切分和文件向量化
query搜尋與文件排序
提示模版與大模型API接入
模型部署與Web套用
第八章:文件切分常見演算法
根據每個Sentence切分
根據固定字元數切分
根據固定sentence數切分
根據遞迴字元來切分
根據語意相似度來切分
第九章:向量資料庫常見演算法
常用向量資料庫以及類別
向量資料庫與索引演算法
到排表與搜尋最佳化
KNN與近似KNN
Product Quantization
第十章:向量資料庫演算法進階- HSNW
HSNW演算法在索引中的重要性
NSW演算法解讀
NSW圖中的搜尋問題
Skip List講解
具有階層的NSW
第十一章:【計畫實戰2】基於RAG的新聞推薦系統
推薦系統原理、套用場景以及架構剖析
傳統推薦演算法與基於LLM推薦演算法
新聞數據的準備與整理
推薦中的召回與精排
精排與Prompt構建
模型部署與測試
第三階段 RAG與 LangChain
第十二章:LangChain基礎套用
為什麽需要LangChain?
透過一個小計畫快速理解各個模組
LangChain呼叫模型
PromptTemplate的套用
輸出格式設定
Pydantic Object設計
第十三章:理解Function Calling
什麽是 Function Calling
自訂輸出結構
基於OpenAI呼叫Function Calling
Function Calling的穩定性
LangChain與Function Calling
第十四章:LangChain與Retrieval元件
Document Loaders
Text Splitters
Text Embedding模型
常用的向量資料庫呼叫
常用的Retriever
第十五章:LangChain與Chain元件
為什麽需要Chain?
LLMChain, Sequential Chain
Transform Chain
Router Chain
自訂Chain
第十六章:Advanced RAG(1)
經典RAG的幾個問題
Self-querying retrieval
MultiQuery retriever
Step-back prompting
基於歷史對話重新生成Query
其他Query最佳化相關策略
第十七章:Advanced RAG(2)
Sentence window retrieval
Parent-child chunks retrieval
Fusion Retrieval
Ensemble Retrieval
RPF演算法
第十八章:基於RAGAS的RAG的評估
為什麽需要評估RAG
RAG中的評估思路
評估指標設計
套用在計畫中進行評估
RAGAS評估框架的缺點
第十九章:實戰基於Advanced RAG的PDF問答
需求理解和系統設計
經典RAG架構下的問題
檢索器最佳化
生成器最佳化
系統部署與測試
第四階段 模型微調與私有化大模型
第二十章:開源模型介紹
模型私有化部署的必要性
中英開源模型概覽與分類
ChatGLM, Baichuan,Yi等中文開源模型
LLaMA,Mistral系列英文開源模型
微調所需要的工具和算力
第二十一章:模型微調基礎
判斷是否需要模型微調
模型微調對模型的影響和價值
選擇合適的基座模型
數據集的準備
微調訓練框架的選擇
第二十二章:GPU與算力
GPU與CPU
GPU的計算特性
微調所需要的算力計算公式
常見GPU卡介紹與比較
搭建GPU算力環境
第二十三章:高效微調技術-LoRA
全量微調與少量參數微調
理解LoRA訓練以及參數
PEFT庫的使用
LoRA訓練硬體資源評估
認識QLoRA訓練
第二十四章:【計畫實戰3】基於ChatGLM-6B+LoRA對話微調模型
理解Chat GLM模型 家族以及特性
匯入模型以及tokenizer
設計模型參數以及LoRA參數
訓練以及部署微調模型
測試微調模型
第五階段 Agent開發
第二十五章:Agent開發基礎
什麽是Agent
什麽是Plan, Action, Tools
經典的Agent開源計畫介紹
編寫簡單的Agent程式
Agent目前面臨的挑戰與機遇
第二十六章:自訂Agent工具
LangChain所支持的Agent
什麽需要自訂Agent
@tool decorator的使用
編寫自訂Agent工具
編寫完整的Agent小計畫
第二十七章:深入淺出ReAct框架
回顧什麽是CoT
CoT和Action的結合
剖析ReAct框架的Prompt結構
從零實作ReAct(from Scratch)
ReAct框架的優缺點分析
第二十八章:【計畫實戰4】開源Agent計畫
開源Agent計畫以及分類
AutoGPT計畫講解
MetaGPT計畫講解
其他開源計畫
Agent技術目前存在的問題
第二十九章:深度剖析Agent核心部件
Agent的planning
Agent的reasoning
Agent的knowledge
Agent的memory
Agent的泛化能力
第三十章:【計畫實戰5】基於Agent的AI模擬面試
需求設計和系統設計
工具的設計
AI面試中的深度詢問方案設計
提示工程設計
Memory的設計
智慧體開發與部署
第三十一章:Agent其他案例分享
AI旅遊規劃師
AI產品銷售
AI房租推薦
AI影像處理
AI網站開發
第三十二章:其他Agent前沿套用
多個Agent的協同
Agent的group行為
Agent Society
Agent的Personality
史丹佛小鎮案例
第六階段 智慧裝置與「小」模型
第三十三章:智慧裝置上的模型最佳化基礎
智慧裝置特性以及資源限制
模型最佳化的必要性
常見的模型壓縮技術
輕量級模型架構介紹
開源小模型
第三十四章:模型在智慧裝置上的部署
多大的模型適合
部署流程概述
模型轉換工具
模型部署實戰
效能測試與最佳化
第三十五章:邊緣計算中的大模型挑戰與機遇
邊緣計算的概念和重要性
模型所要滿足的要求與效能上的平衡
模型在邊緣裝置上的套用案例
未來「小」模型發展趨勢
24年「小」模型機會
第七階段: 多模態大模型開發
第三十六章:多模態大模型基礎
什麽是多模態模型
多模態的套用場景
DALLE-3與Midjourney
Stable Diffusion與ControlNet
語音合成技術概述
主流 TTS技術剖析
第三十七章:多模態模型計畫剖析
多模態大模型最新進展
Sora對多模態大模型會產生什麽影響
案例:MiniGPT-4與多模態問答
案例:BLIP與文本描述生成
案例: Video-LLaVA與多模態影像視訊辨識
第三十八章:大模型的挑戰與未來
大模型技術局限性
大模型的私密性和準確性
大模型和AGI未來
GPT商城的機會
多模態的機會
對於開發工程師未來的啟示
【大模型微調實戰營-套用篇】
第一階段:大模型基礎
第一章:開營典禮
課程介紹與目標
學習安排與課程結構
學員參與要求
課程計畫與技術概覽
推薦工具和開源資源
第二章:大模型是怎麽煉成的
大模型的概念與歷史發展
關鍵技術和演算法基礎
數據準備與預處理
預訓練、指令微調、對齊
模型評估以及能力分析
第三章:微調的套用場景
微調與全量訓練的區別
微調在不同領域的套用案例
選擇微調任務和數據
微調的效果評估方法
微調計畫的規劃與管理
第四章:大模型基座-理解Transformer
Transformer模型的基礎架構
Self-Attention機制的工作原理
Transformer在NLP任務中的套用
Transformer模型的變種與發展
使用Transformer模型的實用技巧
Encoder和Decoder介紹
第五章: 開源模型類別以及匯總
常見的中英開源大模型介紹
模型選擇標準與評估
開源模型的獲取與使用
社群支持與資源分享
開源大模型發展方向
第六章:【計畫實戰1】開源大模型以及部署
Huggingface介紹
本地下載開源模型
理解HF相應的庫以及匯入大模型
模型封裝以及部署
效能最佳化與成本控制
第二階段:大模型指令微調
第七章:指令微調基礎
指令微調的概念與套用價值
指令集設計與實作
微調流程與實踐技巧
效能評估與最佳化策略
指令微調的挑戰與解決方案
第八章:LoRA參數微調
LoRA微調的方法
實施LoRA微調的步驟
LoRA微調在實際計畫中的套用
效能評估與調優技巧
LoRA微調的局限與未來展望
第九章:【計畫實戰2】LoRA微調Alpaca計畫
Alpaca計畫介紹
指令數據的理解
LoRA微調的實施與調優
計畫評估與效果分析
經驗總結與案例分享
第十章:模型壓縮
為什麽需要大模型壓縮
模型壓縮的方法與技術
壓縮對模型效能的影響
壓縮模型的常見方法
模型服務化的最佳實踐
第十一章:QLoRA參數微調
QLoRA微調技術介紹
微調策略與實施過程
套用QLoRA的案例
QLoRA微調的效能調優
面臨的問題與解決方法
第十二章:【計畫實戰3】QLoRA參數微調智慧客服計畫
設計QLoRA微調方案
準備數據與環境配置
開源模型選擇
執行微調與效能監控
計畫經驗分享與討論
第十三章:DeepSpeed訓練框架解析
DeepSpeed框架概述
配置與環境搭建
在大模型訓練中使用DeepSpeed
分布式訓練介紹
框架背後技術實作
DeepSpeed參數理解
實戰案例與經驗分享
第十四章:Megatron-LM訓練框架解析
Megatron-LM框架介紹
框架安裝與配置指南
套用Megatron-LM進行模型訓練
框架背後技術實作
Megatron-LM參數理解
實戰案例與經驗分享
第十五章:Flash Attention技術套用
為什麽需要Flash Attention
GPU計算背景知識
Flash Attention技術背後
在大模型中套用Flash Attention
實際部署與套用案例
第十六章:微調模型Benchmark
微調模型效能測試的重要性
Benchmark工具與方法介紹
執行Benchmark的步驟與技巧
結果分析與解讀
Benchmark設計與業務場景
第十七章:【計畫實戰4】微調QLoRA+Flash Attention
結合QLoRA和Flash Attention的策略
微調與部署的一體化流程
計畫實施的關鍵步驟
成果評估與效能最佳化
經驗分享與問題解決
第三階段:常用的開源模型微調
第十八章:開源模型家族以及類別
開源模型的概述
常見的開源模型分類
選擇開源模型的考量因素
開源模型的獲取和使用指南
維護和貢獻開源模型的最佳實踐
第十九章:ChatGLM開源模型家族和套用
ChatGLM模型家族介紹
ChatGLM1到ChatGLM3叠代
ChatGLM的私有化部署
ChatGLM的特色
微調ChatGLM模型的步驟和技巧
微調案例分享
第二十章:【計畫實戰5】ChatGLM微調醫療模型
理解需求以及技術方案設計
醫療指令數據的搜集
醫療Benchmark的獲取和整理
微調ChatGLM+LoRA模型
微調案例分享
第二十一章:Qwen和YI開源模型家族和套用
Qwen和YI模型家族概述
兩個模型家族的叠代
Qwen和YI大模型的私有化部署
兩個大模型家族的特色
微調Qwen和YI模型的實踐指南
微調案例分享
第二十二章:LLaMA開源模型家族和套用
LLaMA模型家族特點
LLaMA大模型的叠代和架構變化
LLaMA大模型的私有化部署
微調LLaMA模型的方法和建議
LLaMA模型微調的案例分析
微調案例分享
第二十三章:Mistral和Phi開源模型家族和套用
Mistral和Phi模型家族簡介
Mistral和Phi在多語言中的套用
兩大模型家族的特色
量大模型家族的私有化部署
微調Mistral和Phi模型的流程
微調案例分享
第二十四章:MoE模型特點以及套用
MoE(Mixture of Experts)模型概念
MoE模型在大規模數據處理中的優勢
微調MoE模型的關鍵點
MoE模型的套用案例
MoE模型的擴充套件性和可維護性問題
Mistral 8x7b
微調案例分享
第二十五章:【計畫實戰6】Mistra 8x7B微調智慧客服模型
理解需求以及技術方案設計
智慧客服指令數據收集
Benchmark的獲取和整理
微調Mistra 8x7b+QLoRA模型
模型評估以及驗收報告制作
第二十六章:其他開源模型以及套用
Baichuan中文大模型
Falcon模型家族
Bloom模型介紹
不同領域開源模型的套用例項
微調這些開源模型的技術指導
第二十七章:開源模型特色以及選擇
評估開源模型的關鍵標準
匹配計畫需求和模型特性
實踐中選擇開源模型的經驗分享
開源模型使用中的常見陷阱
社群和資源的重要性
第四階段:大模型對齊
第二十八章:大模型對齊基礎
大模型對齊的重要性和套用場景
基本對齊技術和方法概述
對齊過程中的數據處理和預處理
模型對齊的評估指標
大模型對齊的挑戰和策略
第二十九章:用於對齊的開源數據
開源數據集的重要性和來源
選擇和處理對齊用的開源數據
開源數據在模型對齊中的套用
數據私密和倫理考量
維護和更新開源數據集
第三十章:RLHF技術和套用
RLHF(強化學習從人類反饋)技術介紹
RLHF在模型對齊中的套用案例
實施RLHF技術的步驟
RLHF技術的效果評估
解決RLHF套用中的問題
RLHF實戰案例分析
第三十一章:DPO技術和套用
DPO(Direct Preference Optimization)概念
DPO在最佳化模型對齊中的作用
實作DPO的關鍵技術點
DPO套用的案例和效果分析
DPO技術的挑戰和前景
DPO實戰案例分享
第三十二章:【計畫實戰7】RLHF推薦模型對齊計畫
需求分析以及技術方案設計
數據收集和預處理
訓練Reward Model
訓練RLHF完整微調
計畫的評估和最佳化
第三十三章:【計畫實戰8】DPO推薦模型對齊計畫
需求分析以及技術方案設計
對齊數據的準備和處理
執行DPO模型對齊流程
對齊效果的評估和調整
計畫中遇到的挑戰
第三十四章:討論大模型對齊
當前大模型對齊技術的發展趨勢
模型對齊在大模型中的真正價值
對齊在工程上挑戰
模型對齊技術的倫理和社會影響
資源推薦和學習路徑
第五階段:垂直領域大模型套用
第三十五章:垂直領域大模型微調基礎
垂直領域的研發符合中國現狀
垂直領域大模型研發pipeline
微調大模型的基本方法和流程
選擇合適的微調策略
微調中的效能最佳化技巧
微調計畫的評估和調整
第三十六章:醫療領域大模型微調
智慧問診領域的套用場景和需求
大模型能力維度設計
領域內benchmark設計
快速測試開源模型能力並選擇合適的模型
微調模型以適應醫療數據
模型部署以及RAG設計
第三十七章:金融領域大模型微調
金融領域通用大模型需求分析
金融領域大模型benchmark
XuanYuan開源計畫剖析
金融領域大模型案例解讀
微調模型在金融Benchmark上的評估
金融領域中的未來潛在落地場景
第三十八章:教育領域大模型微調
教育領域的大模型套用場景和需求
微調大模型進行個人化學習支持
EduChat開源計畫剖析
指令數據和對齊數據的整理
Benchmark以及大模型評估
教育領域中的未來潛在落地場景
第三十九章:課程總結以及結營
課程學習要點回顧
計畫成果分享和評估
學習心得和經驗交流
未來發展趨勢和學習路徑
【大模型開發套用實戰營】
(不限年齡!不限崗位!有Python基礎的IT從業者都推薦學習)
類別
|
說明
|
課 程形式 | 線上直播+課程學習群答疑 |
課程安排
|
20次直播授課,每周2次,每次1.5-2小時
|
課程服務
| 25人以內學習群,助教答疑,保證遇到的問題被快速解決 專屬咨詢顧問與班主任老師全程伴學 全程直播講解與演示+可反復觀看課程視訊 |
不管你是
前端開發、後端開發、測試、演算法、數據分析
......只要你想了解AI套用開發,這門課就適合你!
【大模型微調實戰營-套用篇】
(適合有Python基礎的開發與演算法從業者)
類別
|
說明
|
課 程形式 | 線上直播+課程學習群答疑 |
課程安排 | 11次直播授課,每周1次,每次3-3.5小時 |
課程服務
| 25人以內學習群,助教答疑,保證遇到的問題被快速解決 專屬咨詢顧問與班主任老師全程伴學 全程直播講解與演示+可反復觀看課程視訊 |
課程主講
李文哲
貪心科技創始人兼CEO
人工智慧、大模型領域專家
多家上市公司技術戰略顧問
曾任金融科技獨角獸公司首席科學家
曾任量化投資初創公司首席科學家
曾任美國亞馬遜推薦系統工程師
深耕人工智慧領域十余年,授課培養AI學員數萬人
劉老師
大模型開發與微調領域專家
貪心科技資深演算法工程師
擁有豐富的大模型套用開發與微調經驗,曾參與基於大模型的智慧客服、智慧招聘系統、無人直播、面試機器人、智慧助教、等數十余個計畫的開發和落地
報名咨詢
已為本號使用者申請優惠!
前20位 報名學員享受 早鳥福利價 !
請聯系課程顧問老師咨詢~