整理 | 王軼群
責編 | 唐小引
出品 | GOSIM Foundation
上線36小時,就收獲了海量使用者及好評,Dify.AI是AI產品界的一個神話。
2023年5 月9 日,Dify.AI正式上線生產環境。尚未來得及小範圍公測,只因其創始人在社群平台的一條動態,就引發了大量使用者自發傳播。在36小時內,Dify.AI上建立的套用數超過1500個,尚未正式開源就收獲了超240的開源計畫Star及大量使用者使用反饋。
(圖源:Dify.AI的CSDN部落格)
而截至2024年3月29日,不到一年的時間裏,Dify.AI雲服務上構建了超過13萬AI 套用,在 GitHub收獲了18.5k Stars, 成為全球排名前三的LLM Infra產品。
GOSIM特意請到了Dify AI的聯合創始人延君晨做客對談,一起來聊一聊Dify.AI的產品設計,並對AI產品的設計邏輯展開探討。
註:本次采訪時間為2023年9月23日,及2023 GOSIM大會舉辦期間的嘉賓訪談摘錄。
敏捷團隊,造就敏捷計畫
GOSIM :先請延君晨老師介紹一下 Dify.AI。
延君晨 : Dify.AI其實是一個很年輕的團隊。我們是在2023年3月份開始立項做Dify.AI,2023年5月11日釋出第一個版本,同時 在 GitHub 開源。不到半年的時間,平台公有雲服務上累計了 7萬多個套用,開源版本也部署了超過4萬個例項。在構建AI套用的技術棧領域,我們探索了很多方向。
當然,也產生了很多的問題,包括我們自己的產品定位也有一些變化。Dify 最開始定位是 LLMOps產品 。我們認為隨著大模型的普及,很多套用開發者會產生基於大模型的產品營運、數據分析,構建數據飛輪等需求。所以在當時選擇這個切入點創業,但在做的過程中發現,以 現階段的大模型 技術 的成熟度, Ops的 需求 可能還沒有真正到來 。
所以,我們在後來在產品叠代中, 產品定位逐步 演進為 一個 AI套用技術棧或者套用開發框架 。不僅是產品形態的變化,我們本質上還是想讓更多的開發者及業務人員能共同參與進來,基於大模型構建出自己想要的產品,去改變公司內部的效率,或是構建出一些激動人心的新形態的套用。
GOSIM :給我們介紹一下 Dify.AI的團隊、團隊規模,以及角色分工。
延君晨 : Dify是一個很敏捷的團隊,我們在一塊共事了很長時間。並不是說從2023年我們決定要做這件事才開始招人,我們其實是 一個完整 成建制 的產品研發、設計、營運團隊 ,規模大概不到 20個人。大部份同事 以前是騰訊雲 DevOps Coding的團隊成員 , 2022年底,我們也想看看在大模型這個全新領域裏可以做些什麽。兩個產品經理,大概十二三個開發和兩三個 營運人員,共同組成 Dify 的 團隊。
(Dify.AI聯合創始人延君晨)
我們目前還是以 技術驅動為主導 ,所以團隊內部每天的工作還是在產品的規劃和研發上,其他的一些營運相關的工作做的比較少。所以,上線很快收到好評,海外也有不錯的使用者基礎, 這些自然增長對我們而言是比較幸運的事情,對我們來說是一個很大的鼓舞。
我們原本的假設是,啟動一個新計畫需要付出一定的周期和成本去做增長,現在和我們的預期是有差異的。按照我的理解,Dify處於一個數據結果超出預期、但產品的完成度低於預期的一個階段。所以我們會盡最大的努力,去把我們構想的產品形態去更好地交付出來,更好地跟我們社群的開發者共創。
GOSIM : Dify.AI最近也非常受到開發者和AI領域專業人士的關註,很大程度就是Dify在非常短的時間內,就實作了一個相對來說比較完善的產品和服務。很多小夥伴非常好奇這是怎麽做到的。現在的大家知道這是一個非常老練的、協同度非常高、很有默契的團隊,能夠抓住目前的機會去上線他們的產品。
AI產品互動:提示詞是一個大話題
GOSIM :我們邀請到延君晨老師,其實想開放式地去討論一下,當前 AI產品互動設計的發展方向、AI產品數據飛輪的設計方向,以及這些AI產品未來的產品形態的演進。
首先我們想聊聊提示詞,也是我們當前最主流的與大模型以及相關的AI產品的互動方式之一。Prompt目前的這樣的一個形態,是一個合理的與大模型、AI產品互動的方式嗎?
延君晨 :現在的 生成式 AI 套用,確實是需要透過提示詞這樣的方式,去給大模型提供一些上下文。但在Dify構建的套用中,我們其實是做了一個類似積木拼插的結構。這裏有兩個問題:第一個問題是如何有效分配上下文空間,第二個問題是設計互動方式;我們就分開來說這兩個話題。
第一個問題是上下文分配。 我們知道當前上下文是有長度限制的,主流的模型可能是 32K,個別模型可能是100K,但無論如何這個空間都是受限的。在這個範圍內,要提供給大模型哪些資訊?首先會有系統級的提示詞,包含對大模型的一些限制,比如不知道的事情要說不;也包含了一些推理的要求,Dify上線的第一個版本中中就實作了RAG Pipeline,所以包含了從 向量資料庫 中召回跟使用者本次輸入資訊有關的一些文本塊;還包含了使用者的上下文的記憶,比如你是做一個 C端套用,有使用者跟大模型之前的聊天記錄,你需要同時傳遞給大模型作為memory的一部份。
所以說雖然有32K的空間,但真正留給使用者的空間並沒有我們想的那麽大,這是一個限制。這個限制可能會隨著大模型技術做拓展,但拓展理論上來說是有上限的。因為過大的上下文,必然會導致註意力的不集中,間接導致效能下降。所以,32K到100K,可能就是一個現階段的可行的方案。【24 年也陸續出現了超過 100k 上下文的大模型,所以對於 RAG 、模型推理、流程編排和互動方式都提出了新的要求。】
第二個問題, 為使用者提供的 提示詞 空間 應該是怎樣的? 這裏是大多數 C端產品經理可能會忽略一個問題:透過文本或者語音轉文本交付給使用者,是不是一個很好的互動形式?想象一下,一個從來沒有接觸過大模型的使用者,當他遇到大模型輸入的第一個句子是什麽?可能是「你好」「你能做什麽」這種很簡單的話題,或者「你能幫我畫個畫嗎」,或者是對待搜尋引擎那樣「你知道什麽什麽嗎」。這是我們目前很常見的一種互動形式。
但是這對於需要基於上下文增強或理解的大模型來說,它並不是特別友好。我們試圖教育我們的使用者應該如何寫提示詞。這件事情首先成本是非常高的,第二這也不是一個產品經理該做的事情。這不是一個技術演進的應有方向。我們肯定是要機器去理解人,而不是人去理解機器。
提示詞的這種互動形式,我認為至少有兩個方面可以去最佳化。第一個方面是在產品設計層面,是不是應該抽象出來一個結構層,就在提示詞分配的過程中,再把使用者的一些基礎資訊,比如身份、偏好,作為一個結構,給使用者一些比較友好的互動方式,讓他來拼湊成一個提示詞,這是一種資訊結構上的最佳化。
第二個就是互動形式上或者叫情感提供層面的。現在像C.AI(Character.AI)這樣的產品,在全球的流量中占比可能是第二,僅次於 ChatGPT ,同時留存率非常高。C.AI使用者中有很多都是二次元或是年輕人,這意味著我們在設計產品互動的時候,是不是把這種模仿二次元人物的這種對話,或是透過更先進的VR、MR技術,來把大模型能力和現在這種更先進的使用者互動做結合。這個也是我們探索的方向。
本質上,我們雖然給大模型的是文字,但是文字如何去編排、如何結構化、如何從使用者手裏獲得,其實是有很多技巧的。我覺得這也是目前產品,尤其是C端產品經理可以去思考的一些角度。B端的話是另外一個話題。
GOSIM :剛剛提到兩個方向,一個是可能我們明確使用者的角色身份等資訊,是不是很像過去說的使用者分層,或者根據使用者一些背景資訊做一些推薦。這一塊是會做到前端,還埋在後面?
延君晨 :我會這麽理解,這裏可能會涉及到一些所謂的Agent能力。 Agent 本質 也是一種提示工程,這是 一個 非常大的話題 ,比如怎麽讓大模型知道使用者,在 C端產品的構建中,可能是把使用者資訊作為一個結構化數據封裝,在模型上下文空間中的某個環節,透過提示詞去呼叫API,使用者的結構化身份資訊將作為上下文傳遞給模型。【2023年11月 OpenAI 推出了 GPTs 和 Assistants API , 為大家提供基於 OpenAI 系列模型探索 AI Agent 的能力,在 OpenAI 的生態中,產生了無限的創意和想象。2024 年 1 月 Dify 也釋出了Agent 模式,可以基於所有主流的 的 LLMs 作為基礎的自然語言理解和推理模型,並提供一系列工具讓 LLM 根據需要來呼叫,解決多步驟的復雜問題場景,幫助開發者構建更具想象力的 GPTs 和 Agent Assistants(智慧助手)】
這裏面會用到大模型的推理能力。提示詞工程是一個挺泛的話題,包含了剛剛說的空間分配、RAG 工程、AI Agent、數據工程、未來也可能涉及到模型微調。聚焦在C端產品上,我覺得一個很重要的方面就是結構化使用者的數據,同時給使用者一個更符合他價值觀的,或者叫千人千面的互動體驗會更重要一些。
互動方式最佳化:別忘了,人像大模型一樣有幻覺
GOSIM :有沒有讓你覺得眼前一亮的這種互動設計或者有不錯的使用體驗?
延君晨 :客觀來講,現階段大部份的 toC的產品互動設計還是挺統一的。基本是文字域,頂多再加上一點多模態。展望未來,我覺得肯定會有更豐富的相互設計。但在現階段,可能想象空間沒有那麽大,頂多就是把語音辨識做得更好,然後把圖片的理解跟辨識整合到互動框裏最終實作。
可能會像微信那種互動方式,我們可以跟大模型進行多種形式的交流,但需要一些多模態技術。多模態技術也是個子話題,現在 多模態大模型 很不成熟,裏面涉及到怎麽在提示詞裏透過Agent實作任務拆解,把不同模態的模型整合,進行流程工程編排。這才能真正改善使用者體驗的方式。【吳恩達教授 24 年 3 月提出了「AI Agent Workflow(智慧體工作流)」,這一概念套用的正是流程工程的理念,智慧體工作流將會大規模推動未來 AI 落地的進展】
GOSIM :就是我們的確沒有一個更好的產品形態或者互動形式出現?我覺得最自然的方式不就是對話嗎?
延君晨 :是對話。但大多數使用者其實在使用某個產品的時候,不一定有一個明確的需求。所以他對於需求描述的顆粒度和準確性,其實沒有一個明確的概念。我覺得這是一個很好的話題。 大多數情況下,就像大模型一樣 , 我們也有幻覺 ,我們不知道自己不知道。這個時候,我們可以利用大模型的推理能力,這種互動可能不限於單個提示詞,而是在最終讓大模型去執行任務之前,可以透過多輪的對話拆解到合適的顆粒度,讓大模型能充分、無歧義地理解人的意圖和語言。
語言存在先天的不足,讓我們說話也會有歧義。那麽,如何在產品設計過程中,讓大模型在執行任務之前確認是否要跟使用者進行多輪對話,需要一個回呼機制去分析大模型是否獲得了所有要素。比如,大模型的任務是預定一個行程,涉及到需求方的角色、家庭、環境、偏好、情感訴求、時間、預算等要素。這些資訊要素,有些是透過結構化的函式呼叫拿到的,有些可能是透過多輪對話拿到的。其中也涉及到系統級提示詞,就是我們最開始在編排套用時大模型跟使用者互動的規則。所以說,這裏也是一個復雜的提示詞工程的架構。
GOSIM :多輪對話的確是目前更多 AI產品選擇的一個方向。去使用模型能力完成你所有的流程,是一個非常make sense的路徑。但其實我們的互聯網使用者在過去的10年中,可能就是和手機界面的互動及螢幕的互動。螢幕的互動是用以選單按鈕,以點選或拖拉以及滑拽這種方式去完成的。
現在有了模型,要求我們就進行交流或者說多輪對話,我覺得Siri做了最早的這樣的嘗試。Siri也好,小愛同學也好,這些語音互動其實是能看的行程。你覺得它們真的能夠去完成一個很復雜的需求嗎?我們作為終端使用者,真的適應這樣的一個互動方式嗎?
延君晨 :我覺得一個正常的消費者,可能都有這樣的體驗。就我自己而言,我不認為說我們能一步到位,突然就從我們習慣了這種互動方式躍遷到完全靠自然語言。這其實效率並不高。
舉個例子,比如我訂一個上海到北京的高鐵,假設我不透過人工智慧,整個的步驟
應該是5分鐘以內的。我為什麽一定要去透過人工智慧這種方式?一個產品經理萬能公式之一:我們設計新產品的時候,一定要考慮它的替換成本,也要考慮價值差。目前大模型以及設計toC、toB的AI產品,會遇到的一個問題就是現在的替換成本還很高,無論是開發成本,還是使用者接受的成本,它提供的這種增量價值還沒有那麽明顯。
但是我們想象一個混合模式,比如我依然是用傳統的這種互動界面,只不過使用者在要點從北京到上海的過程中,旁邊有個小助手或者是同時你可以語音說,雖然手工選擇了北京到上海,但還需要你幫我提供價格範圍、時間段,這些相對復雜的表單選項。
透過語音辨識達成的話,這裏面可能也涉及到語音辨識技術的準確率,還要有模型對使用者意圖的理解,然後模型最終推給你它認為最優的方案。
Dify.AI的價值觀裏,涉及到一個詞叫互信協作。剛我們說這個話題時,其實已經是把我們一部份工作、一部份的生活交付給人工智慧。這個時候我信不信任它?以前Siri大家信不信任?其實不是特別信任,對吧?因為他們計畫的交付度並不是很高,魯棒性很差,通常也沒有閉環。
大模型套用還處在一個前沿的技術階段。我覺得現在是從技術套用點到套用解決方案的過渡期。剛說到的混合模式,現在可能是一個過渡態。我們距離每個人都有一個人工智慧助理隨時能響應需求的未來還比較遠。這可能也涉及到VR技術的成熟,或可穿戴技術如何更輕量化,這是個復雜的話題。
之所以聊這個話題,也是我作為使用者所產生的疑問。即使我是一個表達能力很強的人,也不一定能夠透過多輪對話的形式來明確表達我的訴求。這不一定會比我的手在視覺化界面的操作高效更多。
還有一個點是認識頻寬問題。人腦能同時處理的任務組塊就是4到7個,我們透過長時間訓練,可以把一部份工作固定到一個組塊,來提高我們的整體效率。人類沒有並行能力。回到大模型上,我覺得有點類似。我們透過語音互動效率不一定特別高,有時候手機界面操作會更快。
但借助工具人們可以釋放自己的註意力。一個相對寬松或者開放的環境中,比如我們在聊天的過程中,可以隨時跟我給我的助理去說一些話,他可以去記錄下來。相當於在這種環境下,我也能夠很輕松放松地完成一些任務,而且可以並列,並不占用我自己個人頻寬。這跟我拿著手機要完成這個任務的感覺是不一樣的。你在工作忙的時候,訂機票訂了一半,被一個事情打斷就去忙別的了,導致機票沒有訂完。尤其是對於追求效率的人來說,這種高並行性的情況時有發生,那麽模型的能力對此是有幫助的。
反饋機制:大模型對於人類最大的價值所在
GOSIM :您自己在個人使用A gent或提示詞工程時,有什麽小技巧或者覺得比較抓狂的地方嗎?
延君晨 :就給 Dify打打廣告吧(笑)。Dify從第一行程式碼開始就跟大模型
結合非常緊。我們有1/3的程式碼和超過一半的產品原型都是透過大模型去完成的,甚至是Dify 這個名字也是 GPT 幫忙起的。我們為什麽all in在AI這個領域內,是因為我們在做的過程中被大模型的能力深深震撼。【Dify 一詞源自 Define + Modify,意指定義並且持續改進你的 AI 套用,它是為你而做的(Do it for you)。Dify.AI 的目標是讓開發者(甚至非開發者)可以快速基於大型語言模型搭建出有用的東西,並確保它是視覺化、可營運、可改進的。】
在實際工作中,比如我自己平時其實一直是掛在Dify.AI產品裏,我會自己在Dify上構建各種各樣的小套用,比如專門用來寫商務信件的,我的英文沒有那麽好,我會專門寫好提示詞,讓它幫我去把我的中文信件轉譯成英文的。比如今天我做演講之前,會把很多提前準備好的材料,訓練好一個演講大師然後產品會幫我去生成一些金句。還有比如萬能學習助手,也使用了剛剛提到的多輪對話的能力。它其實在我們日常工作和生活中幫助非常大。
大模型對於我們個人來說很大的價值是什麽?我們很多時候的思考是不全面的。就是我們想學習一個問題,我們很多時候也不知道自己不知道。所以, 我們一方面要解決大模型的幻覺,大模型也可以幫我們解決幻覺 。這是很優雅的反饋機制。在學習中如果想學得好學得快,擁有一個反饋的環節非常重要,而 大模型可以提供這種客製化的千人千面的反饋體驗。
那麽如何使用提示詞?網上可以找到很多萬能公式,有很多提示性的樣版框架。這些確實都挺好的,但我更建議大家試著去用類似於Dify這種具備了提示詞工程架構的工具。因為如果去模仿一些架構,還是要把你 要 演扮演的角色、所在的領域、回答問題的步驟幫它思考好,或者是給它一些Agent那種思維鏈,然後給它提供一些樣本在上面學習,並要求它輸出的格式。
但問題是,你還是只能透過單次跟模型的互動,沒有辦法讓模型認識你、理解你——我們叫模型認知偏差。因為沒有辦法把使用者個人的數據,包括私有的數據或是一些沈澱的知識,讓大模型能理解——所以也需要RAG工程。這就需要類似於Dify這樣的產品。
第二,你可能沒有辦法實作系統級固化的提示詞,比如實作思維鏈是需要一些工程方法在的。程式設計師可以透過寫程式碼去實作,但其中又涉及到多個模型的協作,還要基於不同的模型去寫不同的提示詞。想呼叫不同的模型,裏面是需要一些抽象的,你需要一些模型跟套用模型提示詞的結構。最終我們給模型都是提示詞,而這個提示詞裏面又包含了很多內容結構。用類似於Dify這種開發框架或者提示詞工程開發框架,即Prompt IDE,會很大地釋放你的效率,同時也能減少模型的一些實施和呼叫成本。
如果實作我們的需求都是要經過多輪對話,其實可預見的時間的成本以及其他成本是更高的。目前大模型在跟我們的實際套用場景還是有一點距離的,這裏也是開發者的機會。
當年iPhone剛出來的時候,有人做一個手電筒的套用,賣1.99美金,這個套用後來就被整合到了iPhone裏。但在當時這個產品其實改變了一些開發者生態環境,也為開發者創造一些收益。我們相信未來可能模型廠會解決很多問題,但我們都不做了就等著模型廠來做這個也是不可能的。這個世界的演進變化,底層規律還是先去符合演化論。大家基於自己的數據、情感、價值判斷做套用,最終湧現出好的東西。
很多時候,尤其現在做AI產品,功能是一個維度,但這個AI產品的價值觀也是一個維度。它代表了一個虛擬的角色,就跟我們做IP一樣,這個角色非常符合一些使用者的價值觀,這些使用者就非常願意跟這個模型的套用角色去交流,去用這個模型的套用產品,那它就有它的獨特價值。
GOSIM :其實很多創新它是來自於生態系裏的,我們怎麽樣去設計一個產品的開放度和開放性,其實能夠幫助開放生態裏面誕生更多有生命力的套用創新。我們也非常期待未來在更好的模型能力下的創新互動方式出現。
延君晨 :這裏還有一個話題就是 Plug-in(外掛程式、外掛)。Plug-in最近又被提起來了
之前很熱,冷一段時間又被提起來。Plug-in 有兩個維度。第一個維度是可以把服務封裝起來,提供給toC大模型,可以在給使用者提供互動的時使用。還有一個維度,是可以透過把模型整合到自己的產品和服務中,讓模型能理解辨識公司的API,去呼叫公司原本的產品和服務去完成工作。
這兩種整合方式, 一個是以模型為中心,一個是以業務為中心或者產品為中心,都是大模型套用演進的方向,是很好的探索方向,對開發者也更有利。 這才是開發者應該努力的方向。開發者不應該去天天想搞大模型。
GOSIM :對,沒錯。其實我們 GOSIM本身也是一個開源的開發者平台。希望有外部更多有創造力的小夥伴進來,為開發者生態註入更多生命力,去誕生更多有意思的創新。
我們剛剛聊到反饋機制的設計,我覺得這個的話也是大模型的下半場,是我們現在比較關註的方向。現在我們已經能看到了很多大模型的模型能力、模型效果是很好的。
如何讓大模型持續進行叠代,持續發揮出更大的價值?大模型之間如果想要建立更好更快的壁壘,其實也要對反饋機制進行一些好的設計。無論什麽樣的產品,都要找到自己的數據飛輪,讓整個產品的生態能夠有機地運轉起來。
想問一下Dify.AI在這方面有哪些嘗試?目前在一個什麽樣的行程?你們對於AI產品的數據飛輪是怎樣去理解的?
延君晨 :我們是一個面向開發者的產品,有自己數據飛輪。但是我覺得分兩個話題來講。首先,就是對開發者而言,我們在這個維度上能提供什麽。第二,就是目前從開發者們的角度來說,無論是 toB還是toC,在我們平台上可以做什麽。
先說第一個話題。Dify最開始的定義是一個LLM Ops產品。那什麽叫Ops?在我們的理解中,大家基於大模型構建的產品不可能一上來就是一個滿分的產品,甚至可能不及格。我們現在的提示詞的編寫,跟以前的編程範式是不太一樣的,有很多需要偵錯的工作,涉及到需要有很多測試的環節,需要對數據進行標註,等等。這個過程我們認為它叫Ops。
回到數據這個角度,拿一個toB的場景來說,一家企業想要用一個大模型,首先大模型應該是跟這個行業或者跟企業的數據做強關聯,這可能會涉及到一些微調,至少有一些數據的RAG。那企業在沒有選擇采購大模型之前,微調過程沒法發生,就變成了一個叫雞生蛋蛋生雞的難題。
所以,我們理想的環境中,我們現在的架構一般RAG在前,微調在後,最終形成一個很好的數據迴圈。這個企業在投產大模型之前,先透過RAG工程,將企業的數據和大模型進行對接,這樣企業可以基於大模型和企業的場景去做一些套用探索實踐。
過程中就會產生真實的基於業務場景的使用者和大模型的互動的數據,這個數據才是真正有標註價值的。 無論是透過人類去標註還是機器去標註,標註出來的數據再拿去 微調 ,固化成一個模型在這個行業裏面的能力,形成一個比較好的閉環。 Dify想給開發者提供的就是這套框架。只不過是從我們的研發的階段和市場需求來說,這塊能力還沒那麽完善 。如果大家是關註 Dify這個計畫,會看到我們在未來3個月到半年會逐步在這個方面去強化。
國內大模型百花齊放,開發者大有所為
GOSIM :你有沒有在這個行業中看到比較好的反饋機制的設計?
延君晨 :從全球 的角度來說, Midjourney是最有代表性的。它需要從每次生成那4張圖中選擇1張你認為好的,你認為符合提示詞的,然後進行後面的渲染和生成,這就是一個非常好的反饋過程。
具備這樣先天條件的產品,其實是很稀有的。它是從模型到套用,相當於自己全部做的,就拿國內的場景來說,具備這樣條件的公司其實是很少的。大家可能都聚焦在自己的模型算力及模型最佳化、訓練上,業務型的公司主要聚焦在業務場景和使用者上。其中,我認為 套用端比模型更有創新的機會。
國內的大模型生態,即將開始非常慘烈的廝殺。這裏面真正活下來的大模型公司可能是本身的造血能力非常強,或者是技術獨到能不斷地去融資輸血,在這裏面也會有很多的價值創造的機會。
我認為,在無論是 C端產品還是B端產品,這些真正落地的拿模型做套用的公司,應該是百花齊放的,只是我們起步比海外晚。 分享一個數據,僅 2023年上半年海外所有的這種toC的套用的下載量超過了3億次,收入超過4億美金。國內這方面我還沒有拿到數據,確實人工智慧演算法的 備案制度是 2023年9月份才有,還是 一個起步的階段,對開發者來說也是大有所為的。
註:對話時間為2023年9月,本文發表時延君晨做了數據更新、內容批註和觀點補充。
4 月 25 ~ 26 日,由 CSDN 和高端 IT 咨詢和教育平台 Boolan 聯合主辦的「 全球機器學習技術大會 」將在上海環球港凱悅酒店舉行,特邀近 50 位技術領袖和行業套用專家,與 1000+ 來自電商、金融、汽車、智慧制造、通訊、工業互聯網、醫療、教育等眾多行業的精英參會聽眾,共同探討人工智慧領域的前沿發展和行業最佳實踐。 歡迎所有開發者朋友存取官網 http://ml-summit.org、點選「閱讀原文」或掃碼 進一步了解詳情。