當前位置: 妍妍網 > 碼農

Kimi的長文本,橙篇表示不服!

2024-06-27碼農

大家好,我是老渡。

很多朋友本地有一堆資料想做個 本地知識問答助手

之前文章裏我給大家分享過,最原始的做法是 把本地資料做成 知識庫 ,構建一個搜尋引擎,與大模型結合。 這套流程 搭建起來 但費時費力 ,還要掌握 一定的搜尋引擎知識。

不過現在有更便捷的方式了,已經有AI大模型能讀取長文本,我們可以把本地資料一股腦丟給大模型,讓大模型幫做總結、問答。

支持這樣做 的大模型有兩個,一個是 Kimi,另一個是橙篇 下面我們就來試試 這兩個AI大模型的效果。

我這裏有 4 篇文件,先直接丟給 Kimi

Kimi 可以閱讀每篇文章,並進行總結。再來看看橙篇的效果。

可以看到,橙篇做長文總結、問答也是沒問題的。 有了這樣的AI大模型 ,還搭什麽本地知識庫。

接下來,我們上點強度 ,繼續對比。

我這裏有本學習 Python 的電子書,超500頁的超大PDF。

先丟給Kimi 讓他 幫我尋找、總結其中 一部份 內容。

由於這本書太大,Kimi 只能部份閱讀。再發給橙篇試試

橙篇不但可以讀完,還支持對結果線上編輯

這以後尋找資料中的內容、做讀書筆記簡直太方便了。

Kimi的200萬無失真上下文的,目前還在內測中,而橙篇的200萬字無失真上下文已經可以用了,算力充沛,閱讀速度很快。

橙篇除了支持長文本輸入,還支持 長文本輸出 ,最⾼輸出⻓⽂10萬字,這在AI大模型裏可謂是首屈一指。

支持自訂主題和上傳參考範文兩種模式,以自訂主題為例。

對於生成一篇,橙篇會先生成一個完整的、有層級的大綱。

可以對大綱內的章節增刪,也可以修改 章節標題、副標題。 如果對 文章標題和大綱不滿意,可以 一鍵 重新生成。

對於部份章節,你可以上傳原生的參考資料,讓橙篇參考生成。最後點選「生成長文」

剩下的交給時間

生成初稿後, 可以點選編輯按鈕,直接線上編輯

內容豐富度、格式、工具聯動做得都很到位。

橙篇除了能把本地離線資料處理得很好外,還支持聯網搜尋線上內容, 即: 檢索網頁獲取外部知識,進行總結回答。

大模型支持搜尋並不是什麽新鮮事兒,但橙篇最大的優勢在於支持 學術搜尋

以論文尋找為例

Kimi 給出的結果是某寫網頁中提到的論文,如果我們要找到具體的論文,就得先點選進入網頁,瀏覽、尋找我們想要的論文,再到論文網站進行二次尋找。

而橙篇返回的是具體每一篇論文。因為橙篇擁有「百度學術」 全網數十億的專業資訊和 資料庫,可以直接檢索, 並且資料庫內容 即時 更新

當然,橙篇好用的功能,遠不止這些。

在首頁,橙篇有個功能分類,大家可以點選每個功能模組直接使用。

比如,這裏有個「 制作圖表 」的功能,也是非常好用。

在有數據視覺化的需求裏,我們還是希望大模型的 出結果可以有圖表展示。

以前對於大模型這樣的輸出,我們可能會接一個視覺化外掛程式,搞一個Agent智慧體。現在有了橙篇就不需要走彎路了

並且圖表並不是靜態的, 而是可以動態互動的。

橙篇在 長文本 輸入、輸出和圖文方面確實比Kimi有優勢,基本上一個橙篇就可以取代Kimi+秘塔+WPS了,還不用在幾個頁面反復橫跳。此外橙篇生成的內容,無論是文風還是格式,都確實是專業度拉滿,非常適合內容生產、學術研究使用,推薦大家試一下。

另外,橙篇還計劃未來上線更多AI功能,如智慧PPT生成、AI思維導圖、AI漫畫、AI有聲繪本、AI寫小紅書等,進一步擴充套件其在AI創作領域的套用範圍。

最後也是最重要的,橙篇目前還是 免費 狀態。依托於百度強⼤的⽂⼼⼤模型基建,算⼒充足,大家趁現在趕緊薅。