大家好,我是老渡。
很多朋友本地有一堆资料想做个 本地知识问答助手 。
之前文章里我给大家分享过,最原始的做法是 把本地资料做成 知识库 ,构建一个搜索引擎,与大模型结合。 这套流程 搭建起来 , 不 但费时费力 ,还要掌握 一定的搜索引擎知识。
不过现在有更便捷的方式了,已经有AI大模型能读取长文本,我们可以把本地资料一股脑丢给大模型,让大模型帮做总结、问答。
支持这样做 的大模型有两个,一个是 Kimi,另一个是橙篇 。 下面我们就来试试 这两个AI大模型的效果。
我这里有 4 篇文档,先直接丢给 Kimi
Kimi 可以阅读每篇文章,并进行总结。再来看看橙篇的效果。
可以看到,橙篇做长文总结、问答也是没问题的。 有了这样的AI大模型 ,还搭什么本地知识库。
接下来,我们上点强度
,继续对比。
我这里有本学习 Python 的电子书,超500页的超大PDF。
先丢给Kimi 让他 帮我查找、总结其中 某 一部分 内容。
由于这本书太大,Kimi 只能部分阅读。再发给橙篇试试
橙篇不但可以读完,还支持对结果在线编辑
这以后查找资料中的内容、做读书笔记简直太方便了。
Kimi的200万无损上下文的,目前还在内测中,而橙篇的200万字无损上下文已经可以用了,算力充沛,阅读速度很快。
橙篇除了支持长文本输入,还支持 长文本输出 ,最⾼输出⻓⽂10万字,这在AI大模型里可谓是首屈一指。
支持自定义主题和上传参考范文两种模式,以自定义主题为例。
对于生成一篇,橙篇会先生成一个完整的、有层级的大纲。
可以对大纲内的章节增删,也可以修改 章节标题、副标题。 如果对 文章标题和大纲不满意,可以 一键 重新生成。
对于部分章节,你可以上传本地的参考资料,让橙篇参考生成。最后点击「生成长文」
剩下的交给时间
生成初稿后, 可以点击编辑按钮,直接在线编辑
内容丰富度、格式、工具联动做得都很到位。
橙篇除了能把本地离线资料处理得很好外,还支持联网搜索在线内容, 即: 检索网页获取外部知识,进行总结回答。
大模型支持搜索并不是什么新鲜事儿,但橙篇最大的优势在于支持 学术搜索 。
以论文查找为例
Kimi 给出的结果是某写网页中提到的论文,如果我们要找到具体的论文,就得先点击进入网页,浏览、查找我们想要的论文,再到论文网站进行二次查找。
而橙篇返回的是具体每一篇论文。因为橙篇拥有「百度学术」 全网数十亿的专业信息和 资料库,可以直接检索, 并且资料库内容 实时 更新 。
当然,橙篇好用的功能,远不止这些。
在首页,橙篇有个功能分类,大家可以点击每个功能模块直接使用。
比如,这里有个「 制作图表 」的功能,也是非常好用。
在有数据可视化的需求里,我们还是希望大模型的 输 出结果可以有图表展示。
以前对于大模型这样的输出,我们可能会接一个可视化插件,搞一个Agent智能体。现在有了橙篇就不需要走弯路了
并且图表并不是静态的, 而是可以动态交互的。
橙篇在 长文本 输入、输出和图文方面确实比Kimi有优势,基本上一个橙篇就可以取代Kimi+秘塔+WPS了,还不用在几个页面反复横跳。此外橙篇生成的内容,无论是文风还是格式,都确实是专业度拉满,非常适合内容生产、学术研究使用,推荐大家试一下。
另外,橙篇还计划未来上线更多AI功能,如智能PPT生成、AI思维导图、AI漫画、AI有声绘本、AI写小红书等,进一步扩展其在AI创作领域的应用范围。
最后也是最重要的,橙篇目前还是 免费 状态。依托于百度强⼤的⽂⼼⼤模型基建,算⼒充足,大家趁现在赶紧薅。