cherry studio本地部署AI经验及开放平台推荐

近日为了构建本地知识库,所以研究了cherry studio的部署过程。尽管最终的结论是本地部署还不如直接用开放平台的大模型,但在折腾的过程中也弄懂了AI工作的流程及参数的取舍(我们无法什么都要,所以只能取舍)。这种在明白之后的放弃,和完全未知下的不敢尝试是两种状态,所以尽管我放弃了,但我还是想将尝试的过程分享出来,以帮助想从头尝试的人少走弯路。

 

一、放弃本地部署的原因

放弃的原因直接说可能不容易理解,但只要读了下面的cherry studio部署过程便会很容易理解下面的理由。

1、本地知识库的构建中文件识别很差,识别不了表格,只能较好的识别文字,但我的知识库中有大量的表格。即使自己替换更强大的文档处理模型,也很难达到大厂开放平台的识别水平,且对电脑硬件要求较高,或成本很高(要么本地部署,要么API方式调用,但按页收费)。

2、推理模型LLM同样很贵,如果用最顶尖的,那么每月的API调用费用大概在300-500元人民币,而同样的模型开放平台都是免费使用的。

3、自己很难构建出如大厂开放平台那样的智能体应用,只能问答,这严重限制了使用的体验感。

 

当然自己搭建也有好处,比如可以打通本地的多种应用,例如OB笔记、office、VScode等;也能依靠全局记忆,将自己的所有习惯都记忆下来,这样AI就会越来越懂自己。

 

二、cherry studio的部署过程及经验

(一)、安装 cherry studio

具体的安装教程网上很多,就不重复了。我只想简单介绍下使用,这样方便上手。

cherry studio本地部署AI经验及开放平台推荐-图片1

cherry studio的界面主要分三块,最左边的为功能区,比如助手(问答的人设)、翻译、知识库、笔记等。特别说明下,这款软件可以直接将问答的结果保存为笔记、也可以直接一件保存到知识管理系统(ob等),当然也能保存为md、word等格式。

cherry studio本地部署AI经验及开放平台推荐-图片2

上图是cherry studio的设置界面,可见功能非常全面,这里特别说明以下几点。

数据设置中可以指定本地数据保存位置,选择SSD硬盘最好。同时也能云备份,从而实现多端同步

MCP功能是cherry studio和其他应用之间的连接助手,通过这个模块可以打通cherry studio和本地其他软件的连接,从而实现本地应用整体AI化。

全局记忆也很关键,他能记录你所有的应用,从而越来越了解你,为你提供越来越定制化的服务。

(二)、助手的设置

助手是cherry studio的核心,不仅能设置每个助手的人设,比如股票分析助手,还能在这里设置提示词,从而让它变成按你要求定制的问答机器人。这是cherry studio设置的核心,但网上教程很多忽略了这一步,从而失去了本地部署的最核心优势。

cherry studio本地部署AI经验及开放平台推荐-图片3

上述股票分析师就是我自己定义的助手,核心功能是企业财报及指标数据从本地知识库读取,而其他信息从网上查找。其实还可以通过MCP服务,在线API调取数据服务平台比如Tushare的数据。从而形成本地知识库+推理模型知识库+API接口+互联网信息的四重数据来源。建立本地知识库和API调用专业数据库的目的都是为了数据准确,且同时能降低查找的费用。

我将我上面的股票分析师提示词贴在这里,需要参考的人可以读下。以下内容复制进cherry studio就显示正常了,是md格式的。

股票分析师提示词

# 角色
股票分析师
## 注意
1. 股票分析师应该懂得宏观经济运行规律,懂得国际局势对经济的影响,懂得产业属性,懂得分析具体公司的财务报表,及从其他信息渠道获取特定公司的竞争优劣势,从而能够对该公司的基本面及未来发展前景做出预测。
2. 股票分析师应该以数据和其他客观因素来说话,给客户提出严谨、态度明确、具有可执行意义的分析报告。
3. 分析时注重市净率、市盈率、净资产收益率、主营业务增长率几个指标,这几个指标可从网上搜寻,没有则跳过。
4. 当分析具体股票时,必读阅读近五年的年报,和当年的半年报及最近的季报。如上市公司上市年限少于五年,则只读上市后的年报和当季报(年报信息来源于本地知识库,如无知识库或库里没有相关报告则跳过)。
5. 股票分析是一个时效性极强的工作,所以关键数据必须引用最新的。
## 约束条件
- 股票分析师必须基于现有的理论和数据进行分析,不能凭空捏造。
- 股票分析师在提供建议时,需要考虑不同规模企业、不同行业、不同板块的差异。
- 股票分析师应该严格遵守国家法律,及股票交易管理规定。
- 股票分析师主要考虑价值投资,而不用考虑技术分析(基于K线的分析)。
## 目标
股票分析师的主要目标是:
1. 提供准确的股票分析和预测。
2. 帮助用户理解个股的估值及潜力。
3. 在投资和决策中提供买入、卖出、及持有期限的建议。
## 价值观
- 追求股票分析的准确性和深度
- 强调数据和理论在分析中的重要性
- 拓展视野,从宏观经济、世界局势、技术发展等全方位分析
## 工作流程
- 第一步:收集和分析股票相关数据。
- 第二步:应用股票分析理论和模型对数据进行深入分析。
- 第三步:根据分析结果,形成股价预测和投资建议。
- 第四步:将复杂的股票分析以简洁明了的方式传达给用户,注重分析结果而不是过程。
- 第五步:回答用户关于股票问题的咨询,提供专业的见解。
- 第六步:持续关注经济及股票动态,更新股票分析和预测。

(三)、配置知识库

cherry studio本地部署AI经验及开放平台推荐-图片4

1、嵌入模型用硅基流动 pro/baai/bge-m 3

嵌入模型用 pro/baai/bge-m 3, 其实用 baai/bge-m 3 也够(硅基流动的免费),但嵌入模型价格低廉,所以就直接用了 pro/baai/bge-m 3;

嵌入模型只有向量化数据库时只使用一次,所以年使用费用及其低廉,可以忽略不计;

2 、重排序模型用硅基流动 Qwen/qwen 3-reranker-8 b

这个模型每 M 收费 0.28 元,但每次查询时都需要使用,因此成本相对而言比较高(相比于推理模型可以忽略不计),如后期费用较高,则考虑本地部署;

如本地部署需要显卡安装 CUDA。

3、文档处理用 mineru

之所以选这个模型,完全是因为免费。每天免费额度 500 页,轻度使用足够了。可以官网注册,注册后不限量,但每天高速 2000 页,再多就要排队;

Mineru 对图表识别很差,作为补充,财务报表等需要上传 excel 表格,而不是 PDF。如果要省事,那么可以直接用Unstructured 模型,但 cherry studio 默认不支持。

4、其他参数设置如下

嵌入维度根据模型设置,1024 比较中庸;

请求片段设置的 18,建议 15—20 之间,太小检索遗漏的多,太大费资源;

分段大小建议 1000-1200 之间(根据具体应用设置,我是股票分析需要设置的1200,主要是怕图表被切割或);

重叠大小建议为分段大小的 10%—20%之间;

匹配度阈值太小就发散,1 时则严格匹配,太严格容易遗漏,比如我设置了0.8就无法检索到内容;

(四)、其他功能

1、MCP

功能强大,是核心功能,可以打通 cherry studio 和其他应用的接口,比如 OB,office 等。但设置比较复杂,我并没有做过多尝试。

2、全局记忆常开

LLM模型选择“GLM-4.5-Flash |CherryAl”;

嵌入模型选择“BAAl/bge-m3|硅基流动”;

做这样选择的原因只是因为够用免费。

(五)、LLM模型选择

LLM推理模型的选择是AI的灵魂,所以原则上越是强大的模型越好,但现实却被钱包所限制。作为问答应用,中文最强的模型如下:

阿里Qwen3-Max-Thinking-Preview,每百万tokens输入4元,输出28元;

DeepSeek V3.1-Think,每百万tokens输入4元,输出16元;

豆包doubao-seed-1.6,每百万tokens输入0.8元,输出8元(按输入长度分别计费,绝大多数应用这档够用);

但豆包自己给出的模型评分如下,以豆包doubao-seed-1.6为100分,则DeepSeek V3.1-Think为165分,阿里Qwen3-Max-Thinking-Preview为175分,性能的差距基本也就是费用的差距。

回答一条较为复杂的问题,加上本地知识库查询和网络查询,每个问题反复补充问5遍,大概需要消耗10万tokens,也就是上面价格的十分之一,自己估算使用成本。

 

三、推荐的大厂开放模型

大厂有免费的开放模型,我们当然喜欢,但在薅大厂羊毛时并不是一定要选择推理性能最强的模型,这是因为模型越强,推理所用的时间越多,如果你问个词语的解释,当然不愿意等十分钟再看结果。

1、日常简单问题问答选豆包,原因是性能足够,智能体较多,适合多样化需求。

2、要想使用自己的知识库,则应该选腾讯ima

cherry studio本地部署AI经验及开放平台推荐-图片5

这个平台我认为偏向于文档管理和在线笔记,可以用来管理自己的学习和工作文档,自带知识库很方便。在整理工作文档,或写论文时检索参考文献内容等场景很好用。同时还能共享别人的知识库,对读书来说,很多书别人已经上传了,只需要调用即可。基于知识库的推理模块也很好用,缺点就是不能联网 。

3、要想做深读数据分析,则应该选阿里千问

cherry studio本地部署AI经验及开放平台推荐-图片6

千问的深度分析很强大,检索数据很全,且错误较少,也很少发生幻想问题。同时在千问,每百万tokens输出28元的Qwen3-Max-Thinking-Preview模型是免费用的,且不限量。

cherry studio本地部署AI经验及开放平台推荐-图片7

千问的读书做的也很好,导读、翻译、脑图、笔记都有,这些功能都很核心,也很贴心。

 

四、小结

对于AI总想自己部署,原因是可以按需定制,同时数据可控,不怕云服务商哪天突然天价收费,但自己的数据又导不出来。但经过自己折腾后,发现理想很丰满,但现实太骨感。很多应用都能够自己部署实现,但在舍不得大量费用的情况下,效果还不如免费的开放平台好用。同时文档管理等功能自己很难实现和大厂同样的识别率,且智能体也很难构建的和大厂一样完美。所以,折腾一圈还是发现大厂好,只是每家的优势比较分散,如果都想用最好的,就要按需求分开使用,这造成了使用的割裂,也是想自己部署的根本原因。

或许以后大厂会对个人收费,但同时也可能会开放部分定制化功能,这样就达到了性能和功能的统一,或许才是最理想的状态。

目前的免费使用形式不知道还能持续多久,但对于AI,我个人认为能够承受的最大成本是年600元以内。所以,假如以后模型越来越强,成本越来越高,要对个人收费,但年费用上千,我想我就要纠结了,可能又会重回cherry studio本地部署+API调用的老路。

本站文章授权后方可转载,请勿侵权! 如喜欢可点击分享按钮分享。

 
评论  2  访客  1  作者  1
    • XIGE
      XIGE 6

      AI我都是直接用他们平台,自己部署麻烦还像你说的费用不便宜

        • 水拍石
          水拍石

          @ XIGE 确实自己部署不方便,功能还差,也不便宜;现在还是用免费的更好。

      匿名

      发表评论

      匿名网友