Cherry Studio核心功能与兼容性

支持哪些AI模型服务?
Cherry Studio支持OpenAI、DeepSeek、Gemini、Anthropic等主流云服务模型,同时兼容Ollama本地模型部署。用户可通过API密钥集成第三方服务,也可直接调用本地运行的蒸馏版模型。

是否支持多平台使用?
该软件提供Windows、macOS及Linux全平台客户端,界面支持亮/暗主题切换与透明窗口效果。跨平台数据可通过WebDAV实现自动同步与备份。

安装配置与权限管理

如何获取API密钥?
在硅基流动、深度求索等合作平台注册后,于个人中心创建API密钥。新用户通过邀请码注册可获赠2000万Tokens,密钥需在Cherry Studio设置界面的「模型服务」模块进行连通性测试。

本地部署有哪些硬件要求?
运行Ollama本地模型建议配置16GB以上内存,M1/M3芯片Mac设备表现最佳。7B参数模型需8GB显存,若仅使用云端API则无特殊硬件限制。

知识库与数据处理

支持哪些文件格式投喂?
知识库支持PDF、DOCX、PPTX、XLSX、MD、TXT等12种格式,单个文件上限为500MB。推荐使用Markdown格式以获得最佳分段效果,系统自动进行向量化处理。

如何保证知识检索准确性?
在助手设置中调整「知识库匹配度阈值」(默认0.7),配合bge-m3等嵌入模型可实现精准语义检索。系统会标注答案来源并显示匹配度百分比。

模型调优与高级功能

温度参数如何影响输出?
温度值范围0-1,设为0时严格依赖知识库内容,适合事实查询;0.7-0.9适合创意生成。该参数可与top_p值联动调节,实现输出多样性控制。

多模型对比功能怎么用?
创建对话时启用「网格视图」,可同时连接3个不同模型服务。输出结果支持差异高亮显示,历史记录自动归类到独立会话组。

账户管理与数据安全

免费版有哪些功能限制?
免费用户可使用全部基础功能,但知识库素材上限50个,部分云模型API调用存在速率限制。企业用户需联系销售开通私有化部署服务。

数据存储机制是否安全?
所有本地知识库文件均采用AES-256加密存储,云端交互通过HTTPS双向认证。支持自建向量数据库,关键业务场景建议开启双因素认证。