人工智能 AI
type
status
date
slug
summary
tags
category
icon
password
支持 OPenAI 协议的API都可以使用
使用方式
- 注册 OpenAI 账号,并创建 API Key,
- 支持 OPenAI 协议的API都可以使用 (大多数的第三方中转API, 开源模型都支持此协议)
- 在
设置
→AI
中进行相关配置 - 如果是官方的 OpenAI, 需要填写
模型
,API Key
,网络代理
根据自己的设备环境填写. 其他保持默认 - 如果是第三方API, 需要填写
模型
,API Key
,API 基础地址
. 其他保持默认 (⭐推荐, 不需要调整网络)
- 使用
/AI Chat
唤起对话框,输入提问或者需求后确认
- 也可以通过块标菜单
人工智能
进行更多操作
注意:
- 该功能会将相关文本发送至 OpenAI
- 调用 OpenAI API 会产生一定费用
第三方免费大模型(siliconflow)
🌟 硅基流动:良心 AI 🌟
1️⃣ 免费模型: 支持免费模型(重要的事情说三遍)—— 免费模型,免费模型,免费模型
2️⃣ Token 消耗: 使用免费模型不消耗送的 2000 万 tokens
3️⃣ 付费模型推荐: 建议使用 deepseek-ai/DeepSeek-V2.5
链接: 我的邀请链接 (您与好友均可获赠2000万Tokens)
- 注册硅基流动账号 (直达)
- 点击
API密钥
,新建 API 密钥 (直达)
- 思源笔记 → 设置 → AI,按照下图填写配置
1️⃣ 在硅基流动的模型广场中挑选模型,填写模型名称(直达)推荐模型:deepseek-ai/DeepSeek-V2.5
2️⃣ 填写新建的 API 密钥
3️⃣ 填写 https://api.siliconflow.cn/v1
4️⃣ User-Agent:修改为 Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/112.0.0.0 Safari/537.36
其他配置项说明(如果不清楚,使用默认值即可):
- 超时时间:控制请求等待时间,避免长时间无响应。根据网络和请求复杂度设置合理的超时时间。
- 最大 Token 数:限制请求和响应的长度,避免过长内容。根据需求和资源限制设置合适的Token数量。
- 温度请求:调整生成内容的多样性,高温度增加创造性,低温度增加一致性。根据应用场景选择合适的温度。
- 最大上下文:限制模型考虑的历史对话长度,影响回复的相关性。建议根据对话复杂度和资源情况设置合适的上下文长度。
常见问题
- 报错:Requesting failed, please check kernel log for more details v3.1.15
将
超时时间
调整大一些,例如 90
上一篇
类型过滤
下一篇
日记
Loading...