#V2EX
### [分享创造] [开源] 写了个 Chrome 侧边栏 AI 阅读助手:支持自定义 Key 和 Ollama 本地模型
最近看长文、技术文档和一些内部页面时,经常会用 AI 做总结或者继续追问。
但用了一圈 Chrome 插件后,发现几个问题:
* 很多插件强制订阅,哪怕只是调用一下大模型也要包月
* 有些不支持自定义 API Key ,等于多了一层中间商
* 页面内容要先传到插件方服务器,对敏感文档不太放心
* 对 Ollama / LM Studio 这类本地模型支持不好
所以我写了一个 Chrome 侧边栏插件:**PageMind**。
它的目标比较简单:**插件本身不做中转,不收集数据,你可以用自己的 Key ,也可以直接跑本地模型。**
## PageMind 是什么
PageMind 是一个运行在 Chrome 侧边栏里的 AI 网页阅读助手。
打开网页后,点击插件图标,就可以在侧边栏里:
* 总结当前页面
* 基于页面内容继续多轮对话
* 用斜杠命令生成 TLDR 、思维导图、批判性分析等内容
* 接入 OpenAI 、MiniMax ,以及兼容 OpenAI API 格式的模型服务
* 接入 Ollama / LM Studio 这类本地模型
## 为什么做这个
我主要想解决两个问题。
第一个是 **自定义 Key**。
你可以直接填自己的 OpenAI 、MiniMax 或其他兼容 API 的 Key 。插件不提供中转服务,也没有订阅收费。模型费用直接按你自己的 API 用量计算。
第二个是 **本地模型支持**。
如果你本地已经跑了 Ollama ,只需要把 API Base URL 配成:
```
http://localhost:11434/v1
```
然后选择本地的 Llama 、Qwen 、DeepSeek 等模型,就可以让页面内容只发到本机的模型服务里。对于公司内部文档、私密网页,或者不想把内容发到第三方服务的场景,会更安心一些。
## 现在支持的功能
* 一键总结当前页面
* 基于网页内容多轮追问
* 流式输出
* 深色模式
* Slash Commands ,输入 `/` 快速触发命令
* 内置 `/mindmap`、`/tldr`、`/critique`
* 支持自定义命令,比如 `/translate`、`/code`
* 支持推理模型输出,`thinking / reasoning` 内容会折叠展示
## 关于隐私
PageMind 目前是纯前端 Chrome 插件,没有后端服务,也没有账号系统和 telemetry 。
页面内容只会在你主动触发总结或提问时,发送到你自己配置的 API 地址:
* 如果配置的是 OpenAI / MiniMax ,就发送到对应模型服务商
* 如果配置的是 Ollama / LM Studio ,就发送到你本机的 localhost 服务
## 链接
GitHub:
<https://github.com/liangzhiyu/PageMind>
Chrome 应用商店:
<https://chromewebstore.google.com/detail/pagemind/eakpofgefidinlpoahmpimngjldddelg?hl=zh-CN&utm_source=ext_sidebar>
如果你也在用本地模型,或者不想为了网页总结插件再单独包月,可以试试看。
Bug 和功能建议欢迎直接提 Issue ,我会继续迭代。
欢迎 star!
https://www.v2ex.com/t/1209377#reply0
