Skip to content

一个AI助手,可以帮你理解和分析当前网页的内容。基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。

License

Notifications You must be signed in to change notification settings

Airmomo/WebChat

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

16 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

WebChat:可以帮你理解和分析当前网页的内容的AI助手

【完全开源】 基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。

功能特性

  • ✅🤖 基于网页内容的智能问答
  • ✅💬 流式输出回答内容
  • ✅📝 消息渲染支持Markdown格式
  • ✅🛠️ 支持自定义API和本地模型
  • ✅🔍 聊天支持上下文
  • ✅🔢 自定义保留对话轮数(避免超出模型上下文长度限制)
  • ✅✍️ 自定义系统提示词(不会影响其作为网页AI助手的本质)

演示视频

由于项目内容会更新,所以实际设置与功能展示可能与演示视频有些不同,请以实际使用为准。

WebChat-show.mp4

安装方法

  1. 下载项目代码:https://github.com/Airmomo/WebChat.git
  2. 打开Chrome扩展管理页面 (chrome://extensions/)
  3. 开启"开发者模式"
  4. 点击"加载已解压的扩展程序"
  5. 选择项目文件夹

基本使用说明

  • 插件开启后刷新页面会显示一颗悬浮球,点击它打开对话框
  • 输入问题后点击发送并等待AI回答
  • 右键点击历史消息可复制内容

支持的API

自定义API

  • 支持OpenAI兼容的API接口
  • 可配置自定义端点

Ollama本地部署开源模型

  1. 官网下载安装 Ollama
  2. 设置允许跨域并启动:
  • macOS:
launchctl setenv OLLAMA_ORIGINS "*"
  • Windows:
  1. 打开控制面板-系统属性-环境变量
  2. 在用户环境变量中新建:
  • 变量名:OLLAMA_HOST,变量值:0.0.0.0
  • 变量名:OLLAMA_ORIGINS,变量值:*
  • Linux:
OLLAMA_ORIGINS="*" ollama serve
  1. 安装模型:
ollama pull qwen2.5
  1. 启动或重启Ollama服务
ollama serve
  1. 注意事项 可使用自定义 API 接口地址来请求ollama服务: http://localhost:11434/v1/chat/completions 如果你是在局域网内其他主机运行的ollama服务,那么请将localhost替换为你的主机IP地址。

注意事项

  1. 使用自定义API需要配置API密钥
  2. 使用本地模型需要先安装并启动ollama,并确保服务在后台运行
  3. 确保网络连接正常
  4. 网页内容仅用于当前对话,刷新页面后对话的内容以及历史记录会丢失

隐私说明

  • 本插件完全开源,不会收集任何个人信息
  • 配置信息默认保存在本地浏览器中

About

一个AI助手,可以帮你理解和分析当前网页的内容。基于Chrome扩展的最佳实践开发,AI助手能够基于当前网页内容进行智能问答。支持自定义API和本地大模型。

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published