推广 热搜: page  考试  小红  红书  数据  论文  数据分析  关键词  哪些  搜索 

Smart Second Brain: 让您的第二大脑更智能的Obsidian插件

   日期:2024-12-24     移动:https://sicmodule.kub2b.com/mobile/quote/11399.html

是一款专为Obsidian设计的免费开源插件,旨在全面提升您的知识管理体验。它充当您的个人智能助手,由ChatGPT或Llama2等大型语言模型驱动,能够直接访问和处理您的笔记,无需手动编辑提示,并且可以完全离线运行,确保您的数据隐私和安全。

🌟 主要特性

📝 与您的笔记对话
  • RAG管道: 所有笔记都会被嵌入向量,然后基于与您查询的相似度检索,以生成基于检索笔记的答案。
  • 获取笔记参考链接: 由于答案是基于检索的笔记生成的,我们可以追踪信息来源,并在答案中以Obsidian链接的形式引用知识的原始出处。
  • 与LLM对话: 您可以禁用基于笔记回答查询的功能,此时所有生成的答案都将基于所选LLM的训练知识。
  • 保存对话: 您可以保存对话,并在稍后继续进行。
  • 不同的对话视图: 您可以在"舒适"和"紧凑"两种对话视图之间选择。
🤖 选择任何首选的大型语言模型(LLM)
  • 使用Ollama集成LLMs: Ollama是一个本地运行LLMs的工具。它的使用类似于Docker,但专为LLMs设计。您可以将其用作交互式shell,通过其REST API使用,或从Python库中使用。
  • 快速切换LLMs: 可以根据不同目的轻松切换不同的LLMs,例如从科学写作切换到说服性写作。
  • 使用ChatGPT: 尽管我们的重点是隐私优先的AI助手,但您仍然可以利用OpenAI的模型及其先进功能。

⚠️ 局限性

  • 性能取决于所选LLM: 由于LLMs针对不同任务进行训练,在嵌入笔记或生成答案方面表现会有所不同。您可以参考我们的建议或找到最适合自己的模型。
  • 质量取决于知识结构和组织: 当您有清晰的结构,不混合不相关信息或连接不相关笔记时,响应会更好。因此,我们建议使用结构良好的保管库和笔记。
  • AI助手可能生成不正确或不相关的答案: 由于缺乏相关笔记或AI理解的局限性,AI助手可能生成不令人满意的答案。在这些情况下,我们建议重新表述您的查询或更详细地描述上下文。

🔧 开始使用

注意: 如果您使用Obsidian Sync,由于版本历史记录,向量存储二进制文件可能会占用大量空间。在Obsidian Sync设置中排除文件夹以避免这种情况。

请按照Obsidian中插件初始启动时提供的入门指南进行操作。

⚙️ 技术原理

查看我们的架构Wiki页面和后端仓库papa-ts了解更多技术细节。

🎯 未来规划

  • 支持Gemini和Claude模型以及类OpenAI模型(如Openrouter...)
  • 相似笔记连接视图
  • 对话线程
  • 混合向量搜索(例如基于时间的检索)
  • 内联AI助手
  • 预测性笔记放置
  • 具有Obsidian工具的代理
  • 多模态支持
  • 性能基准测试

Smart Second Brain: 让您的第二大脑更智能的Obsidian插件

🧑‍💻 关于我们

我们最初是作为大学项目的一部分开发这个插件,现在项目已经完成。然而,我们仍然全身心地致力于在业余时间开发和改进这个助手。这个仓库和papa-ts(后端)仓库作为实验性平台,让我们能够进一步探索最先进的AI主题,并作为丰富我们热爱的Obsidian体验的工具。如果您有任何建议或希望贡献,我们将不胜感激。

📢 如何支持我们

  • 在这里报告问题或提出功能请求
  • 提交PR进行代码贡献(开发设置说明待定)

❓ 常见问题

如果您有任何疑问,请随时在Q&A中提问。

查询是否会发送到云端?

只有当您选择使用OpenAI的模型时,查询才会发送到云端。您也可以选择Ollama在本地运行模型。因此,您的数据永远不会发送到任何云服务,而是保留在您的机器上。

它与SmartConnections插件有何不同?

我们的插件与Smart Connections非常相似。然而,我们基于我们的经验和为大学所做的研究对其进行了改进。

目前,主要区别如下:

  • 我们完全开源
  • 我们支持Ollama/本地模型,无需许可证
  • 我们更注重UI/UX
  • 我们使用不同的技术栈,利用Langchain和Orama作为我们的向量存储
  • 在底层,我们的RAG管道使用其他技术来处理您的笔记,如分层树摘要
您推荐哪些模型?

OpenAI的模型仍然是最强大的,特别是"GPT-4"和"text-embedding-3-large"。到目前为止,我们测试过的最好的本地嵌入模型是"mxbai-embed-large"。

它是否支持多语言保管库?

支持,尽管响应质量可能会因内部使用的提示语言(我们将来会支持更多翻译)和您使用的模型而有所不同。它应该与OpenAI的"text-embedding-large-3"模型配合使用效果最佳。

Smart Second Brain为Obsidian用户提供了一个强大的AI助手,帮助他们更有效地管理和利用自己的知识库。通过结合先进的语言模型和灵活的配置选项,它为用户提供了一种智能、私密且高度个性化的方式来增强他们的第二大脑。无论您是学生、研究人员、作家还是知识工作者,Smart Second Brain都能帮助您更深入地探索和利用您的笔记,从而提高工作效率和创造力。

文章链接:www.dongaigc.com/a/smart-second-brain-obsidian-plugin
https:https://blog.csdn.net/2401_87458718/article/details//www.dongaigc.com/a/smart-second-brain-obsidian-plugin

本文地址:https://sicmodule.kub2b.com/quote/11399.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号