前沿
宝子们!谁懂啊!作为一个摸爬滚打多年的前端老炮儿,去年在研究Rust前端工具链和LLM应用开发的时候,直接一整个被拿捏住了!本前Android野生开发者DNA动了,反手就搞了个超炸裂的工具——Saga Reader麒睿智库!主打一个用Rust和AI搞事情,现在已经开源到GitHub上啦,速来围观。
- 👉 开源地址:Github - Saga Reader
- 👉 产品官网:官方网站,速速下载体验!
- 用户群
为什么要做这个?当然是因为市面上的阅读器都弱爆了!
- 情报雷达启动:这信息爆炸的时代,咱00后不得随时掌握一手资讯?指定感兴趣的领域,神器立马给你扒来全网最新消息,直接化身“人间清醒情报员”!
- 阅读效率拉满:网上文章质量参差不齐,看得脑壳疼?别慌!咱神器自带AI嘴替,把五花八门的文章统一翻译成超丝滑的“宝子专属文风”,核心观点、结论逻辑,直接甩你脸上,主打一个省时省力!
- AI搭子在线陪读:一个人看书太孤单?AI伴读功能直接上线!和它聊文章、唠观点,比和闺蜜吐槽还上头,再也不用担心没人分享奇思妙想啦!
- 广告退!退!退!:最烦那些花里胡哨的广告和水文了!用咱的神器,直接一键开启“清净模式”,纯纯的阅读快乐,谁能不爱?
这神器到底多牛?看完直接惊呆!
- 速度快到飞起:AI驱动,主打一个“嗖”的一下就加载完,比你抢演唱会门票手速还快!
- 轻量到离谱:不占内存,主打一个“来无影去无踪”,电脑轻松无负担!
- 跨平台超全能:基于Rust、Tauri和Svelte构建,不管你用啥设备,都能无缝切换,主打一个随心所欲!
手把手带你解锁神器隐藏玩法
截图
阅读器主界面,简洁大方,支持主题切换
基于兴趣主题的内容订阅,自主灵活设定,网络全球互联网信息
网罗多国语言信息,打造全中文阅读体验,并提供文章结构优化与自动总结、建议与提醒
AI伴读:与拟人化的 AI 助理,与AI基于文章内容深入探讨交流
灵活的大模型选择:可选择云端大模型(如清华智谱),和你个人电脑上的本地大模型(支持 Ollama)
技术实现
整体工作流程
- Frontend:涉及多组件交互、状态管理、国际化处理,组件之间通过 Svelte Store 进行状态共享,国际化模块根据用户设置动态切换语言资源。
- Backend:tauri - plugin - feed - api 作为 Tauri 插件,与前端交互并协调其他业务模块。feed_api_rs 负责核心业务流程,串联 llm、recorder、scrap 等模块,处理复杂的业务逻辑。
- 跨模块协作:文章抓取后,scrap 模块将数据传递给 intelligent 模块,intelligent 调用 llm 进行内容处理,最终结果由 recorder 存储,整个过程涉及多个模块的协同工作。
核心模块
各个模块既相互独立又紧密协作,形成一个复杂且有序的整体。
intelligent: 文章优化工作流模块,提供文章优化过程和提示工程优化的抽象。scrap: 提供数据抓取功能,通过调用主流搜索引擎从互联网获取信息。此模块默认是完全本地化的,不依赖任何第三方服务。recorder: 提供本地存储功能,用户兴趣提示、原始文章和后处理优化文章保存在用户个人计算机存储中。llm: 提供内部的LLM Provider抽象,并适配各种云端和本地大型模型服务实现。ollama: 运行本地ollama,包括运行基本实例、模型更新和管理功能。feed_api_rs: 基于经典门面模式的核心能力API和实现。tauri-plugin-feed-api: 通过tauri命令调用前端的核心能力API。types: 共享基本类型模块。
内容订阅和更新流程
文章阅读和人工智能互动流程
关于我
🚀 通过 在 GitHub 上赞助我让这个软件更好的发展。
互联网老兵,经历PC互联网、移动互联网、AI应用三股浪潮,从早期的移动应用个人开发者角色入场,到现在的职场从业者角色,有丰富的产品设计与研发经验。现就职于快手,从事大前端体系以及AI探索方面的研发工作。
wx号:dokhell
#开源软件 #AI阅读器 #Rust开发 #00后必看