PennyCooking 隐私政策(Privacy Policy)
PennyCooking 隐私政策(Privacy Policy)最后更新:2026年01月13日
在 PennyCooking,我们尊重您的隐私,并致力于保护您的个人信息。本隐私政策用于说明我们如何收集、使用、存储、共享以及保护您的信息,以及您享有的相关权利。
1. 我们收集的信息根据你使用的功能不同,我们可能会收集以下信息:
账户信息:邮箱、昵称/姓名(用于注册登录、找回、同步与个性化显示)。
你创建/上传的内容:食谱数据(标题、描述、食材、步骤等)、食材/库存数据、用餐记录、你上传的图片/照片。
设备与使用信息:设备型号、操作系统版本、应用版本、基础的使用统计与错误信息(用于稳定性、安全与性能优化)。
购买信息(如适用):当你购买订阅或一次性商品时,购买与支付由 Apple 处理;我们可能会接收与核验相关的订单/收据状态(用于开通或恢复会员权益)。
说明:你可以选择不提供某些信息,但可能会导致相关功能无法使用(例如不登录则无法云同步;不授权相册则无法上传照片)。
2. 我们如何使用您的信息我们可能将上述信息用于:
提 ...
PennyCooking - 智慧厨房与食谱管理 | 使用帮助与技术支持
PennyCooking - 让烹饪更简单、更有条理欢迎使用 PennyCooking!这是一款专注于「食谱管理、食材记录、用餐记录」的智慧厨房应用,帮助你把做菜这件事从“临时想起”变成“随时可执行”。
📱 应用简介PennyCooking 帮你把厨房里的信息整理清楚:有哪些食谱、家里有哪些食材、最近吃了什么、哪些快过期、下一顿做什么。你也可以和家人共享一个“家庭厨房”,一起维护食谱与食材库存。
✨ 核心功能
🍳 食谱管理:创建/编辑食谱,记录食材、步骤与图片,按难度与分类管理
🧊 食材/冰箱管理:记录库存与分类,减少重复购买与浪费
📝 用餐记录:记录每天吃了什么,方便回顾与统计
👨👩👧👦 家庭共享:创建家庭厨房,与家人共享食谱与食材(邀请码加入)
🔑 食谱分享码:生成分享码,把食谱分享给朋友;输入分享码即可导入
🏆 成就系统:通过日常使用解锁称号/勋章,记录你的成长
📖 使用指南(快速开始)1. 创建或导入食谱
新建食谱:添加标题、食材与步骤,保存即可
导入食谱:在“导入/添加”入口输入 分享码,一键导入
2 ...
PennyNote - 智能记账应用 | 使用帮助与技术支持
PennyNote - 让记账变得简单有趣 💰欢迎使用 PennyNote!这是一款轻松、智能的记账应用,帮助你轻松管理每一笔收支,让财务管理变得简单明了。
📱 应用简介PennyNote 是一款功能强大的个人财务管理应用,专注于提供简洁、高效的记账体验。无论是日常消费、还是预算规划,PennyNote 都能帮你清晰掌握财务状况。
✨ 核心功能
🎯 智能记账 - 快速记录每一笔收支,支持多种分类
📊 数据统计 - 直观的图表展示,让你的财务状况一目了然
💡 财务分析 - 智能分析消费习惯,帮助你更好地管理资金
📅 账单管理 - 按日期、分类查看账单,轻松回顾历史记录
🏦 多账户支持 - 管理多个账户,分类清晰
🔒 数据安全 - 本地存储,保护你的隐私安全
📖 使用指南快速开始
添加账单
点击主页面中间的”+”按钮
选择收入或支出
输入金额、选择分类
添加备注(可选)
点击保存
小助手
长安主页中间“+”按钮进行语音交互
聊天页面进行小助手对话
通过快速语音和聊天进行记账以及聊天分析
查看统计
在底部导航栏选择”统计”
查看月度、年度收支情况
分析各 ...
Langchain接入LlamaIndex Retriever
前言Langchain和LlamaIndex都是在 构建LLM应用当中最常用的两个库,但是他们的侧重点不一样:
Langchain侧重于构建更复杂的LLM应用流程,因为足够自定义,帮你解决了围绕大模型应用开发的基础的脏活。
LlamaIndex是可以更快速的基于文档进行问答,封装度更高,侧重点在于快速集成数据和大模型,可以快速构建一个RAG系统。
为什么要采用Langchain和LlamaIndex相结合的方式,因为Langchain更偏基础层可以很方便扩展或者对接其他服务,因此整个大模型的编排交互依然由Langchain进行,但是LlamaIndex擅长什么?没错,就是文档的加载和检索,除了官方提供的一些基础加载库或者检索器,背后还有一个LlamaHub的社区库。提供了更多的解析器或者检索器,可以方便接入LlamaIndex使用。
那么现在思路很明确,整个大模型应用的链路流程由Langchain构建,包括提示词、包括对大模型进行交互、包括后续各种各样的功能,而链路中如果有需要查找知识库(或者构建知识库),由LlamaIndex进行处理。因此可能需要把LlamaIndex的检索 ...
Langchain流式问题
前言构建好chain,正常run或者invoke没问题但是流式一直是连接后等半天单次就输出完毕了
123456789async for chunk in qa_llm_chain.astream({ "query": query, "chat_history": chat_history, "context": context, "tone": tone}): # 打印 chunk 的内容和类型 logger.info(f"chunk type: {type(chunk)}") logger.info(f"chunk content: {chunk}")
解决挺奇怪的,按理来说应该是可以的。一直好像解决不了,最终是选择直接通过llm调用,而不是chain的方式
12345678910111213# 手动构造 prompt 文本prompt_str = promp ...
RAG高级技术与最佳实践
RAG技术树![[Pasted image 20250323163322.png]]
RAG研究的技术树主要涉及预训练(Pre-training)- 微调(Fine-tuning)- 推理(Inference)等阶段
随着LLM的出现,RAG的研究最初侧重于利用LLMs强大的上下文学习能力,主要集中在推理阶段。
随后进一步深入,逐渐与LLMs的模型微调阶段更加融合。研究人员也在探索通过检索增强技术来提升预训练阶段语言模型的性能
回顾NativeRAG过程:indexing:如何更好的把知识存起来 (分割、embedding、存入)retrieval:如何在大量的知识中,找到一部分有用的,给模型参考generation:如何结合用户的提问和检索的知识,让模型生成有用的答案
Qwen-Agent之前使用了coze或者完全自己编码去使用了RAG,除此之外还可以使用Qwen-Agent这样的工具库来更好的应用上RAG![[Pasted image 20250319183148.png]]
Qwen-Agent构建的智能体包含三个复杂的级别,每一层都建立在前一层的基础上:
级别一:检索处理大 ...
LlamaIndex对于向量库的持久化与加载
前言之前使用LlamaIndex做RAG环节的文档加载和检索,使用Faiss作为向量库。知识库构建进行持久化存储,再次加载进行检索时出现维度不匹配的情况。
12345678query_result = self._vector_store.query(query, **self._kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^File "D:\MySpace\dev\python\3.11\Lib\site-packages\llama_index\vector_stores\faiss\base.py", line 195, in query dists, indices = self._faiss_index.search( ^^^^^^^^^^^^^^^^^^^^^^^^^File "D:\MySpace\dev\python\3.11\Lib\site-packages\faiss\class_wrappers.py ...
RAG技术与应用
1、大模型应用开发的三种模式首先要提到进行大模型应用设计时可能会用到三种方式。
分别是 【提示工程 、RAG 、微调】
那么这三种分别应该在什么时候使用呢?
一般来说是需要有一个循序渐进的过程,比如当回答出现问题,先思考提示词是否不够准确,然后才考虑是否知识信息不具备(比如一些内部私有信息),在此基础上提示词已经非常准确,需要的知识也通过RAG进行了提供但还是有问题,此时说明大模型能力还不够这个时候就需要微调了或者换大模型
微调成本很高所以基本上应该优先在原有的基础上优化,微调的成本体现在:首先数据集的建立就很耗人力,而且特定数据多了还会导致破坏大模型原有的能力有这种风险。以及需要的硬件成本。
2、什么是RAG
回到正题那么什么是RAG呢?
RAG全称Retrieval-Augmented Generation 翻译过来就是 检索增强生成,是一种结合信息检索(Retrieval)和文本生成(Gen)的技术
优势是什么?
解决知识的时效性
减少模型幻觉
提升专业领域的回答质量
2.1 RAG构建的步骤step1 数据预处理知识库构建:收集并整理文档、网页、数据等多元数据, ...

