基于 RAG 架构的校园政策智能问答系统,采用本地优先部署策略,实现 7×24 小时精准应答,保障校园数据安全不出域。
政策文档分散在教务处、财务处、学生处等多个部门网站,师生查找困难,信息获取效率低。
80% 的咨询为重复性问题,占用行政人员大量时间,人力资源浪费严重。
政策更新后旧版本信息仍在流传,师生难以辨别,易被过时信息误导。
传统咨询窗口工作时间固定,无法满足师生在非工作时段的咨询需求。
Web 界面、文件上传、对话历史管理,Session State 实现流式输出体验。
话题分类(LLM)、时效性检测(正则 + LLM)、流式回答生成,核心业务逻辑中枢。
ChromaDB 本地向量检索 → BGE-Reranker 重排序 → Tavily 联网搜索,三级递进检索策略。
BGE-M3 向量化、BGE-Reranker-v2-m3 重排序、CUDA/MPS/CPU 设备动态管理与 LRU 缓存。
学生手册、报账流程、教务通知等 PDF/DOCX 文档,支持实时更新与动态加载。
默认使用 Ollama 部署 Qwen3.5 9B 模型,所有推理在本地完成。校园政策文档、学生信息等敏感数据仅在本地处理,不上传云端。
从本地向量库召回,经过重排序模型优化,最后以联网搜索作为补充,确保问答的准确度与深度。
有效解决语义化问题的漏判。无论是显式的年份关键词还是隐式的“下学期”语义,均能触发时效性校验。
在 Prompt 中动态注入当前日期,赋予模型真实的时间感知能力,让 LLM 能够准确判断政策是否过期。
采用三分类器策略,精准区分对话意图。无论是日常寒暄还是核心业务咨询,系统都能给出得体的响应逻辑。
检索无果时,返回友好提示而非虚假的 LLM 幻觉。提前终止生成器,避免无效计算,确保回答的专业可信。