【基于大模型的问答系统系列文章-Part.01】-技术路线选型以及环境配置
本文最后更新于:几秒前
(未完工)
前期工作
第一次接触这方面的内容,所以先从技术选型开始。
定位 | 选型 |
---|---|
前端 | streamlit |
大语言模型框架 | ollama |
工具集 | langchain |
对话大模型 | deepseek-r1:8b |
Embedding模型 | bge-large-zh-v1.5 |
硬件方面 | 阿里云弹性计算云-v100机器 |
目前的打算是先用各种开源组件搭一个初步能用的v1出来,后续再逐步对每个模块进行优化调优
机器打算使用阿里云的弹性计算云,貌似可以用学生优惠的300块hhh,并且和我的其它资源联动更方便。
环境配置
anaconda
pip install [包名]
conda install [包名]
ollama
ollama run deepseek-r1:8b
ollama pull quentinz/bge-large-zh-v1.5
如果出现无法连接ollama的情况,可以在环境配置中配置以下项目
然后在cmd
中使用ipconfig
命令查看本机地址,如图
项目结构
chat-v1
├── data
│ └── oi.pdf
├── vector_store
│ ├── documents.pkl
│ └── index.faiss
├── app.py
└── rag_utils.py
【基于大模型的问答系统系列文章-Part.01】-技术路线选型以及环境配置
http://example.com/2025/07/24/chat-v1-01/