【基于大模型的问答系统系列文章-Part.01】-技术路线选型以及环境配置

本文最后更新于:几秒前

(未完工)

前期工作

第一次接触这方面的内容,所以先从技术选型开始。

定位 选型
前端 streamlit
大语言模型框架 ollama
工具集 langchain
对话大模型 deepseek-r1:8b
Embedding模型 bge-large-zh-v1.5
硬件方面 阿里云弹性计算云-v100机器

目前的打算是先用各种开源组件搭一个初步能用的v1出来,后续再逐步对每个模块进行优化调优

机器打算使用阿里云的弹性计算云,貌似可以用学生优惠的300块hhh,并且和我的其它资源联动更方便。

环境配置

anaconda

pip install [包名]

conda install [包名]

ollama

ollama run deepseek-r1:8b

ollama pull quentinz/bge-large-zh-v1.5

如果出现无法连接ollama的情况,可以在环境配置中配置以下项目

image-20250719153119788

然后在cmd中使用ipconfig命令查看本机地址,如图

image-20250719153317036

项目结构

chat-v1
├── data
│ └── oi.pdf
├── vector_store
│ ├── documents.pkl
│ └── index.faiss
├── app.py
└── rag_utils.py


【基于大模型的问答系统系列文章-Part.01】-技术路线选型以及环境配置
http://example.com/2025/07/24/chat-v1-01/
作者
Lyriv
发布于
2025年7月24日
许可协议