用 Python 的直接用 open ai 的 SDK 就行,绝大多数的大模型后端都支持 openai 的 sdk ,支持同一套标准,模型名字 base url 和 API key 一改就能无缝衔接。这包括什么 OpenAI, Gemini, deepseek, 智谱, 硅基流动,还有本地的推理引擎,比如 vllm ,ollama ,llamacpp 之类的。
单纯的与 llm 对话一个几十行一百行的 Python 单文件就能实现,一般不会单独写成项目,你上网搜 openai 的相关教程可能能找的到,或是直接让 ai 给你写个案例代码。如果你不熟悉 Python 记得顺便看一下包管理器,依赖管理,虚拟环境之类的东西。2025 年这套东西可以用 uv 解决,不过 ai 可能还不熟悉最新版本的 uv 。
纯对话的最小代码我没有,不过之前写过一个 gist ,向 LLM 提问 1000 次,让他生成随机数,但生成 0 的概率是 90%,运行结果是跑 1000 次之后所有的结果都是 0 (?)。62 行,配置一改就能换到其他大模型去。
https://gist.github.com/t41372/84f250d2ae3567332fc2b97ed4f868a8
关于 langchain ,我不推荐新手用 langchain ,他会让你的生活很痛苦。