python调用本地ollama部署的模型
使用langchain调用ollama部署的模型
1 | from langchain_community.llms import ollama |
使用requests调用ollama部署的模型
1 | host = "127.0.0.1" |
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 牛蛙JUN!
1 | from langchain_community.llms import ollama |
1 | host = "127.0.0.1" |