运行并使用LLM
学习目标
学习完本部分,使学习者能够:
- 安装 ollama,以命令行方式通过ollama下载 某LLM,与该LLM进行对话
- 使用 ollama的各项功能,如导入模型、制作modelfile等;
- 安装 open webUI,完成配置,与某LLM进行对话。
- 使用python 调用 ollama API,完成对话。
- 使用python 调用 闭源商用LLM API,完成对话。
学习
- 阅读并操作:ollama安装、使用和学习
- 阅读:ollama github, ollama部署指南
- 操作:在本机上安装ollama,在命令行中通过ollama pull命令拉取模型,通过ollama run命令运行模型。
- 扩展体验:
- 在命令行中运行ollama -h,查看ollama命令的用法,并逐一试验;
- 阅读ollama官网,查看可用model列表,并选择部分model阅读其说明;
- 阅读ollama文档,学习ollama如何导入模型,如何制作modelfile,如何通过网络访问其API等内容;
- 将ollama 资源库clone到本地,学习examples目录下的代码。
- 学习langchain调用ollama,使用python调用ollama。
- 阅读并操作:open webUI安装、使用和学习
- 阅读:open webui github, open webUI quick start, ollama和open webUI运行llama3
- 操作:在已安装ollama后,安装或通过docker运行open webUI,体验在open webUI上运行ollama。
- 扩展体验
- 阅读open webUI文档并体验。
- 阅读并操作:openAI初探, Anthropic初探
实践
- 构建ollama服务,使用python调用API,传递提示和解析响应。
- 使用python调用闭源商用LLM API,如openAI、Anthropic等,传递提示和解析响应。