AI大模型千问 qwen 中文文档的一部分。祝你使用愉快! 1.5 Ollama Ollama 帮助您通过少量命令即可在本地运行 LLM。它适用于 MacOS、Linux 和 Windows 操作系统。现在, Qwen1.5 正式上线 Ollama,您只需一条命令即可运行它: ollama run qwen 接着,我们介绍在 Ollama 使用 Qwen 模型的更多用法 1.5.1 快速开始 访问官方网站 Ollama ”,点击 Download 以在您的设备上安装 Ollama。您还可以在网站上搜索模型,在这里 您可以找到 Qwen1.5 系列模型。除了默认模型之外,您可以通过以下方式选择运行不同大小的 Qwen1.5-Chat 模型: • ollama run qwen:0.5b • ollama run qwen:1.8b • ollama run qwen:4b • ollama run qwen:7b • ollama run qwen:14b qwen:14b • ollama run qwen:72b 1.5.2 在 Ollama 运行你的 GGUF 文件 有时您可能不想拉取模型,而是希望直接使用自己的 GGUF 文件来配合 Ollama。假设您有一个名为 qwen1_5-7b-chat-q4_0.gguf 的 Qwen 的 GGUF 文件。在第一步中,您需要创建一个名为 Modelfile 的文件。该文件的内容如下所示: FROM0 码力 | 56 页 | 835.78 KB | 1 年前3
共 1 条
- 1













