public:it:llm

差别

这里会显示出您选择的修订版和当前版本之间的差别。

到此差别页面的链接

两侧同时换到之前的修订记录 前一修订版
后一修订版
前一修订版
public:it:llm [2024/11/19 09:51] – [Ollama] oakfirepublic:it:llm [2024/11/19 13:56] (当前版本) – [Ollama] oakfire
行 10: 行 10:
   * [[https://mp.weixin.qq.com/s/majDONtuAUzN2SAaYWxH1Q|博客:介绍和使用]]   * [[https://mp.weixin.qq.com/s/majDONtuAUzN2SAaYWxH1Q|博客:介绍和使用]]
 === 环境变量设置 === === 环境变量设置 ===
 +  * windows 修改环境变量后,需要把 ollama app 杀掉重启才能生效,右下角图标可以退出,然后cmd命令行就可以自动启动。
   * **OLLAMA_MODELS**:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users%username%.ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧   * **OLLAMA_MODELS**:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users%username%.ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧
   * **OLLAMA_HOST**:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问   * **OLLAMA_HOST**:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问
行 19: 行 20:
   * **OLLAMA_DEBUG**:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题   * **OLLAMA_DEBUG**:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
   * **OLLAMA_MAX_LOADED_MODELS**:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中   * **OLLAMA_MAX_LOADED_MODELS**:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中
 +=== 使用 ===
 +  * ''ollama help''
 +  * 本地大模型列表:''ollama list''
 +  * 下载或者更新本地大模型:''ollama pull <llm-name>''
 +  * 运行模型:''ollama run <llm-name>''
 +  * 查看运行中模型列表:''ollama ps''
 +  * WEB UI:[[https://github.com/ollama-webui/ollama-webui-lite|ollama-webui]]
 +  * 也可用第三方应用客户端:比如 [[https://chatboxai.app/zh|chatbox]]
 +
  • public/it/llm.1731981092.txt.gz
  • 最后更改: 2024/11/19 09:51
  • oakfire