差别
这里会显示出您选择的修订版和当前版本之间的差别。
| 两侧同时换到之前的修订记录 前一修订版 后一修订版 | 前一修订版 | ||
| public:it:llm [2024/11/19 09:51] – [Ollama] oakfire | public:it:llm [2025/12/30 16:46] (当前版本) – [LLM(Large Language Model)] oakfire | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| ====== LLM(Large Language Model) ====== | ====== LLM(Large Language Model) ====== | ||
| * 大语言模型 | * 大语言模型 | ||
| + | * 大模型的原理:https:// | ||
| ===== 本地部署 ===== | ===== 本地部署 ===== | ||
| + | ==== llm ==== | ||
| + | * https:// | ||
| + | |||
| ==== Ollama ==== | ==== Ollama ==== | ||
| 行 10: | 行 14: | ||
| * [[https:// | * [[https:// | ||
| === 环境变量设置 === | === 环境变量设置 === | ||
| + | * windows 修改环境变量后,需要把 ollama app 杀掉重启才能生效,右下角图标可以退出,然后cmd命令行就可以自动启动。 | ||
| * **OLLAMA_MODELS**:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C: | * **OLLAMA_MODELS**:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C: | ||
| * **OLLAMA_HOST**:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问 | * **OLLAMA_HOST**:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问 | ||
| 行 19: | 行 24: | ||
| * **OLLAMA_DEBUG**:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题 | * **OLLAMA_DEBUG**:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题 | ||
| * **OLLAMA_MAX_LOADED_MODELS**:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中 | * **OLLAMA_MAX_LOADED_MODELS**:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中 | ||
| + | === 使用 === | ||
| + | * '' | ||
| + | * 本地大模型列表:'' | ||
| + | * 下载或者更新本地大模型:'' | ||
| + | * 运行模型:'' | ||
| + | * 查看运行中模型列表:'' | ||
| + | * WEB UI:[[https:// | ||
| + | * 也可用第三方应用客户端:比如 [[https:// | ||
| + | |||