Almacenes de modelos personalizados Ollama
Tutoriales prácticos sobre IAPublicado hace 6 meses Círculo de intercambio de inteligencia artificial 12.7K 00
Tome el sistema Windows como ejemplo, los modelos extraídos por Ollama se almacenan en la unidad C por defecto, si necesita extraer más de un modelo, la unidad C se llenará, lo que afecta al espacio de almacenamiento de la unidad C.
Por lo tanto, esta sección describe cómo puede personalizar el Ollama Dónde se almacena el modelo.
Windows (ordenador)
Al descargar Ollama, si no se realiza ninguna acción adicional, el modelo se descargará por defecto en la carpeta
C:\Users\<用户名>\.ollama\models
Si no queremos ponerlo en la unidad C, en este punto creamos la carpeta donde se descargará el modelo personalizado y copiamos la ruta, por ejemplo
D:\Ollama\Models
Nota: Las rutas deben crearse previamente y no deben contener caracteres chinos ni espacios.
Para diferentes situaciones, se pueden adoptar las siguientes estrategias 👀.
Antes de instalar Ollama por primera vez, configure manualmente la ruta de descarga del modelo.
II. Modificar las variables de entorno del sistema (recomendado)
III. Migración de los documentos modelo existentes
I. Establezca manualmente la ruta de descarga del modelo al instalar Ollama por primera vez.
Ruta de instalación personalizada (en la primera instalación)
.\OllamaSetup.exe /DIR="D:\Ollama\Models"
golpe (en el teclado) Install
Después de eso, se puede ver que el software está instalado en la carpeta de ruta personalizada, y el modelo se descargará en la carpeta personalizada por defecto.

II. Modificar las variables de entorno del sistema (recomendado)
Escenario: Se recomienda cambiar la ubicación de almacenamiento del modelo directamente una vez finalizada la instalación de Ollama o si desea que el modelo recién descargado se almacene directamente en la nueva ubicación.
- Configuración de variables de entorno
Win + S
→ Introduzca "Variables de entorno" → Seleccione "Editar variables de entorno del sistema" → Haga clic en el botón "Variables de entorno".- variable del sistema → de nueva construcción → Entrada:
- nombre de la variable ::
OLLAMA_MODELS
- valor variable : Rutas personalizadas (por ejemplo
D:\Ollama\Models
)

- reabrir Ollama entrar en vigor
- Reinicie el servicio Ollama (haga clic con el botón derecho del ratón en el icono de la barra de tareas → Ollama.
Quit Ollama
(y luego reiniciar)
III. Migración de los documentos modelo existentes
Es necesario mover los modelos descargados a una nueva ubicación
- cese Ollama curso
Encontrar el ID del procesotasklist | findstr ollama
Terminación de procesos
taskkill /F /IM ollama.exe
- Ficheros de modelos de migración
- comandante en jefe (militar)
C:\Users\<用户名>\.ollama\models
a una nueva ubicación (por ejemploD:\Ollama\Models
) y liberar espacio de almacenamiento - ❗ Copia de seguridad Copia de seguridad recomendada antes de la migración
C:\Users\<用户名>\.ollama
archivo (papel)
- Creación de variables de entorno
- Ajuste por el método 2
OLLAMA_MODELS
Señala una nueva ruta (por ejemploD:\Ollama\Models
)
- Ajuste por el método 2
- reabrir Ollama entrar en vigor
Revisa la lista de modelos, si muestra modelos que han sido descargados, entonces la migración de modelos fue exitosa 🎉.ollama list
Linux
En los sistemas Linux, los modelos extraídos por Ollama se almacenan por defecto en la carpeta .ollama/models del directorio personal del usuario, normalmente en ~/.ollama/models. Si desea almacenar los modelos en una ubicación diferente, puede hacerlo de varias maneras.
I. Establecer manualmente la ruta de descarga del modelo
Escenario: cuando se instala por primera vez
En los sistemas Linux, Ollama suele instalarse mediante un gestor de paquetes o un script. Si necesita especificar la ruta de almacenamiento del modelo durante la instalación, puede hacerlo estableciendo una variable de entorno.
- Configuración de variables de entorno: Antes de instalar Ollama, configure las variables de entorno
OLLAMA_MODELS
que especifica la ruta de almacenamiento del modelo. Abra un terminal e introduzca el siguiente comando:
export OLLAMA_MODELS=/path/to/your/custom/models
comandante en jefe (militar) /path/to/your/custom/models
Sustituya la ruta por la que desee, por ejemplo /home/username/Ollama/Models
.
- Instalación de Ollama: Siga el procedimiento habitual para instalar Ollama. una vez finalizada la instalación, el modelo se descargará automáticamente en la ruta personalizada especificada.
II. Modificar las variables de entorno del sistema (recomendado)
Escenario: Después de instalar Ollama, desea cambiar la ubicación de almacenamiento del modelo directamente, o desea almacenar el modelo recién descargado en una nueva ubicación.
- Configuración de variables de entorno Editar
~/.bashrc
tal vez~/.zshrc
(dependiendo del shell que esté utilizando), añada lo siguiente:
export OLLAMA_MODELS=/path/to/your/custom/models
Sustituye /ruta/a/tu/nombre_de_usuario/modelos por la ruta que desees, por ejemplo /home/nombre_de_usuario/Ollama/Modelos.
- Guarde el archivo y vuelva a cargar la configuración:
source ~/.bashrc
tal vez
source ~/.zshrc
- Reiniciar el servicio Ollama
Si Ollama ya está iniciado, el servicio puede reiniciarse con el siguiente comando:
ollama quit
ollama start
III. Migración de los documentos modelo existentes
Escenario: Los modelos descargados necesitan ser movidos a una nueva ubicación.
- Cerrar Ollama
- Ficheros de modelización de la migración: se
~/.ollama/models
a una nueva ubicación (por ejemplo/home/username/Ollama/Models
) y liberar espacio de almacenamiento:
mv ~/.ollama/models /path/to/your/custom/models
comandante en jefe (militar) /path/to/your/custom/models
Sustitúyalo por su ruta de destino.
❗ Copia de seguridad de los datos: Se recomienda hacer una copia de seguridad de la carpeta ~/.ollama antes de la migración.
- Configuración de variables de entorno: siga el método 2
OLLAMA_MODELS
Señalar nuevos caminos. - Reinicie el servicio Ollama: Inicie Ollama y compruebe la lista de modelos para confirmar que la migración de modelos se ha realizado correctamente:
ollama start
ollama list
Utilizando los métodos anteriores, puede personalizar de forma flexible la ubicación de almacenamiento de los modelos de Ollama en sistemas Linux para evitar ocupar demasiado espacio de almacenamiento predeterminado.
MacOS
La ubicación predeterminada del modelo de descarga de Ollama en sistemas Mac es
~/.ollama/models/blobs
(como se muestra a continuación). Al igual que con Windows y Linux, los sistemas Mac se configuran mediante la configuración de la opciónOLLAMA_MODELS
para controlar la ruta de descarga del modelo, podemos establecer la ruta de descarga de dos maneras.

I. Cambio temporal de la ruta de descarga
utilizar launchctl setenv
establecer OLLAMA_MODELS
El efecto de este comando es temporal, es decir, se pierde después de reiniciar el ordenador o cerrar la sesión de la cuenta.
launchctl setenv OLLAMA_MODELS "/Users/lta/Desktop/models"
Después de establecer la variable de entorno, puede establecer la variable de entorno utilizando la funciónlaunchctl getenv OLLAMA_MODELS
Ver las variables de entorno actuales.
Modificación de variables de entorno

Prueba después de cambiar las variables de entorno

Si desea cancelar una variable previamente configurada, puede hacerlo mediante la tecla launchctl unsetenv OLLAMA_MODELS
para reiniciar.
II. Cambiar permanentemente la ruta de descarga
- aprobar (una factura o inspección, etc.)
nano ~/.zshrc
Comando Editar~/.zshrc
papeles - Añadir al archivo
export OLLAMA_MODELS="/Users/lta/Desktop/models"
. - Después de guardar y salir del editor ejecute
source ~/.zshrc
para que funcione.
Recuerda reiniciar Ollama después de cambiar la ruta.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...