Configurar llama con obsidian
Utiliza llama3.2 con obsidian para completar y mejorar tus notas de una manera sencilla y rápida, incluyendo embedding models que trabajen con tus llms favoritos.
Descargar obsidian
Primero descarga obsidian e instalalo en tu ordenador
en Arch Linux a través de `yay` puedes usar:yay -S obsidian
Descargar ollama
A continuación descarga ollama para tu maquina:
En linux puedes usar:curl -fsSL https://ollama.com/install.sh | sh
Descargar un LLM, llama 3.2
Después de instalar ollama, abre una terminal y ejecuta:
ollama run llama3.2
A continuación se descargará el modelo de llama 3.2, y si no tienes ninguno instalado se utilizará este por defecto.
Para descargarnos cualquier otro modelo simplemente ejecuta el mismo comando seguido del modelo que quieres utilizar:
ollama run llama3.3
Puedes ver aqui el resto de modelos.
Descargar un Embedding model
Podemos descargar un modelo de embedding que nos permitirá mejorar la precisión de las predicciones, reducir el ruido y la variabilidad en los resultados y aumentar la eficiencia computacional.
En este caso descargaremos nomic-embed-text
ollama pull nomic-embed-text
Configurar obsidian con llama
A continuación abre obsidian, y en settings > community plugins busca Local GPT e instala este plugin.
Te recomiendo seleccionar un atajo de teclado, como por ejemplo crtl + space, para poder utilizar las opciones que este plugin nos ofrece por defecto.