https://github.com/4kumon/ollama-chatbot-cli
Este projeto cria um chatbot local em linha de comando, utilizando o modelo quantizado (q4_0) gemma3 via Ollama. Ele oferece uma base sólida para construir interfaces conversacionais sem depender de APIs externas, ideal para aplicações locais, ambientes offline ou situações onde a privacidade dos dados é essencial.
https://github.com/4kumon/ollama-chatbot-cli
llama-cpp llms ollama python slms
Last synced: 2 months ago
JSON representation
Este projeto cria um chatbot local em linha de comando, utilizando o modelo quantizado (q4_0) gemma3 via Ollama. Ele oferece uma base sólida para construir interfaces conversacionais sem depender de APIs externas, ideal para aplicações locais, ambientes offline ou situações onde a privacidade dos dados é essencial.
- Host: GitHub
- URL: https://github.com/4kumon/ollama-chatbot-cli
- Owner: 4kumon
- Created: 2025-04-18T23:09:29.000Z (2 months ago)
- Default Branch: main
- Last Pushed: 2025-04-19T01:52:48.000Z (2 months ago)
- Last Synced: 2025-04-23T16:16:56.626Z (2 months ago)
- Topics: llama-cpp, llms, ollama, python, slms
- Language: Python
- Homepage:
- Size: 28.3 KB
- Stars: 0
- Watchers: 1
- Forks: 0
- Open Issues: 0