https://github.com/0gis0/chainlit-demo
https://github.com/0gis0/chainlit-demo
chainlit llm mcp mcp-server
Last synced: 6 months ago
JSON representation
- Host: GitHub
- URL: https://github.com/0gis0/chainlit-demo
- Owner: 0GiS0
- Created: 2025-03-25T11:01:31.000Z (6 months ago)
- Default Branch: main
- Last Pushed: 2025-03-25T11:44:57.000Z (6 months ago)
- Last Synced: 2025-03-25T12:32:07.835Z (6 months ago)
- Topics: chainlit, llm, mcp, mcp-server
- Language: Python
- Homepage: https://www.returngis.net
- Size: 2.27 MB
- Stars: 0
- Watchers: 1
- Forks: 0
- Open Issues: 0
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
README
# Demo de MCP Servers con Chainlit
¡Hola developer 👋🏻! En este repo puedes encontrar un entorno donde probar MCP Servers usando Chainlit. Lo único que debes hacer es añadir las credenciales de tu modelo en Azure Open AI en el archivo `.azure.env`:
Este repo funciona con Dev Containers así que no necesitas instalar nada en tu máquina local. Solo abre el repo en VSCode y selecciona la opción de abrir en contenedor.
Una vez que ya lo tengas ejecutandose, añade las credenciales de tu modelo en Azure Open AI en el archivo `.azure.env`:
```
AZURE_OPENAI_API_KEY=
AZURE_OPENAI_ENDPOINT=
OPENAI_API_VERSION=
AZURE_OPENAI_MODEL=
```y ejecuta el siguiente comando para lanzar tu aplicación con Chainlit:
```bash
chainlit run app.py -w
```Ahora verás que como parte del chat tienes un icono que te permite añadir servidores MCP:

Y puedes añadir algunos ejemplos, como el de filesystem;

Con el nombre Filesystem y este es el comando a ejecutar:
````
npx -y @modelcontextprotocol/server-filesystem /workspaces/chainlit-demo
````Y la configuración quedaría algo así:

Preguntarle algo as:
```
Puedes crearme un poema sobre Model Context Protocol Servers y guardarlo en el archivo poema.txt
```Y el resultado sería como el siguiente:

¡Nos vemos 👋🏻!