Ejecuta IA localmente, sin dependencias externas
Instalación con doble clic. API compatible con OpenAI para cualquier proyecto. Visión / Embeddings / Voz a texto — tres servicios listos para usar.
Elige tu plataforma
macOS (Apple Silicon)
v1.0.0M1 / M2 / M3 / M4, aceleración Metal GPU integrada
5.83 GB
Descargar ahora Windows (AMD64)
v1.0.0Recomendado con GPU NVIDIA (CUDA)
—
Próximamente
Tres servicios, un clic
🖼️
Visión-Lenguaje (VLM)
Gemma 4 E4B Q4_K_M. Descripción de imágenes, generación de texto, Q&A multimodal. Endpoint: :8080/v1/chat/completions
🔢
Embeddings de texto
BGE-base-zh, embeddings chinos de 768 dimensiones para búsqueda semántica. Endpoint: :8081/v1/embeddings
🎙️
Voz a texto (STT)
Whisper large-v3-turbo, transcripción multilingüe. 8x tiempo real en M4 Max. Endpoint: :8082/inference
Requisitos del sistema
| macOS (Apple Silicon) | Windows (AMD64) | |
|---|---|---|
| Procesador | Apple Silicon M1+ | AMD64 / Intel x64 |
| Memoria | 16 GB+ (recomendado 32 GB) | |
| GPU | Metal integrado (auto) | GPU NVIDIA 8GB+ recomendado |
| Disco | 8 GB (~6.3 GB modelos) | |
| SO | macOS 12+ | Windows 10 / 11 |
🔒 Seguridad
Todos los servicios se enlazan solo a 127.0.0.1. Sin red externa, sin coste cloud, totalmente en local. El cliente debe ejecutarse en la misma máquina.