~80KB
Tests unitarios para modelos de IA. 80KB. Cero instalación.
Validador de modelos para CI/CD que corre inferencia real sin Python ni PyTorch.
El problema
Pusheas un modelo nuevo — un fine-tune, una cuantización, un merge. ¿Cómo sabes que no está corrupto? Hoy no puedes validar modelos en CI. Instalar PyTorch en GitHub Actions toma minutos y 4GB. No existe el equivalente a tests unitarios para modelos.
La solucion
OmniValidate es un binario de 80KB que lee un modelo GGUF, escanea NaN/Inf en cada tensor, corre inferencia real con prompts de test, y compara outputs contra una baseline. Mételo en cualquier pipeline de CI. Cero instalación. Cero dependencias.
Por Qué Bare-Metal Importa
Validar modelos requiere correr inferencia. Correr inferencia normalmente requiere PyTorch (4GB+) o llama.cpp (compilación + dependencias). OmniValidate contiene un motor de inferencia transformer completo en 80KB porque OmniOS compila directo a syscalls.
Especificaciones Técnicas
| Característica | Valor |
|---|---|
| Binary Size | ~80KB |
| Function | CI/CD model validator with real inference |
| Formats | GGUF (Q4_K, Q6_K, Q8_0, Q5_0, F16, F32) |
| Dependencies | None — no Python, no PyTorch, no CUDA |
| Checks | Integrity, NaN/Inf, inference regression test |
| CI Ready | wget + chmod + run — zero installation |
Comparación
| OmniValidate | Python + PyTorch | llama.cpp | |
|---|---|---|---|
| Size | ~80KB | 4GB+ (torch + transformers) | ~2MB (compiled) |
| CI installation | wget (80KB) | pip install (minutes) | cmake + make (minutes) |
| Runs inference | Yes (full transformer) | Yes | Yes |
| NaN/Inf scan | Built-in | Custom script needed | No |
| Dependencies | None | Python, CUDA, numpy | libc, libstdc++ |
| Works in FROM scratch | Yes | No | No |
Casos de Uso
Gate de Modelos en CI
Agrégalo a GitHub Actions o GitLab CI. Cada push de modelo se valida con inferencia real antes del merge.
QA de Cuantización
Después de cuantizar un modelo a Q4_K, corre OmniValidate para verificar que el output no se degradó.
Regresión de Fine-tune
Compara tu modelo fine-tuned contra el base en un set fijo de prompts. Detecta si el fine-tune mejoró el dominio objetivo sin romper capacidad general.
Probar Ahora — Gratis
Proximamente
Este producto esta en desarrollo activo. Contactanos para acceso anticipado o para recibir notificacion cuando los binarios esten disponibles.
Habla con el Equipo