Please enable JavaScript.
Coggle requires JavaScript to display documents.
TIPOS DE PRUEBAS DE SOFTWARE - Coggle Diagram
TIPOS DE PRUEBAS DE SOFTWARE
Pruebas de recuperación
Descripción
Verifican cómo el sistema se recupera tras fallos (caídas de servicio, pérdida de red, corrupción, reinicios).
Indicadores
MTTR (tiempo medio de recuperación)
RTO/RPO (tiempo/objetivo de recuperación, punto/objetivo de recuperación)
% de conmutaciones por error exitosas
% de datos recuperados (pérdida de datos)
Ejemplos
MTTR < 10 min ante caída del servicio
RTO = 15 min; RPO = 5 min
100% de nodos hacen failover automático
< 0.1% de órdenes perdidas tras restauración
Pruebas de seguridad
Descripción
Evalúan confidencialidad, integridad y disponibilidad frente a amenazas (OWASP, hardening, permisos).
Indicadores
vulnerabilidades por severidad (Alta/Media/Baja)
% de vulnerabilidades críticas corregidas
MTT*R de seguridad (detección/remediación)
% de endpoints con autenticación/HTTPS
Ejemplos
0 vulnerabilidades críticas abiertas
95% de críticas corregidas en ≤ 7 días
100% de APIs con TLS 1.2+ y JWT vigente
Tasa de intentos de intrusión bloqueados > 99%
Pruebas de esfuerzo
Descripción
Llevan el sistema más allá de su capacidad nominal para observar degradación y puntos de ruptura.
Indicadores
Usuarios concurrentes máximos antes de fallo
Error rate bajo sobrecarga (% 5xx/timeout)
Throughput pico (req/s, msgs/s)
Degradación de latencia vs. carga (pendiente)
Ejemplos
Punto de ruptura a 12,000 usuarios
Error rate < 2% a 150% de la carga nominal
8,000 req/s con latencia estable
Pendiente de latencia < 0.5 ms por 100 usuarios
Pruebas de rendimiento
Descripción
Miden tiempos de respuesta, throughput y uso de recursos bajo cargas esperadas.
Indicadores
p95/p99 de latencia
Throughput sostenido (req/s)
Utilización de CPU/Memoria/IO
Cumplimiento de SLA (% de peticiones bajo umbral)
Ejemplos
p95 < 300 ms; p99 < 600 ms
≥ 5,000 req/s sostenidos
CPU < 70%, Mem < 75% en carga pico
≥ 99% de respuestas < 500 ms
Pruebas de despliegue
Descripción
Validan que el software puede instalarse/actualizarse/retrocederse en entornos objetivo.
Indicadores
Tasa de éxito de despliegue
Change Failure Rate (DORA)
Tiempo de despliegue / rollback
Paro de servicio durante deploy (downtime)
Ejemplos
≥ 99% despliegues exitosos
Change Failure Rate ≤ 10%
Rollback < 5 min, automatizado
Cero downtime con blue/green o canary
Pruebas de validación
Descripción
Confirman que el producto satisface los requisitos y necesidades del usuario/cliente.
Indicadores
Cobertura de requisitos (% casos por requisito)
Pass rate funcional/UAT
Defect leakage (defectos en producción)
Trazabilidad req→test→defecto
Ejemplos
Cobertura de requisitos ≥ 95%
UAT pass rate ≥ 90%
100% requisitos con casos y evidencias
Defect leakage ≤ 2 por release
Pruebas de integración
Descripción
Verifican la interacción entre módulos/servicios y contratos de interfaces.
Indicadores
Tasa de éxito de build/CI
Pass rate de pruebas de integración/contratos
Defectos en interfaces por KLOC
% de cobertura con servicios reales vs mocks
Ejemplos
I verde ≥ 95% de ejecuciones
Contratos API (pact) pass ≥ 98%
< 0.5 defectos de interfaz por KLOC
≥ 70% pruebas contra ambientes reales