30 de mayo de 2012

Tester presionado ..... tester que no reporta

El testing puede ser estudiado  y ejecutado de forma sistemática. Hay conocimiento volcado en los libros y existen esquemas de certificación para dar prueba de ello (ISTQB, ISEB, GTB). 

Pero para el tester o el test engineer que trabaja en entornos ágiles hay mas actividades. Principalmente:
- Diseño de las pruebas
- Ejecución de las pruebas
- Observar y análisis de resultados. 
- Si además el resultado se desvía de lo esperado, reportar el problema y hacerle seguimiento.
- Automatización de las pruebas
- Gestión del tiempo de las pruebas

El tester aprende ciertas técnicas, las sigue, ejecuta los tests y finalmente genera un reporte de ejecución.  La ejecución de las pruebas es una de las últimas actividades del proyecto, y normalmente se ejerce mucha presión sobre los testers para que den su trabajo por terminado, y esta presión puede llevar a que no se reporten problemas, ya que se persigue el "Done".

Esto no es muy motivador puesto que la presión se ejerce más sobre que se firme el documento a que se complete el ciclo y se aproveche la inversión en calidad que ha habido durante el proyecto. 

Mas que "no hay tiempo para probar" deberíamos pensar en "no hay tiempo para estabilizar", "no queda budget para resolver defectos", o "como no podemos peligrar las fechas enfoquémonos en defectos del tipo X" para conseguir mejorar iterando. Hay que tener claro dónde nos hemos quedado y si hemos errado al estimar que contramedidas hemos de poner en práctica en la siguiente iteración para ser más realistas o reaccionar antes ante una desviación.

25 de mayo de 2012

Quality Gates


Cuando se ve el fin del proyecto, siempre nos encontramos con que la calidad se deja para el último momento. Aunque optemos por las metodologías ágiles y llevemos semanas iterando se prioriza el completar las funcionalidades. Para facilita el "cierre de proyecto" y motivar a los equipos sobre la prioridad de la calidad un término utilizado es el de Quality Gate.


Quality Gate: criterios a cumplir para pasar a la siguiente fase del proyecto. 
Las Quality Gates se negocian de antemano con los stakeholders del proyecto, involucrando sobretodo a los stakeholders con más peso en la toma de decisiones (de fechas e inversión) y son, como los SLA de servicio, Compromisos sobre el Nivel de Calidad que deberá tener el software para pasar a la fase de pruebas de sistema y/o por ende no generar un retraso.

Ejemplo de Quality Gates
  • QG3: 0 problemas críticos abiertos
  • QG2: 0 problemas críticos abiertos. <20  de severidad norma
  • QG1: 0 problemas críticos abiertos. <10 de severidad normal. Verificado el funcionamiento correcto en los 3 browsers con más usuarios
Objetivos 
  • Paliar el efecto de "Desarrollo se come el tiempo de pruebas finales", que suele terminar en desastre y retrasos por mala calidad.
  • Mantener a la capa de negocio informada del estado del producto.
  • Y sobretodo....transmitir a desarrollo la importancia de la calidad del producto que están desarrollando, aquí y ahora, sin retrasos, sin dejarlo para mañana, y que es el resultado que se espera de ellos, SIN DEJARLO PARA MAÑANA
 

22 de mayo de 2012

El tester: mejorar la productividad

El testing bien dirigido contribuye positivamente al proceso de desarrollo. Mejora la calidad y reduce el "time to market" por medio de:

  • Hacer que el "objeto" desarrollado esté más cerca del"objeto esperado".
  • Prevención de problemas en producción: ya que los errores se han detectado durante las pruebas y se han resuelto a tiempo.
  • Reducir el impacto: los problemas y las consecuencias son conocidos y puede aplicarse medidas reactivas 


15 de mayo de 2012

Acelerando a los equipos... QualityCoordinator

¿Cómo hacer que los equipos de desarrollo sean más rápidos?
- Haciendo que gasten menos tiempo reparando
- Haciendo que construyan un código mantenible
- Y sobretodo asegurando que construyen aquello que le intereasa a negocio
 
La teoría nos dice que cuanto antes se descubra el problema más barato será resolverlo, pero qué sucede cuando las metodologías son ágiles y los tiempos de desarrollo se miden en semanas en vez de en meses? ¿Qué sucede cuando compactamos todas esas fases?

Fase 1: ¿está el desarrollo alineado con el negocio?
Un programador tiene que ser un experto técnico, modelar las clases de forma eficiente, construir código fiable, escalable y sin problemas de rendimiento. Ahora bien, un programador difícilmente va a estar orientado a la usabilidad, a comprender los fines del negocio y a interesarse por el resto de elementos del ecosistema del producto.
¿Vamos a esperar a completar un sprint de dos semanas para descubrir que el trabajo de todo el equipo de desarrollo no sirve o no encaja 100% con lo esperado?
--> Un buen validador define y/o corrobora los criterios de aceptación en primera instancia. Para la definición es necesario contar con Producto y denpendiendo de la organización no necesitarmos que intervengan más que en las demos del ciclo. QA tiene además un conocimiento muy práctico del producto y del equipo y va a poder expresarlo en su idioma y conseguir resultados.
Fase 2: ¿está el desarrollo libre de issues críticos?¿están definidos todos los textos como para gestionarlo por traductores?¿Está el flujo normal del programa completo?
Un buen programador seguirá la documentación y la guía de estilo y realizará los tests unitarios y de componente según crea necesario.
Un buen coordinador tras verificar el flujo se pondrá en contacto con los traductores para darles soporte sobre la aplicación y darle el contexto tras haber verificado que se han seguido las guías  de estilo. Para conseguir introducir todos los textos críticos antes de que se termine el sprint.
Fase 3: ¿Sigue la UI las guías y políticas definidas por la orgazación?
El programador puede controlar muy bien la tecnología web, por ejemplo, pero no conoce exáctamente el público objetivo de la aplicación completa ni definir la estrategia de testing de productos multilenguajge.
Un  buen verificador tendrá en cuenta el público objetivo, si las nuevas traducciones rompen el interfaz gráfico, si la experiencia de usuario es suficientemente buena y si la funcionalidad tiene aún issues graves pendenetes por resolver.
Fase 4: Sacar el nuevo código a producción
Un programador tras terminar un proyecto ya está empapándose en el siguiente, leyendo especificaciones, etc
Un buen analista analizará los riesgos del código nuevo junto con el resto de código de la release y realizará el análisis de riesgos. Identificará los casos de prueba críticos que hay que asegurar de forma automática y para asegurar que la funcionalidad no se rompe por nuevos cambios.
Fase 5: Paso a producción
.... Ahí está el papel de coordinación final: mitigación de los riesgos, mínimo subconjunto de pruebas, orientado a exploratory testing y a la automatización de casos felices.

Mas?

13 de mayo de 2012

Buscando el problema (II)

Cómo enfocar la búsqueda del problema:
  • Probar primero las cosas que han cambiado
  • Probar primero las funcionalidades "core" antes que las agregadas
  • Capacidad antes que fiabilidad
  • Probar situaciones habituales antes que las condiciones esotéricas
  • Probar los problemas con alto impacto antes que los que tienen pocas repercusiones
  • Probar las áreas con más interés antes que las menos utilizadas
Y finalmente, lo que ayuda bastante a enfocar el testing eficiente es conocer bien el producto y a los usuarios que lo utilizarán.

9 de mayo de 2012

Buscando el problema

Es importante ir a buscar el problema y no a encontrarse el problema... hay una gran diferencia.
Ir a buscar el problema es enfocar el testing conociendo el producto, su implementación y la relación con el resto de entidades para que con el subconjunto mínimo de pruebas tengamos cierto nivel de confianza sobre la construcción del producto. Encontrarse el problema es cuestión de suerte.
He conocido a testers con suerte, y creo que es un factor nada despreciable, al contrario, pero que tiene el problema que no sabes cuando te abandonará :)

La intuición es otro amigo invisible que nos acompaña a veces y que bien utilizado puede darnos ciertas ventajas. Si nos apoyamos en la intuición más una estrategia de buscar el problema tendremos la balanza equilibrada entre corazón y cabeza...

6 de mayo de 2012

Documentación de testing (II): Testing steps

En las metodologías tradicionales, el "deliverable" más importante de pruebas es la documentación, tanto los reportes de ejecución como el detalle de los casos de prueba.
El tener una referencia de cómo se ha probado algo exactamente, con cada uno de los pasos ejecutados es en algunos proyectos un coste no asumible, sobretodo en los proyectos que se desarrollan con metodologías ágiles, en los que cada release puede tener contenido diferente o realizar modificaciones continuas sobre las mismas funcionalidades.

Así los planes de prueba de este tipo de proyectos, los basaremos en los criterios de aceptación y contendrán información del tipo

  • Precondiciones / Provisión de datos
  • Path de navegación
  • Usuarios de test / Datos de entrada
  • Resultados esperados

3 de mayo de 2012

Documentación de testing

Las metodologías ágiles reducen la documentación también en el área de pruebas, pero por pequeño que sea el proyecto, no podemos prescindir de documentar la estrategia. Las pruebas deben seguir una estrategia y ésta deben de estar documentada. 
  • La mayoría de las veces que se escapa un defecto grave, no es por falta de tiempo, sino porque la estrategia no era la adecuada. Aún teniendo el doble de tiempo no hubiéramos capturado el defecto, ya que estábamos mirando para otro lado. El análisis de la causa del defecto debe llevarnos a re-hacer o remendar nuestra estrategia de pruebas del proyecto, para no repetir los mismos errores y lo que es más importante, aprender y formar a nuestro equipo.
  • Si por el contrario, el defecto que se escapa es un corner case, pero nuestra estrategia es la adecuada, no deberemos modificarla (ni torturarnos por ello), simplemente evaluar si no hubo tiempo suficiente para realizar todas las pruebas o si hay un conjunto de escenarios no contemplados (por desconocimiento o por coste) y si tenemos que ampliar nuestro juego de datos de pruebas.
En resumen, no prescindamos de la documentación de la estrategia de testing y mantengamosla en la medida de lo posible como un documento vivo... tan vivo como lo esté el proyecto

2 de mayo de 2012

Requisitos: No sólo de documentación vive el tester

Los requisitos vienen de tres fuentes principalmente:
  • Conversaciones: Preguntas a los PM o desarrolladores desembocan en nuevos requisitos
  • Inferencia: Según la experiencia del tester hay requisitos que son más importantes que otros.
  • Referencia: especificaciones explícitas e implícitas.
Requisitos implícitos 
Se denominan requisitos implícitos, aquellos que sin estar documentados son evidentes para la organización:
  • Basados en estándares de la industria
  • Basados en cómo se comporta la competencia u otros productos similares
  • Basados en el comportamiento de la versión anterior del producto
  • Basados en las guías de estilo de la organización
  • Y finalmente basados en la experiencia del tester, que normalmente es quien mejor conoce el producto y que además tiene feedback de las reacciones de los usuarios.