Evaluación de usabilidad

Métodos de Evaluación de Usabilidad.
Información sobre la plantilla
Evaluacion de arquitectura-de-software-atam.JPG

Métodos de Evaluación de Usabilidad, es un procedimiento sistemático para grabar datos relacionados con la interacción del usuario final con un producto software o sistema. Los datos recolectados son analizados y evaluados para determinar la usabilidad del producto.

Clasificación

Los métodos en la evaluación de usabilidad pueden ser clasificados por numerosos criterios. Por ejemplo: por el grado de implicación del usuario, escenarios de tarea, el empleo de reglas o por el objetivo de la evaluación. En la actualidad no existe un acuerdo unificado para clasificar los métodos y su evaluación mediante la usabilidad y los diferentes autores e investigadores del campo, han definido sus propias clasificaciones sobre los métodos para la evaluación de la usabilidad, aunque existe coincidencia en algunas categorías y solapamiento entre otras.

Nielsen y Molich

  • Evaluación formal: Realiza la evaluación en la interfaz de usuarios mediante algunos análisis técnicos. Los modelos por razón de un análisis formal son actualmente objeto de extensa investigación para poder ser aplicados en proyectos en desarrollo de software real.
  • Evaluación automática: Aquella que utiliza procedimientos computarizados para la evaluación de usabilidad.
  • Evaluación empírica: Realizada mediante experimentos con pruebas de usuario, con el objetivo de lograr una completa evaluación de usuario. Actualmente la mayoría de situaciones prácticas no conducen a evaluaciones empíricas por falta el tiempo, especialización, inclinación, o simplemente tradición para hacerlo.
  • Evaluación heurística: Realizada revisando la interfaz del usuario y generando un informe de acuerdo a la propia opinión.

Wixon y Wilson

  • Evaluación formativa vs. Sumativa: Los métodos de evaluación formativa son usados para generar nuevas ideas durante el desarrollo, en tanto que los métodos de evaluación sumativos son usados para evaluar sistemas existentes.
  • Método de evaluación de descubrimiento vs. Método de decisión: Los métodos de descubrimiento o también llamados métodos cualitativos son usados para descubrir como trabajan, se comportan o piensan los usuarios y que problemas tienen. Por otro lado los métodos de decisión también llamados cuantitativos, son usados en la selección de un diseño determinado entre algunas alternativas o para escoger elementos de diseño de interfaz.
  • Evaluación formalizada vs. Evaluación informal: Los primeros utilizan análisis técnico mientras los segundos son más bien de juicio.
  • Evaluación con usuarios comprometidos vs. Evaluación con usuarios no comprometidos: Estos métodos se diferencian en el grado de compromiso del usuario en la evaluación, análisis y diseño.
  • Evaluación completa vs. Evaluación de componente: Los primeros llamados así por que cubren todos los pasos necesarios para completar los esfuerzos de diseño de usabilidad, mientras que los segundos representan solo una parte de un proceso completo de usabilidad.
  • Evaluación observacional: Permite la colección de datos que proporcionan información acerca de lo que los usuarios están haciendo cuando interactúan con el software. Pueden ser usadas algunas colecciones de datos técnicos. Pueden obtenerse dos categorías de datos: cómo capturan los usuarios las tareas dadas – dónde están las mayores dificultades y qué puede hacerse -; y medidas de desempeño – tales como frecuencia de completar la tarea correcta, cronometrado de la tarea, frecuencia de errores de los participantes, etc.
  • Evaluación por investigación: Empleada para conocer las opiniones de los usuarios o para entender sus preferencias sobre un producto potencial o uno existente a través de cuestionarios y entrevistas.
  • Evaluación experimental: En esta evaluación, un evaluador puede manipular un número de factores asociados con la interfaz de usuario y estudiar sus efectos en el desempeño del usuario. Es necesario planear muy cuidadosamente el nivel de experiencia requerido del usuario, hipótesis a ser probada, estructura de las tareas y tiempo necesario para completar el experimento, entre otros.

Baecker

  • Métodos experimentales: Se diseñan experimentos con la formulación de una hipótesis e hipótesis alternativas y se evalúa cómo el usuario percibe el producto en evaluación. Requiere que tanto desarrolladores como usuarios estén en permanente contacto, se prueban aspectos específicos del software y los cambios se producen muy dinámicamente, lo que no permite que el sistema sea utilizado por usuarios reales hasta que esté maduro.
  • Métodos observacionales: El evaluador observa el comportamiento del usuario mientras utiliza el sistema. En general estas técnicas son complementarias y deberían ser usadas en conjunto con otras técnicas.
  • Métodos basados en preguntas: Se basan en el uso de preguntas informales y estructuradas que permiten al evaluador formarse una idea de la percepción del usuario sobre el producto en evaluación. Aquí se aplican cuestionarios o encuestas, también se usan las páginas de preguntas más frecuentes y de sugerencias de los usuarios.
  • Métodos de evaluación cooperativa: Es una validación empírica que tiene dos puntos importantes: no es necesario ser un especialista en factores humanos para usarlo, y los diseñadores lo pueden usar para encontrar problemas inesperados en sus propios diseños. Esta técnica requiere utilizar un prototipo y usuarios representativos de los usuarios finales.
  • GOMS (Goals Operators Methods and Sequences): Definido como un método que emplea un modelo del proceso cognoscitivo humano para definir cómo hacer una tarea en términos de metas, operadores, métodos y reglas de selección. Sin embargo, tiene una utilidad limitada debido a que está restringida a describir habilidades y rendimiento sin error. Además los diseñadores están en la necesidad de especificar un modelo de su sistema.
  • Inspecciones cognoscitivas: Especialistas en software examinan el código en una búsqueda metódica de problemas. Seleccionan un conjunto de tareas representativas y prueban comando a comando, menú por menú, se formulan preguntas que están basadas en la teoría cognoscitiva de las relaciones entre metas, acciones y el estado visible de la interfaz.
  • Evaluación heurística: Proceso de aplicar reglas o principios de diseño de interfaces a un sistema o prototipo, identificando problemas de usabilidad. Evalúa la consistencia, mensajes de error, el lenguaje, la existencia de ayuda en línea y elementos como iconos, entre otros.

Scriven

  • Evaluación formativa: Aquella realizada durante el desarrollo para mejorar un diseño, se basa en encontrar problemas de usabilidad para lograr así que un diseño de interacción pueda ser mejorado, y organizado.
  • Evaluación sumativa: Aquella realizada después que el diseño de la interfaz de usuario (o componente) ha sido completado, para realizar una valoración absoluta o comparativa del diseño. Consiste en una valoración y comparación estadística de dos o más configuraciones de diseño.

Coutaz y Balbo

  • Recursos de conocimiento: El primer interés de esta taxonomía es el conocimiento necesario para conducir la evaluación. Se consideran dos tipos de conocimiento requerido: la descripción necesaria como una entrada para la evaluación y el nivel de experiencia requerida de la evaluación para ejecutar la misma.
  • Recursos de ambiente: La siguiente preocupación es la que concierne al recurso de ambiente que define el contexto de la evaluación. Esta dimensión es expresada usando un conjunto de cinco ejes. La ubicación donde la evaluación tiene lugar, la estructura de los diálogos proporcionados por la interfaz, las fases del ciclo de vida sobre el desarrollo del software en que la evaluación puede ser conducida, el tipo de interfaz que está siendo evaluado y la restricción financiera o temporal sobre la evaluación.
  • Recursos humanos: Los recursos humanos conciernen a las personas involucradas en el proceso de evaluación, referida tanto a los evaluadores como a los sujetos. Para los evaluadores, la taxonomía toma en cuenta su número y su nivel de experiencia, que es directamente enlazada a la preocupación del recurso de conocimiento. El segundo aspecto de los recursos humanos concierne a los usuarios: su número, su tipo y también su origen.
  • Recursos hardware: Estos recursos cubren los componentes físicos para la evaluación. Incluyen el objeto de la evaluación (es decir qué es evaluado) y los instrumentos usados para capturar los datos. Este segundo concepto enfatiza nuevamente la importancia de la observación del usuario final manipulando la interfaz de usuario mientras se está llevando a cabo la evaluación.
  • Resultados: Los resultados de una técnica o método de evaluación están caracterizados por el soporte dado, así como el tipo de información proporcionada. Este segundo eje permite información objetiva, resultados cuantitativos o la medida correctiva a ser distinguida.

Hix y Hartson

  • Evaluación analítica: Basada en el análisis de las características de un diseño, a través de la revisión sobre la representación de un diseño, prototipo, o implementación.
  • Evaluación empírica: Basada en la observación del desempeño del usuario del diseño en uso.

Generalidades

  • Los métodos de inspección, investigación, empíricos y las heurísticas, son los métodos más considerados por los diferentes autores.
  • Respecto a la participación del usuario en la evaluación, esta dependerá del tipo de método que se utilice para la evaluación y de los objetivos de evaluación de usabilidad preestablecidos. Los métodos de inspección, heurísticas y walkthrough no requieren involucrar usuarios en la evaluación, mientras que los métodos empíricos requieren un número de usuarios que varia dependiendo de la técnica utilizada.
  • La evaluación de la usabilidad puede aplicarse a un componente o al producto completo, dependiendo de las características del método utilizado y de los requisitos y objetivos de evaluación, así como del contexto de evaluación.

Fuentes

  • BAECKER, R., GRUDIN J., BUXTON, W. GREENBERG, S. Toward the year 2000. Reading in human computer interaction: Morgan Kaufman Ed. . 1995.
  • BOOCH, G. Análisis y diseño orientado a objetos con aplicaciones. 2º Edición. Eddison-Wesley/ Díaz de Santos. 1996.
  • COUTAZ, J., BALBO, S. Evaluation des interfaces. utilisateur: taxonomie et recommandations. IHM'94, Human-Computer Interaction Conference, Lilles (France). 1994.
  • FITZPATRICK, R. Strategies for evaluating software usability, Department of Mathematics,Statistics and Computer Science, Dublin Institute of Technology Ireland. 2001.
  • HIX, D., HARTSON, H. Developing user interface: Ensuring usability through product & process. New York, John Wiley and Sons. 1993.
  • JAKOB NIELSEN. Usability engineering. Academic Press.1993.
  • PREECE, J.; ROGERS, Y.; SHARPE, H.; BENYON, D.; HOLLAND, S. y CAREY. Human computer interaction, Addison-Wesley, Wokingham, UK. . 1994.
  • WHITEFIELD, A., WILSON, F.; DOWELL, J. A framework for human factors evaluation, behaviour and Information Technology, Taylor & Francis Ltd, Basingstoke, UK, . 1991, vol. 10, p. 65-79.
  • WIXON , D., WILSON, C. nº WOODWARD , B. Evaluation methods in usability Testing. 1998.