25 enero 2018

Hoy vamos a tratar un tema que me gusta mucho. Como personas, todos debemos ser responsables de nuestras acciones. Y cuando elegí estudiar Diseño lo hice por un motivo: creo que el diseño puede cambiar el mundo.

No soy la única que lo piensa. Tim Brown, CEO y presidente de IDEO, exhorta en esta charla TEDx a los diseñadores, a los ingenieros, a todos los creadores, a ir más allá. A construir productos que resuelvan soluciones para los problemas reales del mundo y evolucionar hacia un futuro más sostenible para todos. Porque… ¿qué sucede cuando ocurre lo contrario? Existen muchas situaciones en las que un mal diseño crea situaciones engorrosas. Sólo hace falta acordarse del caso de la ceremonia de los Oscars 2017 y el error al anunciar la película ganadora.

Error humano en los Óscars
Unos momentos antes del mayor error humano ocurrido en la ceremonia de los Óscars (2017)

Algo inocuo que provoca risas. Pero, ¿qué ocurre cuando un mal diseño puede llevar al caos o incluso matar vidas?

Alertas y error humano

El pasado 13 de enero, se recibió una alerta a la población en Hawaii:

“AMENAZA DE MISILES BALÍSTICOS LLEGANDO A HAWAII. BUSCA REFUGIO INMEDIATO. ESTE NO ES UN SIMULACRO.”

¿Qué sucedió? La respuesta del gobernador de Hawaii a los medios fue que un empleado presionó el botón equivocado. ¿Error humano o problema de diseño?

Muchas veces se atribuyen estos casos (incluso en juicios) a personas inocentes, definiéndolo como “un error humano”, cuando no lo es. El verdadero culpable es un diseño mal pensado e incompetente. Cuando se produce un error, lo habitual es buscar el motivo. Si es un caso grave, como un accidente, se forma un comité que exhaustivamente debe determinar la causa. Muchas veces, se llega a la conclusión de que es la persona quien hizo algo mal: “No se fijó en lo que hacía, estaba distraída, necesita más experiencia, …”. Y ahí se acaba todo cuando el comité debería haber ido más allá, y pensar: ¿Qué causó el error humano? ¿Cómo se podría haber prevenido? Porque si no se encuentra la verdadera causa, el problema sigue ahí, latente.

En otras ocasiones sí que se detecta y se arregla. Alan Cooper cuenta en su libro “The inmates are running the asylum” un caso del vuelo American Airlines 965 que salió de Miami en viaje regular a Cali en 1995. Tal como estaba diseñado el sistema de selección de navegación, al introducir una R, en vez de seleccionar “ROZO”, eligió “ROMEO” y siguiendo las instrucciones acabaron muriendo 152 pasajeros y ocho miembros de la tripulación, lo que obligó a revisar esos sistemas. Y aún así sigue habiendo problemas de usabilidad. O la cantidad de miembros amputados por maquinarias por no disponer de una puerta de seguridad o realizar acciones preventivas, como tener que apretar dos botones con ambas manos, para que la máquina funcione.

Como diseñadores, tenemos el deber moral de preocuparnos por crear diseños eficientes y seguros. Diseños que se anticipen y prevengan errores humanos. Porque no seamos inocentes, van a ocurrir. Ese producto lo va a usar una persona que puede cometer fallos. El usuario final no es perfecto y, normalmente, no tiene porque estar centrado al 100% de su capacidad en la tarea, ya que normalmente suelen ocurrir distracciones.

El siguiente ejemplo no es error de diseño de producto sino de diseño del procedimiento. Becky Richards trabajaba como directora de servicios clínicos en el Kaiser South San Francisco Hospital donde el personal de enfermería administraban 800 medicaciones cada día. Pero, ¿que ocurría entre que un doctor dictaba una medicación y el paciente la recibía? El equipo de enfermería tomaba la nota, lo transcribía para que fuera legible, lo ordenaba en la farmacia y cuando llegaba se lo administraba al paciente. El porcentaje de errores era muy bajo, cercano al 0,001%. Pero dado el volumen de administraciones eso suponía 250 errores al año, pudiendo ocasionar otras tantas muertes.

Para intentar reducir ese porcentaje, Richards estudió el caso observando que muchos errores ocurrían porque algo o alguien distraía al personal en ese momento. No hay que olvidar que las áreas de administración de medicamentos estaban en medio de las unidades de enfermería y tanto médicos, como pacientes o visitantes interrumpían. ¿La solución? Cuando alguien del personal de enfermería estaba administrando medicación, debía llevar un chaleco brillante naranja y nadie podía interrumpirle. Era horrible y la gente odiaba llevar esa prenda puesta. Incluso los médicos se quejaban de no poder darles instrucciones cuando pasaban a su lado, pero después de seis meses de prueba los errores se redujeron drásticamente un 47%. Este ejemplo, extraído del libro “Switch”, demuestra cómo no molestar al usuario en tareas críticas genera resultados. También se aplicó en la industria aeronáutica adoptando la regla “cabina estéril” (sterile cockpit): si el avión está por debajo de 10.000 pies no se puede hablar en la cabina de nada que no esté relacionado con ese momento.

Siguiendo con el caso de Hawaii, ¿qué fue lo que realmente sucedió? Los informes sugieren que una persona prueba el sistema dos veces al día, seleccionando el mensaje de prueba de una lista. En este caso, se cree que la persona seleccionó accidentalmente el mensaje incorrecto.

Esto seguro que te ha ocurrido: utilizar un menú desplegable para seleccionar una opción y terminar seleccionando otra. Normalmente, la opción adyacente a la deseada. Los desplegables suelen provocar este tipo de errores, por lo que no deben usarse en situaciones de seguridad crítica. O, al menos, no deben usarse sin pedir una doble confirmación. Incluso, idealmente, validado por una segunda persona que esté separada de la persona que realiza la acción.

Aunque los últimos informes indican que se le pidió al operador que confirmara la elección del mensaje, cuanto más sepa la persona que confirma sobre la situación, menores serán las posibilidades de error. Si la persona que confirma no sabe por qué se envía un mensaje, esto le generará preguntas que permitirán detectar los problemas. En un caso de emergencia real, esa demora sería de unos pocos segundos.

Pruebas con usuarios para reducir errores

Insistimos mucho en esto, continuamente: es importante probar cualquier sistema antes de ser operativo con usuarios reales. Idealmente, bajo un estado de emergencia inducido y con presión de tiempo. Deben probarse escenarios diferentes, incluidos aquellos en los que se activan muchas alarmas o donde las personas solicitan información mutuamente de forma urgente. Situaciones donde las personas que envían y confirman el mensaje se ven interrumpidas.

Otro punto sería la acción correctiva. Cuando se envía un mensaje erróneo, el sistema debe permitir recuperarse del error. La facilidad o dificultad de obtener un permiso y el envío de un mensaje críticamente importante pero peligroso debe ir acompañado de la facilidad o dificultad de corregirlo con rapidez.

En definitiva, es hora de diseñar de manera diferente previniendo el posible error humano. Sabemos cómo hacerlo y debemos ponerlo en práctica. Y se deben testear, antes, durante y después de su implementación.

En Torresburriel Estudio trabajamos proyectos de diseño de servicios y productos digitales en los que la investigación de usuarios es un elemento fundamental del proceso. Si es tu caso, contacta con nosotros hoy mismo y hablamos.

Comentarios

  1. […] humanos son responsabilidad de todos. Cuando hablamos de diseño, normalmente atribuimos a un mal uso de los artefactos por parte de las personas para explicar o justificar errores en el manejo de los aparatos, o de los […]

Trabajamos proyectos de diseño de servicios y productos digitales en los que la investigación de usuarios es un elemento fundamental del proceso.