13 agosto 2021

Sobre Inteligencia Artificial ya hemos hablado anteriormente, tanto sobre lo que puede aportar a la hora de diseñar mejores experiencias como de una de sus bases fundacionales, los algoritmos y cómo mejorar su comprensión para conseguir que cualquier persona sepa qué se hace y, sobre todo, los porqués asociados a la toma de decisiones automatizadas. 

Pero en esta ocasión nuestra idea es hacer una reflexión algo más profunda sobre Derechos Humanos y cómo salvaguardarlos frente a posibles abusos derivados del uso de la Inteligencia Artificial.

Diseño centrado en el usuario y sus Derechos Humanos

Caroline Sinders en un artículo de UX Magazine plantea que necesitamos un marco específico para conseguir evitar problemas derivados de la aplicación de tecnologías como la Inteligencia Artificial.

De hecho, hay una afirmación muy poderosa:

La IA es tecnología y la tecnología nunca es neutral.

Efectivamente, las decisiones tomadas a la hora de diseñar un producto o un servicio en el que intervenga la IA pueden ser inocuas o no en función de la aplicación final. Los ejemplos más claros los tenemos con la aplicación del reconocimiento facial o los sesgos aplicables en función del lugar de residencia o el origen de las personas.

El sesgo algorítmico se puede evitar tomando en cuenta los desafíos técnicos a los que hay que dar respuesta, pero también evitando los propios sesgos preexistentes, más aún cuando nos enfrentamos a una economía cada vez más global.

La IA ha de aprender también a evitar problemas derivados del aprendizaje, como sucedió con el bot que se volvió racista. Nuestra disciplina, la UX, tiene mucho que decir en todo esto, ya que la investigación es capaz de detectar potenciales problemas antes de que se produzcan.

El ejemplo más claro de este tipo de problemas y falta de neutralidad de la tecnología está en el reconocimiento facial: mientras que un uso más o menos inocuo puede servir para desbloquear un teléfono, esa misma tecnología puede generar problemas si no se entrena bien, como por ejemplo denunciaba en 2019 el National Institute of Standards and Technology (NIST) de Estados Unidos en un estudio sobre cómo fallaban las tecnologías de reconocimiento facial.

El propio NIST insiste este mismo año en que el riesgo de sesgos en la aplicación de tecnologías de IA es crítico, aunque no hay una única manera de enfrentarse a este reto. Conseguir hacer comprender los algoritmos puede ser una opción, aunque no la única. 

Los principios del Diseño Centrado en los Derechos Humanos

Caroline Sinders plantea que el Diseño Centrado en los Derechos Humanos ha de ser un marco global y propone 6 principios rectores básicos:

  1. El Diseño Centrado en los Derechos Humanos siempre tendrá como base principal el respeto a la privacidad y a la protección de los datos personales.
  2. Siempre ha de recabarse el consentimiento informado de los usuarios, sin engaños ni usando patrones oscuros que les empujen a tomar una decisión que pueda ser perjudicial.
  3. En todo momento ha de haber una posibilidad de elección.
  4. Diseña para el Sur Global y con la diversidad en mente siempre. 
  5. Pregúntate siempre qué puede salir mal y planifica todas las acciones y características en consecuencia.
  6. Los usos indebidos son siempre y sin excepción problemas graves, evitando el no es un bug, es una característica a toda costa.

Para poder garantizar todo esto, es necesario realizar investigaciones etnográficas a gran escala, como aquellas en las que participamos en el marco de la UXalliance. Aunque la inversión necesaria sea elevada, el ROI que se obtiene es exponencial. 

Diseñar para el error ha de ir más allá de lo relacionado con la interacción con la IA, sino con lo que puede significar para esas personas que lo usan: ¿Qué sucede si hay accesos indebidos? ¿Fugas de información? ¿Puertas traseras?

Tomemos un ejemplo: un sistema de reconocimiento facial para pagar el transporte público puede parecer una buena idea de diseño. Se asocia a una persona con una tarjeta para realizar el pago, pero hay muchas cuestiones que pueden ir mal:

  1. ¿Se garantiza el acceso al sistema en momentos de alta demanda?
  2. ¿Qué pasaría si hubiera un acceso indebido?
  3. ¿Y si no se explican bien cuáles son los accesos permitidos?

Esto es un simple ejemplo de una de las tecnologías en las que la IA se aplica. Pero hay otros muchos casos en los que surgen problemas, como ya indicábamos anteriormente: los datos pueden estar sesgados y dar al traste con el objetivo inicial que se pretendía.

Estas cuestiones son fundamentales y si una solución no es 100% segura de cara a respetar los Derechos Humanos habrá que buscar una solución que sea menos dañina. 

Estos Principios del Diseño Centrado en los Derechos humanos permiten, por lo tanto, pensar más allá de nuestro entorno para encontrar usuarios pero también para planificar correctamente qué tecnología de todas las disponibles es la mejor desde el punto de vista de la seguridad y la ética.

Planifica e integra las mejores prácticas de la experiencia de usuario en tu organización con UX-PM Nivel 3: Liderar UX.

Aprende todo lo que necesitas saber sobre el diseño de servicios.

Más información sobre la certificacion internacional en UX Learn.


En Torresburriel Estudio trabajamos los procesos de diseño de producto digital para lograr los objetivos definidos junto con nuestros clientes.