En la última Keynote de Apple, además de anunciar nuevos productos, Tim Cook hizo una afirmación muy potente: la calificación de la privacidad como un Derecho Humano.

Aunque esta frase pueda parecer muy grandilocuente, hoy día hemos de considerar que cualquiera puede tener en riesgo su privacidad por múltiples razones, muchas de ellas derivadas de la imposibilidad de conocer qué tratamiento se da a los datos que se recaban y la finalidad de los mismos.

Por eso es tan importante aplicar en el desarrollo de cualquier producto los principios de Privacy by Design que ya vimos anteriormente, pero queremos detenernos en una cuestión que es muy importante por el contexto en el que estamos actualmente, los algoritmos y los procesos de automatización de tratamiento de datos.

La explicabilidad de la automatización

Aunque la automatización tiene grandes ventajas desde el punto de vista de negocio (ahorros de tiempo, incremento de conversiones), puede dar lugar a efectos perversos en algunos ámbitos.

Y si en el ámbito de la empresa las automatizaciones no están exentas de polémicas, son más críticas cuando nos movemos en la esfera de lo público, en la Administración.

La discriminación algorítmica es sólo una de esas posibles consecuencias que conlleva la aplicación de decisiones automatizadas, pero es el efecto más visible de todos ellos. La aplicación de modelos predictivos en áreas como la concesión de créditos o licencias ha llegado a causar la caída de algún gobierno y de varios directivos.

Debido a esto, se hace fundamental ser capaces de explicar en qué consisten esos algoritmos, cómo automatizan la toma de decisiones y de qué manera se pueden denunciar los posibles problemas derivados de su aplicación. 

Tanto la explicabilidad como el derecho a la compensación se encuentran recogidos en el RGPD. Y la Agencia Española de Protección de Datos lo recoge expresamente en el apartado Información significativa sobre la lógica aplicada de su documento Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción.

En este sentido, el documento recoge qué se considera como significativo y cómo mostrárselo al usuario:

  • El detalle de los datos empleados para la toma de decisión, más allá de la categoría, y en particular información sobre los plazos de uso de los datos (su antigüedad). 
  • La importancia relativa que cada uno de ellos tiene en la toma de decisión. 
  • La calidad de los datos de entrenamiento y el tipo de patrones utilizados. 
  • Los perfilados realizados y sus implicaciones.
  • Valores de precisión o error según la métrica adecuada para medir la bondad de la inferencia. 
  • La existencia o no de supervisión humana cualificada.
  • La referencia a auditorías, especialmente sobre las posibles desviaciones de los resultados de las inferencias, así como la certificación o certificaciones realizadas sobre el sistema de IA. En el caso de sistemas adaptativos o evolutivos, la última auditoría realizada. 
  • En el caso de que el sistema IA contenga información de terceros identificables, la prohibición de tratar esa información sin legitimación y de las consecuencias de realizarlo.

No obstante, incluso mostrando esta información los usuarios pueden llegar a tener dificultades para entender qué datos se tratan, cómo se hace ese tratamiento y las consecuencias que el mismo tiene.

Mejorar la transparencia de los algoritmos

Para conseguir que la información sea efectivamente comprendida, primero hemos de garantizar que la información es efectivamente comprensible. A estos efectos, podemos considerar que los algoritmos no se entienden debido a tres causas:

  1. Intencional: normalmente hay un derecho de propiedad intelectual que lo afecta, como pueden ser los algoritmos que usan los buscadores (Google, Bing). 
  2. Falta de alfabetización: el usuario no es capaz de comprender el funcionamiento del algoritmo al carecer de nociones o habilidades técnicas necesarias. 
  3. De manera innata: la cantidad de información y cálculos que procesan los algoritmos hacen prácticamente imposible la explicación. 

Si tenemos en cuenta que estas tres causas pueden llegar a darse a la vez, a la hora de diseñar cualquier producto en el que los algoritmos vayan a jugar un papel fundamental en la toma de decisiones hay que asegurarse de que toda la información es fácil de comprender.

En este caso, la inclusión de un apartado de preguntas frecuentes o FAQ puede ayudar a explicar cómo se recoge y procesa la información, además de las posibles consecuencias que puede acarrear. 

Y, aunque sea un reto, elaborar una guía de lectura fácil para garantizar la accesibilidad cognitiva permitirá además hacer la información fácil de comprender para cualquier persona, sin importar su grado de alfabetización técnica en la materia.

El uso de un buen storytelling puede además ayudar a que se genere una mayor confianza. Presentar, además, esta información junto con un artefacto o elemento visual que apoye la explicación ayudará a la mejor comprensión de la información. 

Y esto ayudará a eliminar uno de los grandes puntos de fricción que nos encontramos en la experiencia de usuario: la accesibilidad. Si una persona no es capaz de comprender cómo le afectará algo, probablemente aparezca un rechazo, rechazo que viene derivado en multitud de ocasiones del miedo

El miedo al uso de nuestros datos personales puede llevar a que muchas personas se queden fuera simplemente por el hecho de no conseguir entender qué se hace con ellos y el uso legítimo de los mismos, que en muchas ocasiones no pasa de enviar correos electrónicos o mostrar publicidad por comportamientos que realiza el usuario. 

En resumen, tener en cuenta la privacidad como valor en los diseños y explicar qué datos se recogen y cómo se utilizan, permitirán a los usuarios vencer esos miedos y ganar confianza en el uso de nuestro producto.

Conoce los conceptos clave de la UX con UX-PM Nivel 1: Adoptar UX.

Implanta herramientas y buenas prácticas UX en tus proyectos digitales, teniendo en cuenta las características únicas de cada proyecto.

Más información sobre convocatorias en UX Learn.


En Torresburriel Estudio podemos ayudarte en el proceso de investigación con usuarios, aplicando técnicas como las entrevistas personalizadas o la investigación etnográfica.