Los algoritmos discriminan?

book-education-graphing-paper-167682.jpg

Los datos y los algoritmos tienen un rol cada vez más importante a la hora de realizar elecciones, en tanto con el análisis de la información podemos tomar decisiones con mayores fundamentos, más velocidad y menos errores. Sin duda lo anterior resulta muy beneficioso, pero se están planteando casos de discriminación, en tanto los algoritmos se alimenten de datos o criterios que –intencionalmente o no- pueden no ser neutrales y pueden terminar discriminando o vulnerando a determinados grupos.

Por ejemplo, hace poco se difundió que Amazon iba a prescindir de una Inteligencia Artificial de reclutamiento porque discriminaba a las mujeres. ¿Cómo una máquina puede discriminar?  — porque según se difundió, el sistema había sido alimentando con los datos de los perfiles de los ex trabajadores de los últimos 10 años, los cuales en su mayoría eran hombres. El sistema entendió que los hombres eran preferibles para cargos de software o puestos técnicos, por lo que penalizaba a las postulantes cuyos CVs incluían la palabra “mujer”[1].

Asimismo, se difundieron casos respecto a supuestos de racismo, por etnia u origen, de seguros médicos, de seguros para automóviles, etc… como señala Cathy O´Neil, PhD de Harvard, pensamos que las matemáticas son neutrales, pero en realidad no lo son, los algoritmos son pensados, elaborados y desarrollados por personas, que pueden tener diversos intereses y de esta forma manipular la toma de decisiones[2].

En vista de esta situación y de otras, de las cuales se está tomando conciencia, el pasado 8 de abril la Unión Europea publicó los lineamiento éticos para el desarrollo de una Inteligencia Artificial (IA) confiable, que parte de la base de que la IA debe: cumplir con las leyes y con las regulaciones, respetar los principios éticos y los valores, y establecer sistemas seguros técnica y socialmente[3].

Se establecieron 7 claves principales:

  • EMPODERAR A LAS PERSONAS Y SUPERVISIÓN: ayudándolos a tomar decisiones más informadas y a promover sus derechos.
  • SEGURIDAD: Los sistemas deben ser seguros y tener un plan de recuperación.
  • PRIVACIDAD Y CONTROL DE DATOS: asegurando el control, la integridad, la calidad y el acceso legítimo.
  • TRANSPARENCIA: el sistema y el modelo de negocios debe ser transparente, además los sistemas de IA y sus decisiones deben explicarse adaptándose al interesado.
  • DIVERSIDAD, NO DISCRIMINACIÓN Y EQUIDAD: debe evitarse los sesgos injustos, que podrían derivar en la marginación de grupos vulnerables. Deben ser accesibles para todos, independientemente de cualquier discapacidad e involucrar a las partes interesadas relevantes en todo el ciclo.
  • BIENESTAR SOCIAL Y AMBIENTAL: deben beneficiar a todos los seres humanos, por lo que deben ser sostenibles y respetuosos con el medio ambiente.
  • RESPONSABILIDAD: debe haber mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados. Es clave la posibilidad de auditar y de evaluar los algoritmos, así como el proceso de diseño.

Es importante poder incorporar estos aspectos, a fin de dar seguridad y transparencia, promoviendo la innovación y el desarrollo de las nuevas tecnologías, sin vulnerar los derechos fundamentales.

[1]EL PAIS, URL: https://elpais.com/tecnologia/2018/10/11/actualidad/1539278884_487716.html

[2]BID: https://blogs.iadb.org/administracion-publica/es/quien-nos-protege-cuando-big-data-facilita-la-discriminacion/

[3]https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s