Cada vez es más común que la banca utilice algoritmos de machine learning (aprendizaje automático) para determinar si concede o no un crédito a una persona o empresa. Y como esta industria, otras también los utilizan para tomar diferentes decisiones. Pero ocurre que estos sistemas de inteligencia artificial (IA) pueden incorporar sesgos en esa toma de decisiones, y los resultados que generan podrían discriminar a las personas en función de su origen, edad, género, dialecto, nivel de ingresos y lugar de residencia, según advierte Isabel Fernández, managing director de Applied Intelligence de Accenture.

Para combatir ese problema, el equipo de Inteligencia Aplicada de esta consultora ha lanzado al mercado una herramienta, llamada AI Fairness, para cuyo desarrollo se ha apoyado en el trabajo de un grupo de investigadores del Instituto Alan Turing.

La experta de Accenture explica que el problema ocurre porque la inteligencia artificial aprende del mundo real y, “desgraciadamente esto puede incluir prejuicios y estereotipos predominantes”. “Generalmente, los algoritmos no tienen sesgo; lo tienen los datos que se utilizan para hacer esos algoritmos”, continúa.

Fernández explica que la herramienta que han lanzado lo que permite a las compañías y a las administraciones públicas es comprobar que sus sistemas de inteligencia artificial no incorporan sesgos heredados de decisiones tomadas en el pasado. Y para ello les ayuda a poner las medidas estadísticas necesarias en la preparación del dato”.

Un ejemplo, dice, podría ser el de un banco que quiera desarrollar una aplicación de IA para determinar si un cliente debería obtener un préstamo atendiendo a cierta información personal. “Los empleados del banco son conscientes de que existe un potencial de parcialidad, e incluso pueden saber que probablemente no deberían incluir cierto tipo de información en su modelo. Con nuestra herramienta, los llamados científicos de datos del banco podrán definir, medir y aumentar cuantitativamente la imparcialidad del algoritmo como parte del proceso de desarrollo”.

En concreto, la herramienta de Accenture verifica los datos de que dispone el sistema de inteligencia artificial y determina qué impacto tienen las variables sensibles en otras variables. “Por ejemplo, el género a menudo se correlaciona con la profesión, por lo que, incluso si una empresa elimina el género del conjunto de datos, quedará un impacto residual si la profesión aún es parte del conjunto”.

Además, la solución permite una evaluación y ajuste del modelo de inteligencia artificial para un impacto igualitario, “de manera que se asegure que las personas reciban un trato justo”. Igualmente, AI Fairness muestra si la mejora de la ecuanimidad del modelo hará que este sea menos preciso y en qué medida, continúa Fernández.

La herramienta puede contratarse como un servicio, y la directiva de Accenture defiende que esta solución, que llevan años usando internamente, forma también parte de un conjunto de ofertas para crear una inteligencia artificial responsable y ágil que permita a las organizaciones integrar evaluaciones éticas en el proceso de innovación, sin desacelerarlo. La herramienta se puede usar tanto antes de construir el algoritmo, como durante su creación y cuando este está en producción, con el fin de evitar que se vayan introduciendo esos sesgos.

Fernández no revela qué clientes están utilizando esta herramienta por acuerdos de confidencialidad, pero sí da un nombre: el sistema de personalización de contenidos del BBVA tiene embebida esta solución. Y señala que esta solución la están utilizando en proyectos de telecos, en banca (para modelos de venta cruzada) y en la industria turística (algunas aerolíneas lo están usando para entender al cliente y hacerles ofertas personalizadas.

Aquí no hay magia

A la directiva de Accenture no le produce miedo el riesgo de los sesgos en inteligencia artificial. “No es algo que me preocupa, pero sí me ocupa. Fíjese que en esto no hay magia; hay metodología, estadística y análisis. E igual que un arquitecto debe aplicar una metodología con rigor cuando construye un edificio y hay una parte que tiene que ver con la cimentación y el análisis del suelo, aquí también debemos aplicar una metodología y validar que no hay sesgo en los datos antes de construir un algoritmo”.

Siguiendo otro símil, el de los aviones y la IATA, “que fija los criterios que deben cumplir los pilotos automáticos de los aviones”, Fernández cree que son los órganos reguladores de los distintos sectores quienes deberían establecer los protocolos que den por válido un sistema de IA, “aunque lógicamente habría que dotarles del conocimiento necesario para ello”.

Fuente: Cinco Días