Saltar al contenido

Enseñando a la IA a tener corazón

[ad_1]

Las empresas de servicios financieros confían cada vez más en la IA para tomar decisiones que solían tomar los humanos, creando eficiencias para las empresas y reduciendo los costos.

Eliminar el sesgo en la IA es una oportunidad para fintech y es muy necesaria

Cuando estas decisiones están relacionadas con el cliente, estos clientes ahora están a merced de los algoritmos. En teoría, esto debería ser algo bueno.

Los algoritmos no sienten emociones y, por lo tanto, toman decisiones basadas en hechos concretos y puntos de datos, lo que significa que los rasgos humanos de sesgo consciente e inconsciente no deberían aparecer. Y, sin embargo, parece que las IA se han convertido en una extensión de los humanos que las programaron y llevaron a cabo sus sesgos.

Hace poco leí un artículo fascinante en Hora sobre los problemas de Uber con la IA.

Uber utiliza reconocimiento facial impulsado por IA para verificar a los conductores. Sin embargo, algunos conductores dicen que se vieron bloqueados de la aplicación Uber porque la IA consideró que intentaban acceder a ella de manera fraudulenta.

Según los conductores y el sindicato, el Sindicato de Trabajadores Independientes de Gran Bretaña (IWGB), el problema parecía ser que la tecnología de reconocimiento facial tenía problemas con los tonos de piel más oscuros.

En una conversación reciente con Kareem Saleh de una empresa nueva llamada Fairplay, me enfrenté a las duras realidades del sesgo impulsado por la IA en el sector de los servicios financieros.

Kareem me mostró una serie de infografías que ilustran las decisiones crediticias tomadas para préstamos hipotecarios en los EE. UU. La fuente de datos son los propios prestamistas, legislados para recopilar e informar el origen étnico y el género como parte del proceso.

Fairplay ha recopilado todos los datos disponibles y los utiliza para impulsar un tablero que muestra las decisiones de préstamos a nivel de condado. Los datos muestran un sesgo impactante basado en el origen étnico y el género. El sesgo negativo es particularmente agudo para los negros, aunque a los hispanos y nativos americanos no les va mucho mejor. Las mujeres también tienen más probabilidades de estar en desventaja que los hombres.

Ver las comparaciones es aleccionador.

Los resultados se pueden mostrar por institución y, para la mayoría, diría que hace que la visualización sea increíblemente incómoda. Las personas negras en muchas áreas tienen un 80% menos de probabilidades de obtener un resultado positivo.

Cuando Kareem me mostró las infografías por primera vez, supuse (quizás ingenuamente) que los resultados se basaban en un proceso impulsado por humanos. Entonces, fue aún más impactante descubrir que los resultados fueron impulsados ​​​​por máquinas.

Le pregunté a Kareem cuál era el mejor enfoque para resolver el problema. Respondió que “lo primero que hay que hacer es un diagnóstico”. Kareem me dijo que Fairplay tiene una herramienta de análisis que analiza el software de préstamos existente de un banco en busca de signos de discriminación. Intenta responder a las siguientes preguntas:

  1. ¿Es justo el algoritmo?
  2. ¿Si no, porque no?
  3. ¿Cómo podría ser más justo?
  4. ¿Cuál es el impacto económico para el negocio de ser justo?
  5. ¿Los solicitantes que son rechazados reciben una segunda mirada para ver si pueden parecerse a los prestatarios favorecidos?

Responder a estas preguntas obliga a las instituciones a mirar sus motores de decisión y encontrar formas de volver a capacitarlos.

La reevaluación de las solicitudes de préstamo rechazadas se realiza utilizando información más completa sobre los prestatarios y diferentes técnicas de modelado para ver si se parecen a personas solventes. Entonces, por ejemplo, las mujeres tienden a tener un empleo inconsistente entre los 25 y los 45 años. Esta sería una bandera de solvencia para los prestatarios masculinos, pero no necesariamente para las mujeres que toman interrupciones en su carrera para criar a sus hijos.

Kareem sabe que los prestamistas aumentarán sus índices de aprobación para las mujeres, los negros y otras personas que no sean blancas volviendo a capacitar los algoritmos y analizando por segunda vez a los clientes rechazados, en particular aquellos que se encuentran justo por debajo del umbral de aprobación. Según sus estimaciones, este aumento puede ser del 10 al 30%, lo cual es enorme.

El peligro para todos nosotros es que la IA se convierta en un instrumento contundente, que tome decisiones en función de los datos que se le proporcionan en lugar de mirar más ampliamente.

A medida que las máquinas toman más decisiones, los consumidores querrán saber que esas decisiones se toman de manera justa. No son sólo los consumidores tampoco. Los reguladores están priorizando la diversidad y la inclusión. Pueden ver que eliminar el sesgo y aumentar la equidad beneficiará al sector.

Francamente, los que trabajamos en la industria deberíamos hacer todo lo posible para garantizar que la raza y el género tengan poca influencia en las decisiones de las máquinas.

Eliminar el sesgo en la IA es una oportunidad fintech completamente nueva y parece ser muy necesaria.

Entonces, si yo fuera una institución, estaría observando cuidadosamente mis algoritmos e IA, haciendo las cinco preguntas increíblemente sensatas de Kareem, ¡y luego haciendo algo al respecto!


Sobre el Autor

Dave Wallace es un profesional de marketing y experiencia del usuario que ha pasado los últimos 25 años ayudando a las empresas de servicios financieros a diseñar, lanzar y desarrollar experiencias digitales para los clientes.

Es un apasionado defensor y campeón de los clientes y un exitoso empresario.

Síguelo en Twitter en @davejvwallace y conéctate con él en LinkedIn.



[ad_2]

Source link