viernes, 21 de agosto de 2020

Una nueva idea matemática domina el sesgo de la inteligencia artificial hacia la toma de decisiones comerciales poco éticas y costosas

 

Investigadores de la Universidad de Warwick, el Imperial College de Londres, EPFL (Lausana) y Sciteb Ltd han encontrado un medio matemático para ayudar a los reguladores y las empresas a gestionar y vigilar los sesgos de los sistemas de inteligencia artificial para tomar decisiones comerciales poco éticas y potencialmente muy costosas y dañinas: una ojo ético en la IA.

La inteligencia artificial (IA) se implementa cada vez más en situaciones comerciales. Considere, por ejemplo, el uso de IA para establecer precios de productos de seguros que se venderán a un cliente en particular. Existen razones legítimas para establecer precios diferentes para diferentes personas, pero también puede ser rentable "jugar" su psicología o su voluntad de comparar precios.

La IA tiene una gran cantidad de estrategias potenciales para elegir, pero algunas no son éticas e incurrirán no solo en un costo moral, sino en una penalización económica potencial significativa, ya que las partes interesadas aplicarán alguna penalización si descubren que se ha utilizado dicha estrategia; los reguladores pueden imponer multas significativas de miles de millones de dólares, libras o euros y los clientes pueden boicotearlo, o ambos.

Por lo tanto, en un entorno en el que las decisiones se toman cada vez más sin intervención humana, existe un incentivo muy fuerte para saber en qué circunstancias los sistemas de inteligencia artificial podrían adoptar una estrategia poco ética y reducir ese riesgo o eliminarlo por completo si es posible.

Matemáticos y estadísticos de la Universidad de Warwick, Imperial, EPFL y Sciteb Ltd se han unido para ayudar a las empresas y reguladores a crear un nuevo "Principio de optimización poco ético" y proporcionar una fórmula simple para estimar su impacto. Han presentado todos los detalles en un artículo que lleva el nombre "Un principio de optimización poco ético", publicado en Royal Society Open Science el miércoles 1 de julio de 2020.

Los cuatro autores del artículo son Nicholas Beale de Sciteb Ltd; Heather Battey del Departamento de Matemáticas, Imperial College London; Anthony C. Davison del Instituto de Matemáticas, Ecole Polytechnique Fédérale de Lausanne; y el profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick.

El profesor Robert MacKay del Instituto de Matemáticas de la Universidad de Warwick dijo:

"Nuestro 'Principio de optimización poco ético' sugerido se puede usar para ayudar a los reguladores, el personal de cumplimiento y otros a encontrar estrategias problemáticas que podrían estar ocultas en un gran espacio de estrategia. Se puede esperar que la optimización elija de manera desproporcionada muchas estrategias poco éticas, cuya inspección debería mostrar dónde Es probable que surjan problemas y, por lo tanto, sugieran cómo se debería modificar el algoritmo de búsqueda de IA para evitarlos en el futuro.
"El Principio también sugiere que puede ser necesario repensar la forma en que la IA opera en espacios estratégicos muy grandes, de modo que los resultados poco éticos se rechacen explícitamente en el proceso de optimización / aprendizaje".

 

No hay comentarios:

Publicar un comentario