La importancia de la lucha contra el sesgo en la IA – Juegos de AI

Nunca ha habido un mejor momento para trabajar con AI; muchas herramientas poderosas de inteligencia artificial son de código abierto, disponibles para que cualquiera las pueda aprender y construir con ellas. Google, Amazon, Microsoft y AT&T son solo algunos de los grandes bateadores que comparten su AI y su software de aprendizaje automático de forma gratuita. Muchas más empresas y nuevas empresas de todos los tamaños han adoptado el enfoque de código abierto para el desarrollo del algoritmo AI. Las plataformas de aprendizaje virtual y las herramientas educativas de IA, como AI Gaming, permiten que cualquier persona con conexión a Internet y la voluntad de aprender a desarrollar habilidades de AI.

A medida que la educación de AI se vuelve más y más accesible, es esencial que la comunidad de AI desarrolle principios rectores. La IA es una tecnología poderosa, pero el desarrollo de sus aspectos más positivos podría verse obstaculizado si las herramientas de la IA comienzan a dañar a la sociedad. ¿Cómo sería un código de conducta de AI? Dicho código tendría que abordar el problema del sesgo en la IA.

El sesgo es un problema acuciante en la comunidad de AI, en parte porque ya tenemos muchos ejemplos de ello. Al principio, el problema de sesgo de la IA puede parecer contraintuitivo: las máquinas toman decisiones basadas en su programación en lugar de señales sociales irracionales. Los sitios web y los automóviles tratan a los nuevos usuarios por igual, independientemente de su raza o género. Pero mientras que la tecnología no puede "sentir" el sesgo de la misma manera que lo hacen los miembros conscientes de la sociedad humana, esos humanos construyen una tecnología que puede reflejar fácilmente las preferencias explícitas o implícitas.

Muchos programas de reconocimiento de AI, por ejemplo, clasifican imágenes, archivos de sonido u otros objetos de datos comparándolos con una "norma". Si Alexa oye un sonido que reconoce lo suficientemente cerca de su punto de referencia para "Hola Alexa", lo hará responder. Uno de los grandes avances de Amnistía Internacional en el campo del reconocimiento de voz es establecer esta funcionalidad "lo suficientemente cercana", que permite a los usuarios hablar con sus dispositivos domésticos fuera de condiciones totalmente experimentales y de tipo experimental.

Pero los programas de reconocimiento de voz se basan en el conjunto de datos de referencia disponibles para ellos, lo que significa que algunas voces suenan más alejadas de las normas de referencia que otras. Dos estudios recientes descubrieron que incluso los programas de reconocimiento de voz más utilizados luchaban con los acentos escoceses y estadounidenses del sur, las mujeres y los hablantes negros y de raza mixta estadounidenses. A medida que la funcionalidad de voz se vuelve más importante en la vida cotidiana, las desventajas de ser mal interpretadas por las entidades de AI solo aumentarán.

Este problema no se limita a la voz. Los investigadores de Stanford están desarrollando una entidad de IA que está aprendiendo a identificar lesiones cancerosas mediante el análisis de imágenes etiquetadas de marcas cutáneas sanas y cancerosas. Con el tiempo, esta herramienta podría salvar vidas al detectar el cáncer en personas que no pueden o no visitan el consultorio de un médico, pero pueden tomar una fotografía con su teléfono inteligente. Pero a medida que sus investigadores continúan desarrollándolo, es esencial que la IA aprenda a identificar las lesiones de la piel en una amplia variedad de colores de piel al analizar un conjunto de imágenes diversas. Una IA calibrada para detectar lesiones en un tono de piel podría identificar erróneamente las lesiones en un tono de piel diferente, lo que provocaría la angustia innecesaria de un falso positivo o la ventana de tratamiento temprano perdida causada por un falso negativo.

El establecimiento de normas en los programas de reconocimiento de IA también podría terminar reflejando y reforzando los estereotipos. Un estudio explosivamente controvertido publicado en 2017, también de investigadores de Stanford, afirmó haber desarrollado una IA que podía detectar si los sujetos fotografiados eran homosexuales o heterosexuales usando solo reconocimiento facial. La IA aprendió a clasificar caras utilizando miles de fotografías seleccionadas de una popular aplicación de citas estadounidense donde los usuarios habían compartido su orientación. Los investigadores afirmaron que la IA identificó las diferencias faciales fisonómicas causadas por la exposición a la hormona prenatal, una hipótesis controvertida sobre qué "causa" la orientación sexual. Tal herramienta podría ser abusada fácilmente, por ejemplo, por parte de contratistas sesgados que intentan evitar la contratación de empleados homosexuales.

Tanto LGBTQ como los grupos de investigadores se apresuraron a denunciar el estudio, no solo por su potencial para ayudar a la discriminación sino también por fallas en el diseño. La Campaña por los Derechos Humanos y GLAAD señalaron que el estudio usó de manera abrumadora a jóvenes sujetos fotográficos blancos que se sentían cómodos al revelar abiertamente su sexualidad en línea. También ignoró las identidades trans y bisexuales. Los investigadores de Princeton y Google analizaron las imágenes de referencia que la IA había construido utilizando este conjunto de datos relativamente limitado. Llegaron a la conclusión de que la IA no reconocía las estructuras faciales fisonómicas, sino atributos más superficiales, como la presencia de gafas, maquillaje, vello facial o incluso la puesta en escena y el ángulo de la fotografía. Los autores ilustraron su punto diseñando sus propias fotografías de autor "homosexuales" y "heterosexuales".

La IA de "detección de gays" no estaba funcionando mal, de hecho estaba distinguiendo las fotografías de acuerdo con su programación. Pero parecía estar detectando opciones de aseo y presentación comunes en un pequeño subconjunto de la comunidad LGBTQ, en lugar de estructuras faciales biológicamente ligadas a la orientación sexual, según los autores. La controversia refleja cómo los sesgos cognitivos humanos pueden terminar reflejados tanto en la creación de AI como en la interpretación de sus resultados. Un artículo reciente de investigadores checos y alemanes identificó veinte sesgos cognitivos que podrían afectar los modelos de aprendizaje automático. Los investigadores de Stanford que detectaron homosexuales fueron víctimas de sesgos cognitivos que los llevaron a confundir los datos disponibles (fotos en la vista de citas) con datos representativos que reflejan a todas las personas LGBTQ, y para identificar erróneamente la habilidad de su AI para identificar las opciones de aseo personal para diferenciar las estructuras faciales biológicas. .

Los autores del estudio, quienes nunca tuvieron la intención de publicar la IA como una herramienta disponible públicamente, justificaron la ejecución y la publicación del estudio como una demostración pública de los peligros de la IA, argumentando que los intereses corporativos o privados estaban construyendo el mismo tipo de herramientas de la IA sin revelarlos. . Los autores del estudio fácilmente podrían tener razón, y los programas similares realizados en privado podrían fácilmente ser víctimas de sesgos cognitivos. Incluso si los investigadores construyeran de alguna manera un predictor de la sexualidad humana totalmente exacto (lo cual parece improbable que ocurra en algún momento pronto dado que se tienen conocimientos nebulosos de cómo interactúan la sexualidad, la socialización y la biología) el desarrollo o la liberación de esa herramienta aún plantearía cuestiones éticas apremiantes sobre el derecho de los individuos Privacidad e igualdad de trato. Esto es especialmente cierto para las personas que pueden ocultar su identidad en algunos entornos sociales para protegerse de la discriminación.

La liberación de herramientas de AI de código abierto puede estimular una gran innovación y avanzar en el campo, pero también puede abrir posibilidades para una aplicación sesgada o no ética de las habilidades de AI. Si el sesgo y los problemas de ética de AI se vuelven lo suficientemente graves, podrían reducir el potencial real de la innovación ética y reflexiva de AI para mejorar la calidad de vida de todos. La educación de AI debe incluir estándares éticos y estándares de contra-sesgo.