¿Qué significa la regulación de la IA para Silicon Valley? de Diksha Dutta Agosto 2021

Julia Reinhardt, Privacy and AI Governance Professional, sobre la política de datos, GDPR y su impacto en las pymes

En el último episodio de Voices of the Data Economy, hablamos con Julia Reinhardt. Es una experta con sede en San Francisco en gobernanza de inteligencia artificial y consultora de privacidad y políticas públicas. Como becaria residente de Mozilla, Julia evalúa las oportunidades y limitaciones de los enfoques europeos sobre Inteligencia Artificial confiable en Silicon Valley y su potencial para las empresas y la promoción de EE. UU. Durante nuestra conversación, Julia habló sobre las diferentes facetas del impacto de GDPR en Silicon Valley y los desafíos de la próxima regulación de IA. Aquí hay extractos editados del podcast.

GDPR ha tenido impactos notables e inmediatos en todo el mundo. También ha concienciado a Silicon Valley de que la privacidad es importante para las personas en Europa y otras regiones del mundo. Es un derecho humano que en Estados Unidos muchos no habían considerado significativo. La conversación global sobre la privacidad ha cambiado en los últimos tres años desde 2018 y también lo han hecho las leyes. Como resultado directo de GDPR en Europa, países como Japón, Brasil, India y China están en proceso de aprobar leyes de privacidad inspiradas en GDPR. Además, California tiene una nueva ley de privacidad, que entró en vigencia en 2020 debido a GDPR.

GDPR también le ha demostrado a Silicon Valley que uno de sus mercados más grandes, Europa, tiene su propio conjunto de reglas, y Estados Unidos tiene que seguirlas para participar y ganar dinero en la región. Y como resultado, muchas organizaciones con sede en EE. UU. Que procesan datos personales de personas en todo el mundo han decidido aplicar GDPR y extender todos los derechos que lo acompañan a sus clientes que no necesitan ser residentes europeos y vivir fuera de Europa. Les da una ventaja en el cumplimiento global y les resulta más fácil manejar quejas y solicitudes. Además, GDPR les ofrece un marco legal y un conjunto de estándares.

“Debo mencionar que un factor decepcionante con las leyes GDPR es la aplicación. Incluso cuando las empresas de tecnología son castigadas con multas de miles de millones de dólares, para ellas es un toque en la muñeca. Y hasta ahora, el RGPD no ha cambiado los modelos comerciales subyacentes, la forma en que se gana dinero en Internet y la vigilancia del comportamiento de las personas. Por tanto, no se trata solo del modelo de negocio de una empresa; es el modelo económico en el que se basa Internet en su totalidad, que no tiene privacidad, lo más importante. Cambiar eso requiere ajustes fundamentales y probablemente dolorosos en la forma en que se han estructurado las cosas. Eso es algo que el RGPD hasta ahora no ha podido lograr. Y eso definitivamente es un poco decepcionante ".

Julia trabajó como diplomática alemana durante casi 15 años, gestionando las relaciones bilaterales, navegando en crisis, comunicando, liderando protocolos de alto nivel, participando en procesos de negociación de la UE y promoviendo la innovación y la divulgación en el oeste de EE. UU.

Como parte de su trabajo de hoy, menciona que tiene la intención de asegurarse de que la próxima regulación de IA de Europa no vuelva a causar ese retraso para los jugadores pequeños porque en el campo de la IA, el tamaño importa. “Cuantos más datos pueda recopilar, mejor funcionará su sistema de inteligencia artificial. Ya estamos bastante lejos en el camino hacia la monopolización porque los grandes actores del mercado tienen acceso a una impresionante variedad de datos. También pueden permitirse recopilar datos de alta calidad, lo que les permite crear una IA de mejor rendimiento. Y para los proveedores de pequeña escala, lo más importante es la claridad de la guía. El borrador que presentó la Comisión Europea también ha tardado mucho en elaborarse. Es el intento más ambicioso y más completo de controlar los riesgos relacionados con el despliegue de la IA que hemos visto hasta ahora en todo el mundo. Es un paso nuevo y audaz ". Puede leer un análisis de la propuesta de regulación de la IA aquí.

Ahora, en 2021, estamos en la etapa de transformar estos principios en reglas y regulaciones prácticas. Las reglas que propuso la Comisión Europea no cubrirían todos los sistemas de IA. Por ejemplo, cubren sistemas que se considera que representan un riesgo significativo para la seguridad y los derechos fundamentales de las personas que viven en Europa. Es un enfoque basado en el riesgo y tiene varias capas. Y esas capas tienen diferentes reglas para diferentes clases de sistemas de IA; algunos están prohibidos, otros se consideran de alto riesgo y algunos solo siguen reglas específicas. Y luego otros en los que, ya sabes, solo dicen que tienes que ser más transparente.

Tienes que saber en qué categoría cae tu sistema de IA. Para algunos usos de la IA, la comisión propone una prohibición total y dice que es una amenaza inaceptable para los ciudadanos. Por ejemplo, un sistema de inteligencia artificial causa daño físico o psicológico al manipular el comportamiento de las personas o al explotar sus habilidades vulnerables, como la edad o la discapacidad. Otros ejemplos son los sistemas de puntuación social en los que las personas acumulan puntos y reconocimiento facial en espacios públicos por parte de las autoridades encargadas de hacer cumplir la ley; no todo el reconocimiento facial está prohibido, sino los utilizados por la policía en áreas públicas. Aunque existen excepciones.

La mayor parte del borrador reglamentario se centra en la IA, que se considera de alto riesgo, y lo que es de alto riesgo se define en el borrador reglamentario. Así que ese es un tipo de usos problemáticos en el campo de la contratación en el contexto de las admisiones laborales, la determinación de la solvencia de una persona o la elegibilidad para los servicios y beneficios públicos, y algunas aplicaciones utilizadas en la aplicación de la ley y la seguridad y el poder judicial. Y para ellos, estos sistemas deben cumplir diferentes requisitos y someterse a una evaluación de conformidad antes de que estén en el mercado europeo.

Para garantizar que un sistema de IA cumpla con varios requisitos relacionados con la gestión de riesgos serios, debe utilizar conjuntos de datos en el entrenamiento, la validación y las pruebas que sean relevantes, representativos, libres de errores, etc. La documentación sobre un sistema de IA de alto riesgo debe ser realmente extenso y muy preciso: ¿por qué eligió ciertos diseños? ¿Por qué lo diseñó de una manera específica? La palabra clave es siempre supervisión humana. Por lo tanto, los sistemas de IA de alto riesgo deben diseñarse para permitir que las personas comprendan las capacidades y limitaciones de un sistema y contrarresten el llamado sesgo de automatización. Además, si es necesario, invierta o anule la salida. Es como una prueba de código para algoritmos.

El Parlamento Europeo y otros órganos de Europa ya han pedido normas mucho más estrictas en algunos elementos del proyecto. Además, algunos Estados miembros creen que debería ser más estricto en algunos casos. Sin embargo, esta no es la última palabra.

“En mi opinión personal, creo que las excepciones, como en el reconocimiento facial, son demasiado amplias. Es difícil cuando prohíbe usos muy específicos del reconocimiento facial, pero luego en la industria o en usos privados, no hay ninguna prohibición. Incluso en los usos de la aplicación de la ley, tiene ciertas áreas donde se puede usar. En términos prácticos, las fuerzas del orden en Europa comprarán sistemas de reconocimiento facial en el mercado, donde sea que se produzcan, y los utilizarán en los casos específicos que se les permita. ¿Cómo quiere asegurarse de que no los utilicen para otras cosas? Creo que es una gran laguna. Creo que el reconocimiento facial tiene el potencial de socavar nuestra sociedad libre. Al final, hay mucho que criticar sobre este borrador ".

Aquí hay una lista de las marcas de tiempo seleccionadas sobre los diferentes temas discutidos durante el podcast:

2:16 – 6:56 El viaje de Julia de ser una diplomática alemana a ahora una asesora sobre políticas y regulaciones de datos en los EE. UU.6:56 – 12:48 El impacto de GDPR en Silicon Valley15:55 – 20:38 Impacto del RGPD en las grandes tecnologías y las pymes en EE. UU.20:38 – 25:53 ¿Cómo impactan las regulaciones de IA propuestas en los EE. UU.?25:53 – 29:58 Análisis detallado de las regulaciones de IA29:58 – 35:55 ¿Lagunas y desafíos de la regulación de la IA?35:55 ​​- Fin ¿La innovación y la regulación de la IA van de la mano?