UN ECOSISTEMA DE CONFIANZA: MARCO REGULATORIO PARA LA IA
Felipee ZuñigaDocumentos de Investigación19 de Enero de 2021
5.079 Palabras (21 Páginas)127 Visitas
5. UN ECOSISTEMA DE CONFIANZA: MARCO REGULATORIO PARA LA AI
Al igual que con cualquier tecnología nueva, el uso de IA trae oportunidades y riesgos. Los ciudadanos temen ser abandonados impotente en la defensa de sus derechos y seguridad ante las asimetrías de información de algorítmica toma de decisiones, y las empresas están preocupadas por la inseguridad jurídica. Si bien la IA puede ayudar a proteger seguridad de los ciudadanos y permitirles disfrutar de sus derechos fundamentales, a los ciudadanos también les preocupa que la IA pueda tener efectos no deseados o incluso ser utilizados con fines maliciosos. Estas preocupaciones deben ser abordadas.
Además, además de la falta de inversión y habilidades, la falta de confianza es un factor principal que frena un absorción más amplia de IA. Es por eso que la Comisión estableció una estrategia de IA28 el 25 de abril de 2018 que aborda el tema socioeconómico aspectos en paralelo con un aumento de la inversión en investigación, innovación y capacidad de inteligencia artificial en todo el UE. Acordó un Plan Coordinado29 con los Estados Miembros para alinear las estrategias. La Comisión también estableció un grupo de expertos de alto nivel que publicó Directrices sobre IA confiable en abril de 2019 30.
La Comisión publicó una Comunicación31 que acoge los siete requisitos clave identificados en Las Directrices del Grupo de Expertos de Alto Nivel:
Agencia humana y supervisión,
Robustez técnica y seguridad,
Privacidad y gobierno de datos,
transparencia,
Diversidad, no discriminación y equidad.
Bienestar social y ambiental, y
Responsabilidad.
Además, las Directrices contienen una lista de evaluación para uso práctico de las empresas. Durante el segunda mitad de 2019, más de 350 organizaciones probaron esta lista de evaluación y enviaron comentarios. Los El Grupo de alto nivel está revisando sus directrices a la luz de estos comentarios y finalizará este trabajo para junio de 2020. Un resultado clave del proceso de retroalimentación es que, si bien algunos de los los requisitos ya se reflejan en los regímenes legales o reglamentarios existentes, los relacionados con la transparencia, La trazabilidad y la supervisión humana no están específicamente cubiertas por la legislación actual en muchos sectores economicos.
Además de este conjunto de Directrices no vinculantes del Grupo de Expertos de Alto Nivel, y en línea con el Directrices políticas del presidente, un marco regulatorio europeo claro generaría confianza entre consumidores y empresas en IA, y por lo tanto aceleran la adopción de la tecnología. Tal El marco regulatorio debe ser coherente con otras acciones para promover la capacidad de innovación de Europa y competitividad en este campo. Además, debe garantizar social, ambiental y Resultados económicamente óptimos y cumplimiento de la legislación, principios y valores de la UE. Esto es particularmente relevante en áreas donde los derechos de los ciudadanos pueden verse más directamente afectados, por ejemplo en caso de aplicaciones de IA para la aplicación de la ley y el poder judicial.
Los desarrolladores y los implementadores de IA ya están sujetos a la legislación europea sobre derechos fundamentales (p. Ej. protección de datos, privacidad, no discriminación), protección del consumidor y seguridad y responsabilidad del producto reglas. Los consumidores esperan el mismo nivel de seguridad y respeto de sus derechos, sea o no un producto o Un sistema se basa en la IA. Sin embargo, algunas características específicas de AI (por ejemplo, opacidad) pueden hacer que la aplicación y la aplicación de esta legislación más difícil. Por esta razón, es necesario examinar si La legislación actual es capaz de abordar los riesgos de la IA y se puede hacer cumplir efectivamente, ya sea se necesitan adaptaciones de la legislación, o si se necesita una nueva legislación.
Dada la rapidez con la que la IA está evolucionando, el marco regulatorio debe dejar espacio para atender más desarrollos. Cualquier cambio debe limitarse a problemas claramente identificados para los cuales sea factible existen soluciones Los Estados miembros señalan la ausencia actual de un marco europeo común. El Alemán La Comisión de ética de datos ha pedido un sistema de regulación basado en el riesgo de cinco niveles que iría desde no hay regulación para los sistemas de IA más inocuos a una prohibición completa para los más peligrosos. Dinamarca acaba de lanzar el prototipo de un Sello de ética de datos. Malta ha introducido un voluntario sistema de certificación para IA. Si la UE no proporciona un enfoque a nivel de toda la UE, existe un riesgo real de fragmentación en el mercado interno, que socavaría los objetivos de confianza, seguridad jurídica y captación del mercado.
Un marco regulatorio europeo sólido para una IA confiable protegerá a todos los ciudadanos europeos y ayudará crear un mercado interno sin fricciones para el desarrollo y la absorción de la IA, así como Fortalecimiento de la base industrial de Europa en IA.
A. DEFINICIÓN DEL PROBLEMA
Si bien la IA puede hacer mucho bien, incluso al hacer que los productos y procesos sean más seguros, también puede hacer daño. Este daño puede ser tanto material (seguridad y salud de las personas, incluida la pérdida de vidas, daños a propiedad) e inmaterial (pérdida de privacidad, limitaciones al derecho a la libertad de expresión, humano dignidad, discriminación, por ejemplo, en el acceso al empleo), y puede relacionarse con una amplia variedad de riesgos.
Un marco regulatorio debe concentrarse en cómo minimizar los diversos riesgos de daño potencial, en en particular los más significativos. Los principales riesgos relacionados con el uso de IA se refieren a la aplicación de reglas diseñadas para proteger derechos fundamentales (incluidos los datos personales y la protección de la privacidad y la no discriminación), así como seguridad32 y cuestiones relacionadas con la responsabilidad.
El uso de IA puede afectar los valores en los que se basa la UE y dar lugar a infracciones de los principios fundamentales. derechos33, incluidos los derechos a la libertad de expresión, libertad de reunión, dignidad humana, no discriminación basada en el sexo, origen racial o étnico, religión o creencias, discapacidad, edad o sexual orientación, según corresponda en ciertos dominios, protección de datos personales y vida privada, 34 o la derecha a un recurso judicial efectivo y un juicio justo, así como a la protección del consumidor. Estos riesgos pueden resultar por fallas en el diseño general de los sistemas de IA (incluso en lo que respecta a la supervisión humana) o por el uso de datos sin corregir posibles sesgos (por ejemplo, el sistema está entrenado usando solo o principalmente datos de hombres que conduce a resultados subóptimos en relación con las mujeres).
La IA puede realizar muchas funciones que anteriormente solo podían ser realizadas por humanos. Como resultado, los ciudadanos y las entidades legales estarán cada vez más sujetas a acciones y decisiones tomadas por o con la asistencia de los sistemas de IA, que a veces pueden ser difíciles de entender y desafiar de manera efectiva dónde necesario. Además, la IA aumenta las posibilidades de rastrear y analizar los hábitos diarios de las personas. Por por ejemplo, existe un riesgo potencial de que se pueda utilizar AI, en violación de la protección de datos de la UE y otras reglas, por las autoridades estatales u otras entidades para la vigilancia masiva y por los empleadores para observar cómo Los empleados se comportan. Al analizar grandes cantidades de datos e identificar enlaces entre ellos, la IA también puede ser utilizado para rastrear y anonimizar datos sobre personas, creando nuevos riesgos de protección de datos personales incluso con respecto a los conjuntos de datos que per se no incluyen datos personales. AI también es utilizado por en línea intermediarios para priorizar información para sus usuarios y realizar moderación de contenido. Los datos procesados, la forma en que se diseñan las aplicaciones y el alcance de la intervención humana puede afectar derechos a la libre expresión, protección de datos personales, privacidad y libertades políticas.
Ciertos algoritmos de IA, cuando se explotan para predecir la reincidencia criminal, pueden mostrar sesgos de género y raciales, demostrando diferentes probabilidades de predicción de reincidencia para mujeres frente a hombres o para nacionales frente a extranjeros.
Fuente: Tolan S., Miron M., Gómez E. y Castillo C. "Por qué el aprendizaje automático puede conducir a la injusticia: Evidencia de la Evaluación de Riesgos para la Justicia Juvenil en Cataluña ", Premio al Mejor Artículo, Internacional Conferencia sobre IA y Derecho, 2019 Ciertos programas de IA para análisis faciales muestran prejuicios raciales y de género, demostrando bajos errores para Determinar el género de los hombres de piel más clara, pero altos errores al determinar el género de los de piel más oscura. mujer. Fuente: Joy Buolamwini, Timnit Gebru; Actas de la 1ª Conferencia sobre equidad, Rendición de cuentas y transparencia, PMLR 81: 77-91, 2018.
El sesgo y la discriminación son riesgos inherentes a cualquier actividad social o económica. La toma de decisiones en humanos no es inmune a errores y prejuicios. Sin embargo, el mismo sesgo cuando está presente en la IA podría tener un efecto mucho mayor, que afecta y discrimina a muchas personas sin los mecanismos de control social que gobiernan el comportamiento humano35. Esto también puede suceder cuando el sistema de inteligencia artificial "aprende" mientras está en funcionamiento.
En tales casos, donde el resultado no pudo haberse evitado o anticipado en la fase de diseño, el los riesgos no se derivarán de una falla en el diseño original del sistema sino más bien de la práctica impactos de las correlaciones o patrones que el sistema identifica en un gran conjunto de datos. Las características específicas de muchas tecnologías de IA, incluida la opacidad ("efecto de caja negra"), La complejidad, la imprevisibilidad y el comportamiento parcialmente autónomo pueden dificultar la verificación cumplimiento y puede obstaculizar la aplicación efectiva de las normas de la legislación vigente de la UE destinadas a Proteger los derechos fundamentales. Las autoridades de aplicación y las personas afectadas pueden carecer de los medios para verificar cómo se tomó una decisión dada con la participación de AI y, por lo tanto, si el Se respetaron las normas pertinentes. Los individuos y las personas jurídicas pueden enfrentar dificultades con el acceso efectivo. a la justicia en situaciones donde tales decisiones pueden afectarlos negativamente.
...