ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

La regulación de la inteligencia artificial

Karla Ramírez ÁlvarezApuntes1 de Agosto de 2023

5.862 Palabras (24 Páginas)86 Visitas

Página 1 de 24

La regulación de la inteligencia artificial

Es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); está, por lo tanto, relacionada con la regulación más amplia de los algoritmos. 1​ 2​ 3​ 4​ El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones a nivel mundial, incluso en la Unión Europea y en organismos supranacionales como el IEEE, la OCDE y otros. Desde 2016, se han publicado una serie pautas de ética de IA para mantener el control social sobre la tecnología. 5​ La regulación se considera necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. Además de la regulación, las organizaciones que implementan IA deben desempeñar un papel central en la creación e implementación de IA confiable de acuerdo con los principios de IA confiable, 6​ y asumir la responsabilidad para mitigar los riesgos. 7​ La regulación de la IA a través de mecanismos como las juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA. 8​ 9​

Trasfondo

En 2017, Elon Musk pidió la regulación del desarrollo de la IA. 10​ Según la National Public Radio, el CEO de Tesla "claramente no estaba emocionado" por abogar por el escrutinio del gobierno que podría afectar su propia industria, pero creía que los riesgos de pasar completamente sin supervisión eran demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se establece una agencia reguladora para regular esa industria. Se tarda una eternidad. Eso, en el pasado, ha sido malo, pero no algo que represente un riesgo fundamental para la existencia de la civilización". 10​ En respuesta, algunos políticos expresaron su escepticismo sobre la sensatez de regular una tecnología que aún está en desarrollo. 11​ En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el CEO de Intel, Brian Krzanich, argumentó que la IA está en su infancia y que es demasiado pronto para regular la tecnología. 12​ En lugar de tratar de regular la tecnología en sí, algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para la prueba y la transparencia de los algoritmos, posiblemente en combinación con algún tipo de garantía. 13​

Perspectivas

La regulación de las inteligencias artificiales es el desarrollo de políticas y leyes del sector público para promover y regular la IA. 14​ La regulación se considera generalmente necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. 15​ 16​ 17​ Las consideraciones de la política y la administración pública generalmente se centran en las implicaciones técnicas y económicas y en los sistemas de IA confiables y centrados en el ser humano, 18​ aunque también se considera la regulación de las superinteligencias artificiales. 19​ El enfoque básico de la regulación se centra en los riesgos y sesgos de la tecnología subyacente de la IA, es decir, los algoritmos de aprendizaje automático, a nivel de los datos de entrada, las pruebas de algoritmos y el modelo de decisión, así como si las explicaciones de los sesgos en el código pueden ser comprensible para los posibles destinatarios de la tecnología y técnicamente factible de transmitir para los productores. 20​

Ha habido propuestas tanto de leyes duras como de leyes blandas para regular la IA. 21​ Algunos académicos del derecho han señalado que los enfoques de leyes duras para la regulación de la IA tienen desafíos sustanciales. 22​ 23​ Entre los desafíos se cita que la tecnología de IA está evolucionando rápidamente, lo que lleva a un "problema de ritmo" en el que las leyes y regulaciones tradicionales a menudo no pueden mantenerse al día con las aplicaciones emergentes y sus riesgos y beneficios asociados. 24​ 25​ Algunos académicos del derecho han señalado que los enfoques de leyes duras para la regulación de la IA tienen desafíos sustanciales. 26​ 27​ De manera similar, la diversidad de aplicaciones de IA desafía a las agencias reguladoras existentes, que a menudo tienen un alcance jurisdiccional limitado. 28​ Como alternativa, algunos académicos del derecho argumentan que los enfoques de leyes blandas para la regulación de la IA son prometedores porque estas leyes se pueden adaptar de manera más flexible para satisfacer las necesidades de la tecnología de IA emergente y en evolución, y las aplicaciones incipientes. 29​ 30​ Sin embargo, los enfoques de derecho indicativo a menudo carecen de un potencial de aplicación sustancial. 31​ 32​

Cason Schmit, Megan Doerr y Jennifer Wagner propusieron la creación de un regulador cuasi-gubernamental aprovechando los derechos de propiedad intelectual (es decir, licencias de copyleft) en ciertos objetos de IA (es decir, modelos de IA y conjuntos de datos de entrenamiento) y delegando los derechos de cumplimiento a una entidad encargada de ello. 33​ Argumentan que la IA se puede licenciar bajo términos que requieren el cumplimiento de prácticas éticas y códigos de conducta específicos (por ejemplo, principios de derecho indicativo). 34​

La regulación de la IA podría derivar de principios básicos. Una metarevisión del Berkman Klein Center for Internet & Society de 2020 de los conjuntos de principios existentes, como los Principios de Asilomar 35​ y los Principios de Beijing 36​, identificó ocho de estos principios básicos: privacidad, responsabilidad, seguridad, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y respeto por los valores humanos. 37​ Las leyes y reglamentos de IA se han dividido en tres temas principales, a saber, la gobernanza de los sistemas de inteligencia autónomos, la responsabilidad y la rendición de cuentas de los sistemas, y cuestiones de privacidad y seguridad. 38​ Un enfoque de administración pública ve una relación entre la ley y la regulación de la IA, la ética de la IA y la 'sociedad de la IA', definida como la sustitución y transformación de la fuerza laboral, la aceptación social y la confianza en la IA, y la transformación de la interacción entre humanos y máquinas. 39​ Se considera necesario el desarrollo de estrategias del sector público para la gestión y regulación de la IA a nivel local, nacional 40​ e internacional 41​ y en una variedad de campos, desde la gestión del servicio público 42​ y la rendición de cuentas 43​ hasta aplicación de la ley, 41​ 44​ atención médica (especialmente el concepto de Garantía Humana), 45​ 46​ 47​ 48​ 49​ el sector financiero, 40​ robótica, 50​ 51​ vehículos autónomos, 50​ las fuerzas armadas 52​ y la seguridad nacional, 53​ y el derecho internacional. 54​ 55​

Henry Kissinger, Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA. 56​

Como respuesta al problema de control de la IA

La regulación de la IA puede verse como un medio social positivo para gestionar el problema del control de la IA, es decir, la necesidad de asegurar una IA beneficiosa a largo plazo, mientras que otras respuestas sociales, como no hacer nada o prohibir, se consideran poco prácticas, y enfoques como mejorar la seguridad humana. Las capacidades a través de técnicas de transhumanismo como las interfaces cerebro-computadora se consideran potencialmente complementarias. 57​ 58​ La regulación de la investigación en inteligencia artificial general (AGI) se centra en el papel de los comités de revisión, desde universidades o corporaciones hasta niveles internacionales, y en fomentar la investigación en IA segura, 58​ junto con la posibilidad de un progreso intelectual diferencial (priorizando la reducción de riesgos estrategias sobre estrategias de asunción de riesgos en el desarrollo de IA) o llevar a cabo una vigilancia masiva internacional para llevar a cabo el control de armas AGI. 57​ Por ejemplo, la 'AGI Nanny' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa, así como para abordar otras amenazas importantes para el bienestar humano, como la subversión del sistema financiero global., hasta que se pueda crear con seguridad una verdadera superinteligencia. Implica la creación de un sistema AGI más inteligente que el humano, pero no superinteligente, conectado a una gran red de vigilancia, con el objetivo de monitorear a la humanidad y protegerla del peligro". 57​ La regulación de AGI conscientes y éticamente conscientes se enfoca en integrarlos con la sociedad humana existente y puede dividirse en consideraciones de su estatus legal y de sus derechos morales. 57​ La regulación de la IA se ha visto como restrictiva, con el riesgo de prevenir el desarrollo de AGI. 59​

Orientación mundial

El desarrollo de una junta de gobierno global para regular el desarrollo de la IA se sugirió al menos ya en 2017. 60​ En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre Cambio Climático, para estudiar los efectos globales de la IA en las personas y las economías y para dirigir el desarrollo de la IA. 61​ En

...

Descargar como (para miembros actualizados) txt (37 Kb) pdf (114 Kb) docx (23 Kb)
Leer 23 páginas más »
Disponible sólo en Clubensayos.com