Taller Big data
luigamiEnsayo14 de Octubre de 2020
1.112 Palabras (5 Páginas)111 Visitas
- ¿Qué riesgos en la seguridad de datos personales conllevaría no regular la IA? De ejemplos actuales del mal uso de la IA.
Dado el avance significativo que ha tenido la IA en la humanidad y su gran impacto en diversos campos sociales y económicos, se ha vuelto un arma de doble filo y un peligro latente para la sociedad actual. Esto dado, a que una mala aplicación de estos algoritmos no solo genera una vulnerabilidad e intromisión de los datos personales, sino que la falta de regulación de esta a medida que se desarrolla esta tecnología puede ser usada para crear armas autónomas que son capaces de manipular a la sociedad a través de información presentada en las redes sociales y demás campos sociales que utilicen los seres humanos creando un control mediático.
Esto a su vez, como lo refiere un estudio realizado por el All Now Institute de la universidad de Nueva York, genera una relación entre el uso de esta tecnología y la desigualdad, ya que el alcance y los diferentes campos que se está utilizando esta tecnología han generado una colocación de información y control de sociedades en manos de las personas que ya tienen el poder al igual que excluye a los que no.
Por ende, se han realizado infinidad de peticiones para que se regule esta tecnológica a la par de su desarrollo. La trascendida que ha generado esta tecnología ha escalado a organizaciones internacionales como la OCDE, el G-20 y el Foro Económico Mundial quien están construyendo una carta con principios de aplicación transparente de los sistemas de IA. Sin embargo, cabe aclarar que esto solo son recomendaciones para el uso de esta y queda en manos de los gobernantes legislar en favor de los usuarios y evitar que en un solo lugar quede el control del poder de esta tecnología.
Hay infinidad de problemas que surgen en la actualidad en el mal uso de la IA en cuanto al volumen de datos, problemas de tecnología, problemas de seguridad, problemas de interacción y comportamiento de los modelos. Queriendo hacer énfasis en este último, ya que podemos ver un claro ejemplo del mal comportamiento de estos modelos como lo afirma un estudio de la McKisey Company “que no solo están generando resultados sesgados (lo que podría suceder, por ejemplo, si una población está subrepresentada en los datos utilizados para entrenar el modelo), se vuelven inestables o arrojan conclusiones para las cuales no hay un recurso disponible para los afectados por sus decisiones (como la denegación de un préstamo a una persona sin informarle las causas para intentar revertir la decisión). Consideremos, por ejemplo, el potencial de los modelos de IA para discriminar involuntariamente en contra de grupos protegidos combinando datos de código postal e ingreso para elaborar propuestas a medida. Más difíciles de detectar son las instancias en que los modelos de IA están ocultos en ofertas de software como servicio (SaaS). Cuando los proveedores introducen funcionalidades nuevas e “inteligentes”, muchas veces sin demasiada publicidad, también están creando modelos capaces de interactuar con los datos en los sistemas del usuario y de provocar riesgos inesperados, revelando incluso vulnerabilidades ocultas y susceptibles de ser explotadas por hackers. La consecuencia es que los líderes que creen tener claro que su organización no ha comprado o desarrollado sistemas de IA, o solo los está desplegando en forma experimental, podrían no estar en lo cierto.”
¿Qué consecuencias mundiales trajo el caso de Cambridge Analytica ¿la opinión de la gente seguirá siendo manipulada?
Para poder abordar este tema a profundidad, es necesario mencionar que Cambridge Analítica es una empresa con sede en Londres es una entidad dedicada a usar el análisis de datos para desarrollar campañas para marcas y políticos que buscan "cambiar el comportamiento de la audiencia", según indica su sitio web. El caso Facebook de Cambridge Analytica surge a raíz de un simple test de personalidad que recolecto información de manera ilegal al filtrar información de más de 50 millones de cuentas que compartió con la Empresa Cambridge Analytica y la nube de Amazon. Esto genero un control mediático e incidencia directa en la elección del nuevo presidente de Estados Unidos y la separación del Brexit por parte de Inglaterra. Esto dado a que esta prueba recolectaba información personal de usuario sin su consentimiento y circulo de amigos, por lo cual tuvo una incidencia directa en las elecciones y el Brexit por medio de la colocación de información en las redes sociales inclinando la balanza hacia las preferencias de un selecto grupo que quería hacer ver que era lo que pensaba la mayoría de las personas. Esto deja en evidencia que en la actualidad se está presentando la practica de larga data y el control mediático por medio de las redes sociales.
...