Ciberseguridad: tres estafas impulsadas por inteligencia artificial a tener en cuenta
johanakrisApuntes17 de Septiembre de 2023
524 Palabras (3 Páginas)65 Visitas
Ciberseguridad: tres estafas impulsadas por inteligencia artificial a tener en cuenta.
Los avances en los últimos meses de la inteligencia artificial en campos como la educación, salud, industria o entretenimiento no han dejado indiferente a nadie. Tampoco lo ha hecho con los ciberdelincuentes, que están realizando nuevos tipos de estafas para sacar provecho personal y hacer daño a los usuarios.
Las aplicaciones como ChatGPT o Midjourney son herramientas impulsadas por la inteligencia artificial generativa, y que permiten, a su vez, crear a petición del usuario toda clase de textos e imágenes. Estas pueden ser utilizadas de manera maliciosa por personas para aprovecharse de los más.
- Clonación de voz por IA: en los últimos meses, diferentes usuarios han señalado que han recibido llamadas de familiares afirmando estar secuestrados y pidiendo dinero para no ser violentadas.
- La variante estafa de Chat GPT: WormGPT es una herramienta que, además de producir un malware, crea correos electrónicos notablemente persuasivos .
- Videollamadas estafa: es una modalidad de la que todavía no hay registros en nuestro país. Básicamente, el ciberatacante utiliza la herramienta del deepfake para hacerse pasar por alguien y decirle a un familiar suyo que ha sido secuestrado, para luego pedir dinero por su rescate.
EL COMERCIO (26 de agosto de 2023) Ciberseguridad, Tres estafas impulsadas por la inteligencia artificial a tener en cuenta. Recuperado de:
https://elcomercio.pe/tecnologia/ciberseguridad/ciberseguridad-tres-estafas-impulsadas-por-ia-a-tener-en-cuenta-inteligencia-artificial-noticia/
2. ANALISIS DE LA NOTICIA
Un problema ético en el ámbito de la ciberseguridad impulsada por la inteligencia artificial (IA) es la compleja interacción entre la protección de datos y la privacidad, la responsabilidad en la toma de decisiones automatizadas y la seguridad en sí misma. Aquí los aspectos claves son
La privacidad y el monitoreo Ya que las IA pueden ingresar a los sistemas y obtener nuestras informaciones de manera rápida y compleja .
Responsabilidad en Decisiones Automatizadas: La IA se utiliza para tomar decisiones en tiempo real en la detección y respuesta a amenazas cibernéticas. Si un sistema de IA toma una decisión incorrecta y causa daños, surge la cuestión ética de quién es responsable: el operador humano, el desarrollador de la IA o el propio sistema.
aumento de la Brecha de Habilidades: A medida que la ciberseguridad se vuelve más dependiente de la IA, aquellos que carecen de las habilidades necesarias para comprender y operar estas tecnologías pueden quedar más vulnerables. Esto plantea un problema ético en términos de equidad y acceso a la seguridad cibernética.
3. SEGÚN LA PERSPECTIVA ARISTOLECIA
Desde la perspectiva ética aristotélica, el uso de la inteligencia artificial (IA) podría plantear problemas éticos relacionados con la realización de un buen carácter y una vida virtuosa. La ética aristotélica se centra en la búsqueda de la felicidad a través del desarrollo de virtudes y la realización de nuestro potencial humano.
desde la perspectiva aristotélica, los problemas éticos relacionados con la IA podrían centrarse en cómo estas tecnologías impactan la capacidad de las personas para desarrollar virtudes, ejercer juicio ético y llevar una vida que sea coherente con la búsqueda de la felicidad y la excelencia moral, dependiendo asì de la IA y teniéndola como ejemplo para disminuir nuestra capacidad de decisión
...