ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

¿Hasta qué punto la inteligencia artificial es peligrosa hacia el ser humano?


Enviado por   •  10 de Mayo de 2018  •  Ensayos  •  868 Palabras (4 Páginas)  •  180 Visitas

Página 1 de 4

3ª Entrega IA Filosofía

        [pic 1]

· Pregunta: ¿Hasta qué punto la inteligencia artificial es peligrosa hacia el ser humano?

        Este tema ha sido un foco de incontables debates entre filósofos actuales de todo el mundo. Desde pequeño me han fascinado películas que tocaban este tema, Bladerunner, por ejemplo. Siempre ha surgido en mi ese pensamiento de temor a una futura revolución que estas máquinas con autocontrol podrían llegar a hacer.

En algunas de estas películas los robots acaban siendo una gran amenaza para el hombre, en algunos casos casi llegando al fin de la humanidad. Steven Hawking ha asistido a varias entrevistas donde habla de la inteligencia artificial como una importante amenaza próxima a la que no podremos hacer frente, ya que, según él llegarán a una inteligencia superior.  En este caso coincido con las ideas de este filósofo en relación a la acelerada evolución de esta tecnología y de las capacidades que esta llegará a tener. Pero en todas sus entrevistas da la impresión que comprende esta inteligencia artificial como una sociedad completamente a parte de la nuestra. Pero en realidad somos nosotros nuestra propia amenaza, el hombre solo trata de descubrir nuevos inventos y avances sin tener mucho en cuenta de que forma puede repercutir en el mundo. Lo que mueve al ser humano es descubrir tales cosas que puedan ayudar al funcionamiento del mundo o a descubrir otras nuevas cosas incluso.

Hay un sinfín de sustancias tóxicas realizadas en ciertos laboratorios que podrían matar a cualquier persona con una gota, existen bombas perfectamente transportables que podrían hacer desaparecer un país. Pero siguen siendo simples inventos que el humano ha encontrado principalmente para decir que lo ha encontrado. Actualmente Estados Unidos y Corea del Norte mantienen una relación de “lucha por descubrir el arma más mortífera” por así decirlo que podría llevar a uno de estos dos países a introducir una novedosa arma que se basa en la inteligencia artificial. Este podría pensar por sí solo lo más conveniente para su existencia, y podría reaccionar de manera que perjudicaría al ser humano.

Esto es lo que transmite el filósofo sueco, Nick Bostrom, en su ensayo Superinteligencia. Habla de que el mayor enemigo del hombre es el propio hombre, que el ser humano se extinguirá por culpa de un invento de algún humano. En este caso le doy la razón a Nick ya que el culpable es el humano y no aquel invento que sea quien lleve a cabo la acción en cuestión.

En 1942, lejos de cualquier robot y sin nadie haberse planteado la existencia real de una mente artificial, Isaac Asimov introduce varias reglas que cualquier Inteligencia Artificial debería respetar para evitar esta revolución indeseada. Él cree realmente que una vida junto a robots autónomos con sentimientos puede llegar a ser factible. Él no es filósofo, es escritor de novelas que tratan este tema. En ellas transmite este mensaje de convivencia con robots mediante 3 reglas inquebrantables por cualquier robot: “Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.” “Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.” “Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.”

...

Descargar como (para miembros actualizados)  txt (5 Kb)   pdf (369 Kb)   docx (330 Kb)  
Leer 3 páginas más »
Disponible sólo en Clubensayos.com