ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

INFORME DEL BIG DATA Y EL COVID-19 EN CHILE


Enviado por   •  22 de Junio de 2021  •  Tareas  •  4.439 Palabras (18 Páginas)  •  51 Visitas

Página 1 de 18

UNIVERSIDAD DE LA SERENA

FACULTAD DE INGENIERÍA

DEPARTAMENTO DE INGENIERÍA EN OBRAS CIVILES

ELECTIVO DE FORMACION PROFESIONAL

INFORME DEL BIG DATA Y EL COVID-19 EN CHILE

INTRODUCCIÓN AL BIG DATA Y ANÁLISIS DE DATOS

Alumnas

Katty Arriagada Cordero

Elena Carvajal Ahumada

Camila Guzmán Ortiz

Paulina Velásquez Marín

Académico

Docente David Gómez Schwartz

La Serena, Región de Coquimbo.

Lunes 7 de junio 2021

Índice

Introducción 3

Objetivo General 4

Objetivos Específicos 4

Marco teórico 5

Marco general y oportunidad de la propuesta de Big data 9

Tipos de datos 11

Arquitectura conceptual y mix tecnológico 17

Beneficios de la implantación de la propuesta 26

Conclusión 27

Bibliografía 28

Introducción

El uso de la tecnología del Big Data ha sido utilizado desde hace mucho tiempo para obtener ideas y así dar soluciones a problemas, pero pocos tienen conocimiento de cuál es la función y el origen de este.

El Big Data se basa en el análisis de un gran conjunto de datos, donde se recolectan, se tratan y finalmente se analizan para el beneficio de la entidad o persona que requiera los datos, una de las ventajas de este proceso es el corto tiempo que necesita para analizar un gran volumen de datos en comparación a los métodos tradicionales que existen. En otras palabras, Big Data se caracteriza por el análisis de datos en grandes volúmenes, variedad y velocidad.

El termino de Big Data se comenzó a emplear y generalizar a fin de los años 90 pero en realidad este método ha sido utilizado desde hace muchos años atrás, incluso se ha llegado a pensar que desde el paleolítico se utiliza este método. Uno de los primeros pioneros del Big Data fue el científico Alan Turing, quien durante la segunda guerra mundial lidero un grupo de inteligencia en Bletchley Park, donde su objetivo era descifrar Enigma, una de las máquinas de cifrado que empleaba el ejército nazi. Este trabajo logro acortar entre 2 y 4 años la guerra.

Con el tiempo el Big Data tuvo muchos avances y uno de los más relevantes fue en el año 1989 donde se crea el WWW e internet y a su vez se abren los primeros caminos a la generación masiva de datos.

Hoy en día el Big Data tiene un puesto importante en la sociedad ya que se ha podido emplear en diferentes áreas como en la política, en el medio ambiente, en la productividad, en la vida personal y en la salud, un claro ejemplo es el importante rol que ha cumplido en la pandemia que vive el mundo hoy en la actualidad ya que nos ha facilitado analizar los datos de todo el mundo y así buscar las medidas necesarias para poder combatir el COVID-19 de la mejor manera.

La INE Chile (Instituto Nacional de Estadísticas) ha tenido un rol importante en el análisis de datos en esta pandemia gracias al convenio firmado con el Instituto Milenio Fundamentos de los Datos. Esto ha podido facilitar la realización de actividades como la investigación científica y tecnológica referida a bases de datos, algoritmos, inteligencia artificial, Big Data, entre otras temáticas aplicadas al desarrollo y producción de estadísticas. Es por este buen desempeño que la INE Chile ingreso al Directorio del Comité de Estadísticas y Política Estadística de la OCDE donde tiene el rol de conectar los países desarrollados con los países en desarrollo, ya que al tener acceso a metodología más avanzadas las comparte y las adapta a los países en vías de desarrollo.

Objetivo General

Identificar las herramientas del Big Data para crear modelos predictivos fiables y así desarrollar nuevas habilidades para hacer frente al Covid-19 en Chile.

Objetivos Específicos

1.- Definir marco general y oportunidad de la propuesta de Big Data.

2.- Identificar los tipos de datos y fuentes a utilizar en la propuesta.

3.- Conocer la arquitectura conceptual y mix tecnológico de la solución propuesta.

4.- Establecer los beneficios de la implantación de su propuesta.

Marco teórico

Big Data, ¿Qué es?

Cuando hablamos de Big Data nos referimos a conjuntos de datos cuyo tamaño, complejidad y velocidad de crecimiento dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales. Estas características se pueden resumir en lo que se llaman las 5 Vs del Big Data: Volumen, Variabilidad, Velocidad, Veracidad y Valor.

Las 5 V’s del Big Data

Fig. N°1: Las 5 V’s del Big Data

1. Variedad

Con tantas fuentes, tipos de datos y estructuras complejas, la dificultad de integración de datos aumenta. La complejidad de los datos, es principalmente la estructura en cómo están conformados los datos, se pueden encontrar datos estructurados, semi estructurados o no estructurados.

Las fuentes de datos de Big Data son muy amplias como; datos relacionales (tablas, transacciones, datos legales, etc.), datos textuales encontrados en internet, datos sectoriales recopilados por empresas especializadas, datos experimentales, etc.

2.

...

Descargar como (para miembros actualizados)  txt (30.2 Kb)   pdf (84.3 Kb)   docx (26.6 Kb)  
Leer 17 páginas más »
Disponible sólo en Clubensayos.com