Trabajo para el seminario de Comunicación Escritural
Tati2895Documentos de Investigación15 de Febrero de 2018
2.574 Palabras (11 Páginas)149 Visitas
BIG DATA
TATIANA SANCHEZ SOTO
Trabajo para el seminario de Comunicación Escritural
JHON JAIRO ACEVEDO VELEZ
Magíster
INSTITUCION UNIVERSITARIA SALAZAR Y HERRERA
PROGRAMA DE INGENIERIA
INGENIERIA EN SISTEMAS
MEDELLIN
2017
Tabla de contenido
Resumen 3
1. Capítulo I: Software 6
1.1 Su progreso a través del tiempo 6
1.2 La capacidad como requerimiento 6
1.3 Big Data: Un negocio tentativo 7
2. Capitulo II: Big Data 9
2.1. Cambios tecnológicos y sociales 9
2.2 Desarrollo e importancia 9
2.3 Impacto y posicionamiento en el mundo 10
Bibliografía 12
Macro Datos
BigData
Tatiana Sanchez soto
Resumen
Los datos han ido creciendo exponencialmente desde la creación de la computación, donde habido una constante necesidad de gestión, almacenamiento, procesamiento, control y análisis.
Desde el comienzo de la humanidad hasta el año 2003 la humanidad produjo 5 exabytes en datos y para el año 2012 los datos globales eran de 2,7 Zettabytes lo cual es 500 veces mayor la cantidad de datos en un lapso de 9 años en comparación con los datos almacenados históricamente desde la creación de la humanidad y para el año 2015 se pronosticó que sería 3 veces mayor a los 2,7 Zettabytes.
Big Data podría alegorizarse como una montaña que contiene mucha información pero en su profundo interior contiene oro que podría visualizarse como datos de relevancia entre un desproporcionado e inmenso volumen de información que sería útil para las personas interesadas.
Palabras claves: Bytes, Redes sociales, Clic, Volumen, Marketing, desarrollo, Megas, Zetta, Exa.
Abstrat
Data has been growing exponentially since the creation of computing, where there was a constant need for management, storage, processing, control and analysis.
From the beginning of humanity until the year 2003 humanity produced 5 exabytes in the data and for the year 2012 the global data were 2.7 Zettaboks which is 500 times the amount of data in a period of 9 years in comparison With data historically stored since the creation of mankind and by 2015 was predicted to be 3 times greater than the 2.7 Zettabytes.
Big Data can be a sample of a mountain that contains a lot of information but deep inside contains gold that could be visualized as data of relevance between a disproportionate and a volume of information that would be useful for the interested people.
Keywords: Bytes, Social Networks, Clic, Volume, Marketing, development, Megas, Zetta, Exa.
Introducción
Este trabajo pretende abordar de dos temas de gran impacto en la historia de la tecnología el Software y el BigData, donde en muchas ocasiones el término de Big Data es implementado desde el punto de vista de marketing como una alegoría a ventas, pero desde un punto de vista tecnológico Big Data es la solución a problemas que con sistemas tradicionales sería inverosímil.
Las 3V son fundamentales para precisar del término de Big Data y su fundamental importancia en el mundo actual, donde la 1V (Volumen), variable fundamental ya que cuando es alto el volumen de datos, para su correcto procesamiento analítico del mismo es necesario utilizar tecnologías Big Data, la 2V (Velocidad), variable vital debido a que existen sistemas que generan millones de eventos por segundos.
De ese modo la 3V (Variedad), destaca el cambio drástico en los modelos de datos que antiguamente eran números, fechas y cosas sencillas pero que hoy en día hay muchos tipos de datos como por ejemplo datos espaciales, datos en 3D, audio, video, textos estructurados, sistemas de logaritmos, datos de interacción de redes sociales donde los sistemas tradicionales no pueden almacenar y gestionar oportunamente estos datos.
La 4V que puede considerarse es (Valor) debido a que se puede tener un gran volumen de datos obtenidos a gran velocidad variados y diversos, pero sin un correcto análisis para extraer variables a considerar de valor, no tendría sentido el termino Big Data y el análisis estructural.
- Capítulo I: Software
- Su progreso a través del tiempo
Revolucionariamente es el progreso de los tiempos actuales del análisis de data en el cual vivimos. Negocios, compañías, empresas, etc., luchan constantemente contra grandes cantidades y variedades de Data en una mano y expectaciones para un análisis rápido y concreto en la otra mano. La oferta en el mercado de software está respondiendo al proveer arquitecturas altamente distribuidas y nuevos niveles de memoria y de procesamiento. (Big Data and the Creative Destruction of Today’s Business Models, 2013).
Apache Hadoop, con 9 años siendo una plataforma de procesamiento de datos y en primera instancia utilizada por gigantes del internet como Yahoo y Facebook, lideran la revolución de Big Data. Cloudera introdujo el apoyo comercial a empresas en 2008 y MapR y Hortonworks se apilaron en 2009 y 2011, respectivamente. Dentro de estos titulares de administración de Data, IBM y EMC-SPINOUT PIVOTAL ha introducido su propio HADOOP. Microsoft y Teradata ofrecen software complementario y soporte de primera línea para la plataforma de Horton. Oracle revende y da apoyo a Cloudera, mientras que HP, SAP y otros tienen mayor participación en diferentes mercados, trabajando con múltiples proveedores de Hadoop. (Ministerio de ciencia y tecnología, Consultores S.L, 2008).
- La capacidad como requerimiento
En análisis de capacidad de memoria interna gana terreno tanto como la ley de Moore nos permita ir más rápido, más cómodo y con más potentes procesadores de mayor memoria. SAP has sido el gran campeón del acercamiento de memoria interna con su plataforma HANA, pero Microsoft y Oracle están en capacidad de introducir opciones para la memoria interna para la insignia de sus bases de datos. Vendedores concentrados en análisis de bases de datos incluyendo Actian, HP Vertica y Teradata han introducido opciones para ratios de alto RAM a disco, con herramientas para disponer de data específica dentro de la memoria para ultra rápido análisis. (Bain & Company, Navigating the “Big Data” challenge, noviembre 2012)
Avances en ancho de banda, memoria y poder de procesamiento también han mejorado el flujo de procesamiento en tiempo real y las capacidades de análisis de flujo pero esta tecnología aun ha de ver una amplia adopción. Fuera de negociaciones en el mercado, inteligencia nacional y seguridad para las comunidades, el despliegue ha sido poco casual. Nuevas fuentes de opciones como en las innovaciones en aplicaciones en marketing, contenidos personalizados, logísticas y otras áreas conllevan a una mayor adopción de estas tecnologías. (Economist Intelligence Unit Big Data, Lessons from the leaders, 2013)
Big Data: Un negocio tentativo
Dentro de los proveedores de software para la administración de Big Data como lo son IBM, Oracle, SAP− quienes ofrecen de todo desde software para la integración de Data y sistemas para la administración de bases de datos (DBMSs) a negocios inteligentes y software analítico, para memoria interna, procesamiento del flujo de data y opciones de Hadoop. Teradata es un chip diseñado para centrarse más estrechamente en el manejo y/o administración de la data y como Pivotal, tiene estrechos vínculos con el analista líder del mercado SAS.( GigaOm Pro, how to use Big Data to make better business decisions, 2013).
Muchos vendedores de software para Big Data ofrecen opciones de almacenamiento en la nube pero 1010Data y servicio web de Amazon (AWS) han apostado sus organizaciones en el modelo de la nube. Amazon tiene el modelo con la más amplia selección de productos de los dos, y es una obvia elección para todos aquellos que manejan grandes cantidades de información y almacenamiento de mucha data en la plataforma AWS. 1010 Data tiene un servicio de base de datos altamente escalable y/o manipulable y de apoyo en el manejo y/o administración de la información, inteligencia de negocios y capacidades de análisis que están puestas a disposición en un estilo de nube privada.( Economist Intelligence Unit , Lessons from the leaders, 2013)
...