ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Fundamentos básicos del proceso de datos

Neomaris ChacoaExamen2 de Octubre de 2025

2.570 Palabras (11 Páginas)26 Visitas

Página 1 de 11

[pic 1]   REPÚBLICA BOLIVARIANA DE VENEZUELA

      MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN    SUPERIOR

UNIVERSIDAD NACIONAL EXPERIMENTAL SIMÓN RODRÍGUEZ

NUCLEO GUACARA – ESTADO CARABOBO

Fundamentos Básicos del Proceso de Datos

Participante:

Ramírez Wiliana

CI: V- 26.153.928

Carrera: Administración Mención Mercadeo

Agosto del 2025

Introducción

A continuación, se interpreta y redacta el siguiente ensayo con el objetivo principal de instruirse, aprender e informar acerca de los sistemas de procesamiento de datos; al comienzo y durante el desarrollo de este ensayo abordaremos temas relacionados con este título como lo es un sistema de información gerencial, el cual se define como un conjunto de sistemas relacionados y que interactúan entre sí para brindar valiosa información.

La comunicación, que es unos de los elementos más importantes en transmisión de datos e información por medio de un sujeto a otro. La necesidad de implementar un sistema de información gerencial, pues información para las organizaciones se ha convertido en unos de los principales recursos vitales para la gerencia.

El procesamiento de datos constituye una disciplina fundamental en la era de la información digital. Este proceso implica la recopilación, manipulación y transformación de datos en bruto para extraer información valiosa que sustente la toma de decisiones. Según Claude Shannon, considerado el padre de la teoría de la información, "la información es la reducción de la incertidumbre". Este ensayo explorará los fundamentos básicos del proceso de datos, apoyándose en las contribuciones teóricas de tres reconocidos autores en el campo: Peter Naur, Edgar F. Codd y Michael Stonebraker, quienes han establecido paradigmas esenciales que continúan influyendo en la forma en que comprendemos y procesamos los datos en la actualidad.

Reflejan así el talento humano que se desenvuelve en la organización tiene que estar sujeto a cambios en su entorno con la incorporación de nuevos sistemas que permitan darle el seguimiento y pueda procesar toda la información que se maneja, para que así se puedan dar soluciones acertadas al momento que exista una determinada demanda proveniente del mercado laboral.

Desarrollo

Peter Naur, ganador del Premio Turing en 2005, estableció las bases conceptuales del procesamiento de datos con su enfoque en la "programación como teoría de construcción". Naur argumentaba que el procesamiento de datos no debía ser visto únicamente como una actividad técnica, sino como un proceso de construcción de modelos mentales que representan problemas del mundo real. En su obra "Computing: A Human Activity" (1992), Naur enfatizó que la calidad del procesamiento de datos depende directamente de la comprensión del problema por parte del programador.

Este enfoque conceptual sugiere que antes de cualquier manipulación técnica, es fundamental establecer un modelo mental claro del dominio del problema, lo que permite una representación adecuada de los datos y su posterior procesamiento. Es así como lo podemos definir como un conjunto de sistemas relacionados y que interactúan entre sí para brindar valiosa información, la cual, en un futuro no lejano, cubrirá las necesidades operacionales y administrativas de una organización

Ahora, tenemos que para (Waterfield y Ramsing 1998), un sistema de información gerencial es gerencial es la serie de procesos y acciones involucradas en captar datos en bruto, procesarlos en información utilizable y luego difundirla a los usuarios en la forma en que estos la requieran. Por lo que se tiene que un sistema de información gerencial es la serie de procesos y acciones involucradas en captar datos en bruto, procesarlos en información utilizable y luego difundirla a los usuarios en la forma en que estos la requieran.

Entonces entendemos que un sistema de información no solo implica el uso de una computadora y capacitación para usar el mismo, si no que implica mucho más, pues involucra la comunicación entre personas sobre situaciones el trabajo y desempeño para los miembros pertenecientes a una organización.

[pic 2]

Por consiguiente, destacaremos como la comunicación puede ser un determinante como mecanismo para la transmisión de datos e información dentro de una organización. Pues, de hecho, la comunicación unos de los elementos más importantes en transmisión de datos e información por medio de un sujeto a otro. Esta debe entenderse de manera que el conjunto de datos a transmitir esté organizado de una manera determinada, para que al final todos estos tengan un significado claro. Ahora podemos acertar que la comunicación está asociada con el intercambio o distribución de información.

[pic 3]

Para destacar la importancia que tiene la comunicación como transmisor de datos, tenemos que según (Katherine, 2012), este es el proceso mediante el cual se transmite ideas y afectos y, como tal contiene a la información que es dar noticia sobre algo. También es un proceso que comprende todos los métodos de transmisión que sirven para conducir ideas, e informes o motivaciones que son comprendidos por individuos o grupos.

Entonces, ya vemos lo importante que es la comunicación para la transmisión de ideas e información ya que esta consiste en compartir mediante un individuo hacia otro individuo o grupo de personas, de manera que se emite y recibe un mensaje para así llegar a un entendimiento común.

Para profundizar un poco vamos a hablar sobre el modelo racional, introducido por Edgar F. Codd que revolucionó el campo del procesamiento de datos con la introducción del modelo relacional en su influyente artículo "A Relational Model of Data for Large Shared Data Banks" (1970). Codd propuso organizar los datos en estructuras lógicas denominadas relaciones, representadas como tablas bidimensionales compuestas por filas y columnas.

Este modelo proporcionó una base matemática sólida para el almacenamiento y la manipulación de datos, separando la estructura lógica de los datos de su implementación física. Esta abstracción permitió a los usuarios interactuar con los datos sin preocuparse por los detalles de almacenamiento subyacentes, lo que constituyó un cambio paradigmático en el procesamiento de datos y sentó las bases para el desarrollo de los sistemas de gestión de bases de datos relacionales (RDBMS) que dominan el panorama tecnológico actual.

Continuando con las contribuciones de Codd, su teoría de la normalización estableció principios fundamentales para garantizar la integridad y consistencia de los datos. A través de un conjunto de formas normales (1NF, 2NF, 3NF, etc.), Codd proporcionó una metodología sistemática para estructurar bases de datos relacionales, minimizando la redundancia y evitando anomalías en las operaciones de actualización.

La normalización se ha convertido en un componente esencial del procesamiento de datos, ya que asegura que la información sea consistente y precisa a lo largo de todo el ciclo de vida de los datos. Como afirmaba Codd, "la redundancia controlada es aceptable solo cuando ofrece beneficios significativos de rendimiento y no compromete la integridad de los datos", destacando así la importancia del equilibrio entre la eficiencia operativa y la integridad de la información.

Por otro lado, Michael Stonebraker, otro ganador del Premio Turing y creador de sistemas innovadores como INGRES y Postgres, expandió significativamente nuestra comprensión de los sistemas de procesamiento de datos. En su influyente artículo "The Case for Shared Nothing" (1986), Stonebraker propuso una arquitectura distribuida que ha influido profundamente en el diseño de sistemas de procesamiento de datos a gran escala.

Este enfoque, donde cada nodo del sistema opera independientemente y se comunica mediante mensajes, ha demostrado ser excepcionalmente escalable y robusto, constituyendo la base de muchos sistemas modernos de procesamiento de big data como Hadoop y Spark. Stonebraker argumentó que "la escalabilidad es inherentemente limitada por los cuellos de botella en los recursos compartidos", estableciendo así un principio fundamental para el diseño de sistemas distribuidos eficientes.

De esta forma el procesamiento de datos sigue un ciclo de vida bien definido que comienza con la adquisición y culmina con la generación de conocimiento accionable. Este ciclo, respaldado por los principios teóricos de los tres autores mencionados, comprende las etapas de recolección, limpieza, transformación, análisis y visualización.

Naur enfatizó la importancia de la comprensión conceptual en cada fase de este ciclo, Codd proporcionó las estructuras relacionales para su implementación eficiente, y Stonebraker contribuyó con arquitecturas escalables para su ejecución. El reconocimiento de este ciclo como un proceso integral y no como actividades aisladas representa uno de los fundamentos más importantes en el campo, permitiendo un enfoque holístico que maximiza el valor extraído de los datos.

...

Descargar como (para miembros actualizados) txt (17 Kb) pdf (280 Kb) docx (165 Kb)
Leer 10 páginas más »
Disponible sólo en Clubensayos.com