ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Historia De La Computacion


Enviado por   •  4 de Abril de 2014  •  2.735 Palabras (11 Páginas)  •  214 Visitas

Página 1 de 11

HISTORIA DE LA COMPUTACION

El concepto "Computación" refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática, que se vinculan entre sí en el marco del procesamiento y movilidad de la información.

Las Ciencias de la Computación supone un área muy profundo de análisis, que tiene sus orígenes en 1920, cuando "computación" hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las PCs, la historia y el significado de este concepto se ampliaría sobre nuevos horizontes, distinguiendo los alogaritmos que forman parte del desarrollo de las soluciones.

En resumen, "computación" implica las órdenes y soluciones dictadas en una máquina, comprendiendo el análisis de los factores involucrados sobre este proceso, dentro de los cuales aparecen los lenguajes de programación. De este modo, se automatizan tareas, generando datos concretos de forma ordenada.

Breve Historia de la Computadora Una computadora electrónica, según el Diccionario de la Real Academia Española, es una: Máquina electrónica, analógica o digital, dotada de una memoria de gran capacidad y de métodos de tratamiento de la información, capaz de resolver problemas matemáticos y lógicos mediante la utilización automática de programas informáticos.

La computadora es un invento joven de no más de un siglo. Sin embargo es el resultado de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un lado, el ábaco que fue uno de los primeros dispositivos mecánicos para contar; por otro lado, la Pascalina, inventada por Blaise Pascal y después perfeccionada por Gottfried Wilhelm von Leibniz, permitía realizar cálculos de manera mecánica por medio de engranajes, y también, la tarjeta perforada asumió un papel importante en la computación.

En 1882 Charles Babbage inventa una “máquina diferencial”, que realiza cálculos de tablas simples. Diez años más tarde diseña la “máquina analítica”, que no fue construida hasta 1989. Esta máquina poseía elementos que influyeron en las subsiguientes computadoras: flujo de entrada, memoria, procesador e impresora de datos. Por esto, Babbage es considerado el "Padre de las Computadoras Modernas".

En 1944 se construye la MARK I, diseñada por un equipo encabezado por Howard H. Aiken. La máquina basa su funcionamiento en dispositivos electromecánicos llamados relevadores.

Von Neumann es otro personaje importante ya que proyecta el prototipo de los modernos procesadores electrónicos. El prototipo se basa en el concepto de programa memorizado.

A partir de la mitad del siglo XX el desarrollo de la computadora es mayor y más rápido. Este desarrollo se suele dividir en generación.

Primera Generación

En general se caracteriza por tres aspectos: primero, por el uso de bulbos (tubos de vacío); segundo, uso de programas en lenguaje de máquina, usualmente, en tarjetas perforadas, y finalmente, por ser enormes y costosas.

Segunda Generación

Sus características son: en primer lugar, se utilizan circuitos de transistores, en vez de bulbos; segundo, se programas en lenguajes de alto nivel, y por último, se utilizan para nuevas aplicaciones.

Tercera Generación

Al igual que las generaciones pasadas, tiene tres características:

I. Ahora utiliza circuitos integrados.

II. II. Utiliza sistemas operativos. El más famoso es el OS de IBM.

III. III. Aparecen minicomputadoras.

Cuarta Generación

Se dice que es la generación actual, aunque mucho ya mencionan una quinta.

En esta generación aparecen los microprocesadores, los núcleos magnéticos son remplazados por chips de silicio (almacenamiento de memoria) y un sinfín de cambios que continúan apareciendo día con día.

Software:

a. Es el conjunto de programas, procedimientos y documentos relacionados con el sistema hardware.

b. Es la herramienta de que se vale el usuario para obtener el resultado esperado de un procesamiento de datos.

Programa: es un conjunto de instrucciones lógicas que tienen la finalidad de llevar a cabo una tarea especifica

Programa de computación:

a. Es un conjunto de instrucciones detalladas que le dirán a la computadora que hacer, paso a paso.

b. Es una expresión de un conjunto de instrucciones en cualquier lenguaje, apto para lograr que una computadora realice un trabajo.

Código Fuente: también denominado programa fuente

a. Es un texto escrito en un lenguaje de programación para crear el programa. Es la forma del programa legible por el programador.

b. Es un texto que describe lo que hace el programa, y que una vez pasado por un proceso llamado compilación (traducción de lenguaje fuente a lenguaje maquina) genera el código ejecutable, el programa que usamos.

c. Es el conjunto completo de instrucciones y archivos originales y de soporte, creados y/o modificados por el programador, destinado a producir el programa ejecutable a partir de ellos.

Licencia:

a. Es la forma en que un autor permite el uso de su creación por otras personas, de la manera que él cree aceptable.

b. Es el instrumento que regula las maneras en que el usuario puede utilizar el software.

Copyright: es el derecho legal de un autor que obtiene por el resultado creativo de un trabajo original. Es una forma de protección garantizada por la ley.

Usuario: es aquella persona que emplea el software

Clasificaciones del software

1) De acuerdo a su costo:

a. De costo cero: también conocido como software gratis o gratuito. Es aquel software cuyo costo de adquisición es nulo, es decir, no hace falta efectuar un desembolso de dinero para poder usarlo.

b. De costo mayor a cero: también se conoce como

...

Descargar como (para miembros actualizados)  txt (17.9 Kb)  
Leer 10 páginas más »
Disponible sólo en Clubensayos.com