ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Historia Del Computador

agustin77710 de Enero de 2012

3.705 Palabras (15 Páginas)926 Visitas

Página 1 de 15

HISTORIA DEL COMPUTADOR

• 2500 a.C. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.

• 600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.

• 500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

• 1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.

• 1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9.

• 1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

• 1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Babbage usaba cartones perforados para suministrarle datos a su máquina, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.

• 1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.

• 1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.

• 1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.

• 1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.

• 1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora. La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.

• En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada. Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts; una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

• 1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico (basado en electroimanes). El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto. Posteriormente se construyeron Mark II y Mark III.

• 1947 - Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen,el ENIAC (Electronic Numerical Integrator And Calculator). Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.

• 1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea. La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.

• 1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos. Disponía de mil palabras de memoria central y podía leer cintas magnéticas.

• 1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.

• 1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.

• 60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas. Se trataba de los circuitos integrados o chips. Estos permitieron una nueva disminución en el tamaño y el costo.

• 1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio. Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann. Fue la primera Unidad Central de Procesos (CPU).

• 1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.

• 1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080. Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.

• 1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic. El resultado fue la primera computadora Apple.

• Los 80's (Computadoras para todos). Tras el éxito de la microcomputadora, en 1981 IBM lanzó al mercado el IBM PC, diseñado por doce ingenieros dirigidos por William C. Lowe. Su principal característica es que tenía una estructura abierta; es decir, que era capaz de integrar componentes de otros fabricantes. De hecho, su sistema operativo, el DOS 1.0, era de Microsoft, y el microprocesador, un Intel 8088.

• En 1984, la compañía Apple presentó una nueva computadora, la Macintosh, sucesora de un modelo denominado Lisa. Entre sus novedades estaba la incorporación de una herramienta nueva para controlar la computadora, el mouse o ratón.

• En 1985, Microsoft -compañía fundada por Bill Gates y Paul Allen en 1975- presentó el software Windows 1.1. Ese mismo año aparecen los primeros CD-ROM para computadoras. Las computadoras personales surgieron gracias a la Muy Alta Integración de sus procesos (VLSI) desarrollada durante los ochentas, y que permitió concentrar miles de componentes electrónicos en una plaquita de silicio (el chip) de alrededor de un centímetro cuadrado..

• Los 90's – (Nuevas tecnologías). Durante los noventa comenzó a masificarse el uso de las computadoras, al disminuir su tamaño y también su costo, debido a la producción en serie y a la competencia entre las fabricantes IBM, Apple y Microsoft. Primero se multiplicaron en las empresas y luego fueron apareciendo cada vez en más hogares.

HARDWARE

En computación, término inglés que hace referencia a cualquier componente físico tecnológico, que trabaja o interactúa de algún modo con la computadora. No sólo incluye elementos internos como el disco duro, CD-ROM, disquetera, sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso hace referencia a elementos externos como la impresora, el mouse, el teclado, el monitor y demás periféricos.

El hardware contrasta con el software, que es intangible y le da lógica al hardware (además de ejecutarse dentro de éste). El hardware no es frecuentemente cambiado, en tanto el software puede ser creado, borrado y modificado sencillamente.

SOFTWARE

En computación, el software (en sentido estricto) son los programas o aplicaciones programado para realizar tareas específicas. El

...

Descargar como (para miembros actualizados) txt (25 Kb)
Leer 14 páginas más »
Disponible sólo en Clubensayos.com