ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Historia Del Computador

cacg210710 de Mayo de 2015

6.978 Palabras (28 Páginas)187 Visitas

Página 1 de 28

Informática

Es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la informática, utilizando sistemas computacionales, generalmente implementados como dispositivos electrónicos.

También está definida como el procesamiento automático de la información. Es el tratamiento racional, automático y adecuado de la información, por medio del computador, para lo cual se diseñan y desarrollan estructuras y aplicaciones especiales buscando seguridad integridad. En el contexto de la informática la información constituye un recurso de gran valor y se busca mantenerla y utilizarla de la mejor manera.

El Diccionario de la real Academia Española, la define como el conjunto de conocimientos científico y técnico, que hacen posible el tratamiento automático de la información por medio de ordenadores.

Historia de la Informatica

Los orígenes de la informática pueden situarse al menos en cuatro momentos históricos. El primero es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a ayudarse de objetos para calcular y contar tales como las piedrecillas (en latín calculi, del que viene el término actual calcular), los tableros de cálculo y los ábacos, todos los cuales han llegado hasta el siglo xx (Aspray 1990).

Ahora bien, ninguno de estos instrumentos se parece a lo que hoy nos referimos con el término ordenador. Para los ciudadanos de la época actual, un ordenador es un dispositivo o conjunto de dispositivos que nos libera de la pesadez que suponen las tareas de cálculo, así como de la actividad paralela de almacenar y recuperar información. Por tanto, el segundo hito histórico en la historia de la informática sería 1890, año en el que Herman Hollerith concibió la tarjeta perforada junto con un sistema de máquinas que procesaban, evaluaban y clasificaban la información codificada en ellas para la elaboración del censo de Estados Unidos. El sistema de Hollerith surgió en un momento crucial de la historia: cuando la maquinaria mecánica, cuyo mayor exponente son el motor de vapor y las turbinas hidráulicas y de vapor, había transformado la industria. La conexión entre energía y producción hacía necesaria una mayor supervisión, no sólo física, también de la gestión de datos que la industrialización trajo consigo. Los tabuladores de Hollerith (y la empresa que éste fundó y que sería la base del grupo IBM) fueron una de tantas respuestas, pero hubo otras, como las máquinas eléctricas de contabilidad, las cajas registradoras, las máquinas de sumar mecánicas, la conmutación automática y los mecanismos de control para los ferrocarriles, las centrales telefónicas y telegráficas junto con los sistemas de información para los mercados internacionales de valores y materias primas.

No obstante, el lector actual podría quejarse y aducir que éste tampoco es el punto de partida adecuado. Parece que la auténtica revolución informática guarda relación con la electrónica, si no con los microprocesadores de silicio, que en la actualidad están en todas partes, al menos con sus antepasados inmediatos, los transistores y los tubos de vacío. Según esto, la era de la informática comenzó en febrero de 1946, cuando el ejército de Estados Unidos hizo público el Calculador e integrador numérico electrónico (Electronic Numerical Integrator and Computer, ENIAC) en un acto celebrado en la Moore School of Electrical Engineering de Filadelfia. El ENIAC, que contaba con 18.000 tubos de vacío, se presentó como un instrumento capaz de calcular la trayectoria de un proyectil lanzado desde un cañón antes de que el proyectil realizara el recorrido. Eligieron muy bien el ejemplo, pues este tipo de cálculos era el motivo por el cual el ejército había invertido más de medio millón de dólares de entonces (lo que equivaldría a varios millones de dólares en la actualidad) en una técnica que, se reconocía, era arriesgada y estaba por demostrar.

Un estudio histórico reciente ha desvelado que previamente existía otra máquina que realizaba operaciones de cálculo con tubos de vacío. Se trata del Colossus británico, del que se fabricaron varias unidades que se instalaron en Bletchley Park, Inglaterra, durante la Segunda Guerra Mundial, y se usaron con éxito para descifrar los códigos alemanes. A diferencia del ENIAC, estas máquinas no realizaban operaciones aritméticas convencionales, pero sí llevaban a cabo operaciones de lógica a gran velocidad, y al menos algunas de ellas llevaban varios años en funcionamiento antes de la presentación pública del invento estadounidense. Tanto el ENIAC como el Colossus estuvieron precedidos de un dispositivo experimental que diseñó en la Universidad de Iowa un catedrático de Física llamado John V. Atanasoff, con la colaboración de Clifford Berry. Esta máquina también realizaba operaciones de cálculo por medio de tubos de vacío, pero, aunque sus componentes principales se presentaron en 1942, nunca llegó a estar en funcionamiento (Burks y Burks 1988).

El lector podría observar de nuevo que lo fundamental no es simplemente que una tecnología exista, sino que pase a ser de uso habitual en las mesas de trabajo y los hogares del ciudadano normal. Después de todo no han sido muchas las personas, como máximo una docena, que hayan tenido la oportunidad de utilizar el ENIAC y sacar provecho de su extraordinaria potencia. Lo mismo ocurre con los ordenadores Colossus, que se desmontaron después de la Segunda Guerra Mundial. Según esto, habría que fechar el verdadero origen de la revolución informática no en 1946 sino en 1977, año en el que dos jóvenes, Steve Jobs y Steve Wozniak, originarios de lo que se conoce como Silicon Valley, dieron a conocer al mundo un ordenador llamado Apple II. El Apple II (al igual que su predecesor inmediato el Altair y su sucesor el IBM PC) sacó a la informática del mundo especializado de las grandes empresas y el ejército y la llevó al resto del mundo.

Podríamos seguir indefinidamente con este debate. Según los jóvenes de hoy, la revolución informática es aún más reciente, pues consideran que se produjo cuando, gracias a Internet, un ordenador en un lugar determinado intercambió información con ordenadores que estaban en otros lugares. La más famosa de estas redes la creó la Agencia de proyectos de investigación avanzada (Advance Research Projects Agency, ARPA) del Departamento de Defensa de Estados Unidos, que a principios de 1969 ya tenía una red en marcha (ARPANET). Sin embargo, también hubo otras redes que conectaron ordenadores personales y miniordenadores. Cuando éstas se combinaron, en la década de 1980, nació Internet tal y como hoy la conocemos (Abbate 1999).

Lo cierto es que hay muchos puntos donde se puede empezar esta historia. Mientras escribo este artículo la informática está experimentando una nueva transformación. Me refiero a la fusión entre ordenadores personales y dispositivos de comunicación portátiles. Como en otras ocasiones, esta transformación viene acompañada de descripciones en la prensa diaria que hablan de los efectos revolucionarios que tendrá. Es evidente que el teléfono posee una historia larga e interesante, pero no es ése el tema que nos ocupa. Sólo hay una cosa clara: aún no hemos asistido al último episodio de este fenómeno. Habrá muchos más cambios en el futuro, todos impredecibles, todos presentados como el último adelanto de la revolución informática y todos dejarán relegadas al olvido las «revoluciones» anteriores.

Este relato comienza a principios de la década de 1940. La transición de los ordenadores mecánicos a los electrónicos fue, en efecto, importante, pues entonces se sentaron las bases para inventos posteriores, como los ordenadores personales. En aquellos años ocurrieron más cosas importantes: fue durante esta década cuando surgió el concepto de programación (posteriormente ampliado al de software) como actividad independiente del diseño de los equipos informáticos, si bien de suma importancia para que éstos pudieran emplearse para lo que habían sido diseñados. Por último, fue en esta época cuando, como resultado de la experiencia con las primeras enormes computadoras experimentales ya en funcionamiento, apareció un diseño funcional básico, una arquitectura, para utilizar el término más reciente, que se ha mantenido a través de las oleadas sucesivas de avances tecnológicos hasta la actualidad.

Por tanto, y con todos los matices que habrá que añadir para que la afirmación resulte admisible para los historiadores, podemos considerar que el ENIAC constituyó el eje de la revolución informática (Stern 1981). Aquella máquina, concebida y desarrollada en la Universidad de Pensilvania durante la Segunda Guerra Mundial, inauguró lo que conocemos por era informática. Siempre y cuando se entienda que cualquier punto de origen histórico que se elija es en cierto modo arbitrario, y siempre y cuando se conceda el debido crédito a los adelantos que tuvieron lugar antes, incluida la labor de Babbage y Hollerith, así como los inventos de la máquina de sumar, la caja registradora y otros dispositivos similares, podemos empezar aquí.

Origen del Computador

Durante muchos años, o mejor dicho durante muchos siglos la humanidad careció de un instrumento que lo ayude a procesar y archivar información.

Un computador o computadora es una maquina utilizada por el hombre para desempeñar diversas funciones, si hablamos del origen del computador nos tendríamos que remontar hasta la edad antigua cuando los hombres vivían en las cavernas, como sabemos el hombre primitivo no contaba con ningún medio para realizar cálculos y operaciones, se dice por ejemplo que para contar los frutos que recolectaba

...

Descargar como (para miembros actualizados) txt (46 Kb)
Leer 27 páginas más »
Disponible sólo en Clubensayos.com