ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Informatica De Computacion


Enviado por   •  15 de Febrero de 2015  •  2.784 Palabras (12 Páginas)  •  185 Visitas

Página 1 de 12

as ciencias de la computación o ciencias computacionales son aquellas que abarcan las bases teóricas de la información y la computación, así como su aplicación en sistemas computacionales.1 2 3 El cuerpo de conocimiento de las ciencias de la computación es frecuentemente descrito como el estudio sistemático de los procesos algorítmicos que describen y transforman información: su teoría, análisis, diseño, eficiencia, implementación y aplicación.4

Es el estudio sistemático de la factibilidad, estructura, expresión y mecanización de procedimientos metódicos (o algoritmos) que subyacen en la adquisición, representación, procesamiento, almacenamiento, comunicación y acceso a la información si dicha información está codificada en forma de bits en una memoria de computadora o especificada en una estructura de genes y proteínas en una célula biológica.5

Existen diversos campos o disciplinas dentro de las ciencias de la computación o ciencias computacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora), mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cómputo y otros se enfocan en los problemas que requieren la implementación de sistemas computacionales. Por ejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programación de computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problema computacional específico. Un científico de la computación se especializa en teoría de la computación y el diseño e implementación de sistemas de computacionales.6

Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: «¿Qué puede ser (eficientemente) automatizado?».7

Índice [ocultar]

1 Historia

1.1 Mayores logros

2 Filosofía

2.1 Desambiguación

3 Campos de las ciencias de la computación

3.1 Ciencias de la computación teóricas

3.2 Teoría de la computación

3.3 Teoría de la información y códigos

3.4 Algoritmos y estructuras de datos

3.5 Teoría de lenguajes de programación

3.6 Métodos formales

3.7 Ciencias de la computación aplicadas

3.8 Inteligencia artificial

3.9 Arquitectura de computadoras

3.10 Análisis de rendimiento de computadoras

3.11 Cómputo científico

3.12 Redes de computadoras

3.13 Sistemas concurrentes, paralelos y distribuidos

3.14 Bases de datos

3.15 Informática en salud

3.16 Ciencia de la información

3.17 Ingeniería de software

4 Relación con otros campos

5 Véase también

6 Referencias

7 Bibliografía

8 Enlaces externos

computación son anteriores a la invención de la computadora digital moderna. Se trataba de máquinas para el cálculo de las tareas numéricas fijas, como el ábaco han existido desde la antigüedad, ayudando en cálculos tales como la multiplicación y la división. Además, los algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes de que se crearan equipos de computación sofisticados. Los antiguos sánscritos tratadistas Shulba Sutras, o "Reglas de la cuerda", es un libro de algoritmos escritos en 800 a. C. para la construcción de objetos geométricos como altares utilizando una clavija y cuerda, un precursor temprano del campo moderno de la geometría computacional.

Blaise Pascal diseñó y construyo la primera calculadora mecánica de trabajo, la Pascalina, en 1642.9 En 1673 Gottfried Leibniz creó una calculadora mecánica digital, llamada el 'Stepped Reckoner'.10 Él puede ser considerado el primer computólogo y teórico de la información, entre otras razones, porque fue el primero en documentar el sistema numérico binario. En 1820, Charles Xavier Thomas de Colmar lanzó la calculadora mecánica industrial11 cuando lanzó su simplificado aritmómetro, que fue la primera máquina de calcular lo suficientemente fuerte y lo suficientemente confiable para ser usada a diario en un entorno industrial. Charles Babbage inició el diseño de la primera calculadora automática mecánica, su máquina diferencial, en 1822, que finalmente le dio la idea de la primera calculadora mecánica programable, su máquina analítica.12 Él comenzó a desarrollar esta máquina en 1834 y "en menos de dos años que había esbozado muchas de las características más destacadas del moderno equipo. Un paso fundamental fue la adopción de un sistema de tarjetas perforadas derivado del telar de Jacquard"13 haciéndolo infinitamente programable.14 En 1843, durante la traducción de un artículo francés sobre la máquina analítica, Ada Lovelace escribió, en una de las muchas notas que incluye el artículo, un algoritmo para calcular los números de Bernoulli, que es considerado como el primer programa de ordenador.15 Al rededor de 1885, Herman Hollerith inventó la máquina tabuladora, que usaba tarjetas perforadas para procesar información estadística; finalmente, su compañía se convirtió en parte de IBM. En 1937, cien años después del sueño imposible de Babbage, Howard Aiken convencidos por IBM, que estaban manufacturando todo tipo de equipos de tarjetas perforadas y así como la calculadora de negocio 16 para desarrollar su calculadora programable gigante, el ASCC/Harvard Mark I, se basó en la máquina analítica de Babbage, que a su vez utiliza las tarjetas perforadas y una unidad central de cálculo. Cuando se terminó de construir la máquina, algunas personas lo aclamaron como "el sueño de Babbage hecho realidad".17

Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el término computador se comenzó a utilizar para referirse a las máquinas y ya no a sus antecesores humanos.18 Cuando se hizo evidente que las computadoras no solamente podrían utilizarse para realizar cálculos matemáticos, el campo de las ciencias de la computación se amplió para estudiar cómputo en general. Las ciencias de la computación empezaron a establecerse como una disciplina académica distinta de las demás en la década de 1950 y principios de 1960.7 19 Entonces surgió el primer programa de grado universitario mundo, el Cambridge Diploma in Computer Science, se inició en la Universidad de Cambridge en el Cambridge Computer Lab (departamento de ciencias de la computación) en 1953. El primer programa de grado de la informática en los Estados Unidos se formó en Universidad de Purdue en 1962.20 Desde que se dispone ordenadores prácticos, muchas aplicaciones la computación se han convertido en las distintas áreas de estudio en sus propios términos.

La disciplina científica de las ciencias de la computación nace a principios de 1940 con la confluencia de la teoría de algoritmos, lógica matemática y la invención del programa almacenado en una computadora electrónica.4 Ejemplos de esto son los trabajos de Alan Turing, Alonzo Church y Kurt Gödel en 1930 acerca de los algoritmos y su trabajo en sistemas de reglas (véase Cálculo Lambda, Máquina de Turing y Problemas Indecidibles), los algoritmos creados por Augusta Ada sesenta años antes, la computadora analógica construida por Vannevar Bush en 1920 y las computadoras eléctricas construidas por Howard Aiken y Konrad Zuse en 1930. Los escritos de John Von Neumann dieron una profundidad intelectual considerable a esta disciplina emergente a mediados de la década de 1940.

En 1960, había suficientemente cuerpo de conocimiento que ameritaba la creación de departamentos académicos y programas de grado universitario para esta disciplina.4 IBM es reconocida como la marca que formó parte de la revolución de las ciencias de la computación durante ese tiempo. IBM (abreviación de International Business Machines) lanzó la IBM 70421 y más tarde la IBM 70922 computadoras, que fueron ampliamente utilizadas durante el período de exploración de este tipo de dispositivos. "Sin embargo, el trabajo con la IBM [equipo] era frustrante ... si te equivocas en una letra de alguna instrucción, el programa se arruinaría, y se tendría que empezar todo el proceso otra vez".23 Durante la década de 1950, la disciplina de las ciencias de la computación estaba en su etapa de desarrollo, y estos problemas eran algo común. El tiempo ha dado mejoras significativas en la capacidad de uso y la eficacia de la tecnología de la computación. La sociedad moderna ha presenciado un cambio significativo en los usuarios de la tecnología en cómputo, de ser utilizada únicamente por expertos, profesionales y científicos, a una base de usuarios que es casi omnipresente a la teoría con la cual se desarrolló y funciona este tipo de tecnología. Inicialmente, las computadoras eran bastante costosas, y era necesario un cierto grado de ayuda humana para el uso eficiente - en parte de operadores de computadoras profesionales. Como la adopción equipo se hizo más generalizado y asequible, se necesitaba menos asistencia humana en el uso común.A pesar de su corto tiempo de ser una disciplina científica formal, las ciencias de la computación han hecho un gran número de contribuciones importantes a la ciencia y la sociedad –de hecho, junto con la electrónica, es una ciencia fundacional de la época actual de la historia humana llamada Era de la información y la Revolución de la Información, visto como el tercer gran salto en el progreso tecnológico humano después de la Revolución Industrial (1750-1850) y la revolución neolítica (8000-5000 a. C.)–.

Estas contribuciones a la humanidad incluyen:

El comienzo de la "Revolución digital", la cual incluye la actual Era de la información y el Internet.25

Una definición formal de computación y computabilidad, y una demostración formal de que existen problemas que son computacionalemente irresolubles e intratables.26

El concepto de lenguaje de programación, una herramienta para la expresión precisa de información metodológica a varios niveles de abstracción.27

En criptología, el criptoanálisis de Enigma fue un factor importante, el cual contribuyó a la victoria Aliada en la Segunda Guerra Mundial.24

Cómputo Científico permitió la evaluación de procesos y situaciones de gran complejidad, así como la experimentación mediante software. También permitió el avance en investigación de la mente humana y el mapeo del genoma humano junto el Proyecto Genoma Humano.25 proyectos de Cómputo Distribuido tales como Folding@home que estudiaron el plegamiento de proteínas.

El Comercio algorítmico ha incrementado la eficiencia y la liquidez de los mercados financieros mediante técnicas de inteligencia artificial, aprendizaje automático, y otros métodos estadísticos y numéricos a gran escala.28 Alta frecuencia de comercio algorítmico también puede exacerbar la volatilidad financiera.29

Computación gráfica e imágenes generadas por computadora se han convertido omnipresentes en la era moderna del entretenimiento, sobre todo en televisión, cine, publicidad, animación y videojuegos. [cita requerida]

Simulación de varios procesos, incluyendo dinámica de fluidos computacionales, sistemas físicos, eléctricos, electrónicos y de circuitos, así como las sociedades y las situaciones sociales (sobre todo juegos de guerra), junto con sus hábitats, entre muchos otros. Las computadoras modernas permiten la optimización de diseños tales como aviones completos. Se destaca el diseño de circuitos eléctricos y electrónicos con SPICE, así como software para la realización física de nuevos diseños. Este último incluye software de diseño esencial para circuito integrados.

La Inteligencia artificial (IA) es cada vez más importante, ya que se hace más eficiente y compleja. Existen muchas aplicaciones de la IA, algunas se pueden ver en el hogar, tales como aspiradores robóticos. También está presente en los videojuegos y en el campo de batalla moderno en aviones no tripulados, sistemas antimisiles, y robots de apoyo para escuadrones.

Filosofía[editar]

Un gran número de científicos de la computación han argumentado a favor de la distinción de tres paradigmas diferentes en ciencias de la computación. Peter Wegner ha argumentado que esos paradigmas son la ciencia, la tecnología y las matemáticas.30 El grupo de investigación de Peter Denning argumentó que son la abstracción (modelado), y diseño. Amnon H. Eden lo describe como el “paradigma racionalista” (el cual trata a las ciencias de la computación como una rama de las matemáticas, la cual prevalence en ciencias de la computación teórica y principalmente emplea el razonamiento deductivo), el paradigma tecnocrático (que podría ser encontrado en enfoques ingenieriles, más prominente en la ingeniería de software) y el paradigma científico (que se enfoca a objetos relacionados con la computación desde la perspectiva empírica de las ciencias naturales identificable en algunas ramas de la inteligencia artificial.

Desambiguación[editar]

El término “ciencias de la computación” aparece en 1959 en un artículo de la revista Communications of the ACM (prestigiada publicación científica destinada a lectores con experiencia en todos los ámbitos de la computación y los sistemas de información),31 en el cual Louis Fein discute sobre la creación de una Escuela de Estudios de Posgrado en Ciencias Computacionales análoga a la creación de Harvard Business School en 1921,32 justificando el nombre con el argumento de que: Como la ciencia administrativa, el tema o área de conocimiento puede ser aplicado, es de carácter interdisciplinario y que cuenta con las características típicas de una disciplina académica.33 Sus esfuerzos y los de otros, como el analista numérico George Forsythe, fueron recompensados : universidades pasaron a crear este tipo de programas de estudio, a partir de 1962 en Purdue.34 A pesar del nombre de esta disciplina académica, una cantidad significativa de tópicos en ciencias de la computación no involucran el estudio de las computadoras, por esta razón muchos nombres alternativos han sido propuestos.35

Algunos departamentos de universidades prefieren el término “ciencias de la computación” para hacer énfasis en esta diferencia. El científico danés Peter Naur sugirió el término datología,36 para reflejar el hecho de que esta disciplina científica gira en torno a los datos y a al tratamiento de estos, mientras que no necesariamente involucra a las computadoras. La primer institución científica en usar el término fue el Departamento de Datología de la Universidad de Copenhague, fundado en 1969, con Peter Naur como profesor de datología. El término es usado en países escandinavos. En los primeros años de la computación, un número de terminus para los practicantes del campo de la computación fueron propuestos en la revista Communications of the ACM – turingeniero, turologo, hombre de los diagramas de flujo, matemático meta-aplicado, and epistemologo aplicado.37 Tres meses después en esa misma publicación científica, el término computólogo fue sugerido. El siguiente año en la misma publicación surgió el término hypologo.38 El término computica también ha sido sugerido.39 En Europa, términos derivados de traducciones de la expresión "automatic information" (e.g. "informazione automatica" en Italiano) or "información y matemáticas” son frecuentemente usados, e.g. informatique (francés), Informatik (alemán), Informatica (Italia, Países Bajos), Informática (España y Portugal), informatika (lenguas eslavas) o pliroforiki (πληροφορική, que significa informática) en Griego. Palabras similares han sido adoptadas en algunos lugares del Reino Unido, por ejemplo en la Universidad de Edimburgo.40 Pero estas no reflejan el aspecto de la computabilidad, por esta razón en un contexto de investigación científica tanto académica como industrial el término ciencias de la computación es mayormente usado en publicaciones y conferencias científicas.

Campos de las ciencias de la computación[editar]

Como disciplina científica, las ciencias de la computación abarcan una gama de temas, desde los estudios teóricos de los algoritmos y los límites de la computación a los problemas prácticos de la implementación de sistemas computacionales en hardware y software.41 42 Computing Sciences Acreditation Board o la Junta de Acreditación en Ciencias de la Computación. –Compuesta por representantes de la Association for Computing Machinery (ACM), y la Sociedad de Computación IEEE (IEEE-CS) 43 – identifica cuatro áreas que considera cruciales para la disciplina de ciencias de la computación: teoría de la computación, algoritmos y estructuras de datos, metodología y lenguajes de programación, arquitectura de computadoras. Además de estas cuatro áreas, C.S.A.B. también identifica ámbitos como la ingeniería de software, inteligencia artificial, redes de computadoras y de telecomunicaciones, sistemas de bases de datos, computación paralela, computación distribuida, la interacción persona-computador, gráficos por ordenador, sistemas operativos, cálculo numérico y simbólico siendo importantes áreas de las ciencias de la computación.41

Ciencias de la computación teóricas[editar]

El campo más amplio de la ciencia de la computación teórica abarca tanto la teoría clásica de la computación y una amplia gama de otros temas que se centran en los aspectos más abstractos, lógicos y matemáticos de la computación.

Teoría de la computación[editar]

Artículo principal: Teoría de la computación

De acuerdo a Peter J. Denning, la pregunta fundamental en ciencias de la computación es, «¿Que puede ser eficientemente automatizado?»7 El estudio de la teoría de la computación esta enfocado en responder preguntas fundamentales acerca de que puede ser computado y que cantidad de recursos son requeridos para ejecutar tales cómputos. En un esfuerzo por resolver esta pregunta, la teoría de la computabilidad examina que problemas computacionales se pueden resolver en varios modelos teóricos de cómputo. La segunda pregunta está dirigida por la teoría de la complejidad computacional, que estudia los costos de tiempo y espacio asociados a diferentes enfoques para resolver una multitud de problemas computacionales.

El famoso problema "¿P=NP?" es uno de los Problemas del milenio,44 es un problema abierto en ciencias de la computación.

DFAexample.svg Wang tiles.png P = NP ? GNITIRW-TERCES Blochsphere.svg

Teoria de automatas Teoria de la computabilidad Teoria de la complejidad computacional Criptografía Computación cuántica

Teoría de la información y códigos[editar]

Artículos principales: Teoría de la información y Teoria de códigos.

La teoría de la información esta relacionada a la cuantificación de la información. Fue desarrollada por Claude E. Shannon para desarrollar los límites fundamentales del procesamiento de señales así como sus operaciones, tales como compresión y almacenamiento de datos así como la comunicación de los datos de manera fiable.45 La teoría de códigos es el estudio de las propiedades de los códigos (sistemas para conversión de información de un lugar a otro) y su ajuste para una aplicación específica. Los códigos son usados para comprimir datos, criptografía, detección y corrección de errores y más recientemente para la codificación de redes. Los códigos son estudiados para el propósito de diseñar métodos eficientes y seguros para la transmisión de datos.

Algoritmos y estructuras de datos[editar]

...

Descargar como  txt (19 Kb)  
Leer 11 páginas más »