ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Introduccion Al Lebguaje C


Enviado por   •  20 de Agosto de 2013  •  2.850 Palabras (12 Páginas)  •  229 Visitas

Página 1 de 12

Introducción

El Lenguaje de programación C fue implantado por primera vez en los años 70 por Dennis Ritchie para una computadora DEC PDP-11 corriendo el sistema operativo UNIX.

El lenguaje C, a diferencia de lenguajes como Basic y Pascal que son lenguajes de alto nivel, es un lenguaje de nivel medio ya que combina las propiedades de un lenguaje de alto nivel con la funcionalidad del lenguaje ensamblador.

Es esa misma característica la que le da a este lenguaje más potencia y dominio sobre los recursos del sistema. Entre una de las características más importantes de C está la portabilidad, esto es, un programa escrito en C se puede trasladar fácilmente entre distintos sistemas operativos como Windows, DOS o Linux.

A algunos estudiantes que se inician en el estudio de C la visión del lenguaje les causa miedo (lo digo por experiencia) porque C tiene fama de ser un lenguaje difícil, nada más lejos de la verdad. Una vez que se entiende cómo trabaja es fácil dominarlo, por algo C es el preferido de muchos programadores que lo consideran un lenguaje "elegante". Por no ser un lenguaje de alto nivel, C le relega al programador cierto grado de responsabilidad en el desarrollo de los programas.

Arriba

Ciclo de vida, algoritmos y diagrama de flujo

La resolución de problemas

La principal razón para aprender a programar y conocer los lenguajes de programación es utilizar la computadora como herramienta para solucionar problemas. La resolución de problemas se divide en tres fases:

Análisis del problema

El propósito de esta fase es ayudar al programador a comprender el problema. El problema debe estar bien definido si se desea llegar a una solución satisfactoria, para lo cual se requiere que las especificaciones de entrada y salida sean descritas con detalle.

Diseño del algoritmo

Una computadora solo puede solucionar problemas cuando se le proporcionan los pasos sucesivos a realizar, a estos pasos sucesivos que indican las instrucciones a realizar se les llama "algoritmos". Las fases para realizar el diseño del algoritmo son:

• Diseño descendente

• Refinamiento de pasos

• Uso de herramientas de programación: diagrama de flujo o pseudocódigo

Resolución del problema

Una vez que el algoritmo está diseñado y representado mediante una herramienta de programación (pseudocódigo o diagrama de flujo) se lleva a cabo la fase de la resolución del problema mediante la computadora, la cual se divide a su vez en las siguientes subfases:

1. Codificación del algoritmo, que consiste en utilizar un lenguaje de programación siguiendo las reglas gramaticales del mismo (sintaxis) para convertir el algoritmo en un programa

2. Ejecución del programa utilizando un compilador del lenguaje

3. Comprobación del programa

Algoritmo

Se denomina algoritmo al conjunto de instrucciones que especifican la secuencia de operaciones a realizar para resolver un problema especifico. Es decir, es un conjunto de pasos a seguir para llegar a cierto fin medible o comprobable.

Los algoritmos son independientes del lenguaje de programación y de la computadora que se vaya a emplear para ejecutarlo.

Todo algoritmo debe ser:

1. Preciso, es decir, indicar el orden en el que ha de realizarse cada paso

2. Definido, es decir, se debe obtener el mismo resultado cada vez que se ejecute con las mismas especificaciones de entrada

3. Finito, es decir, debe terminar en algún momento o debe tener un número finito de pasos

Diagrama de flujo

Técnica especializada para representar algoritmos mediante el uso de figuras, las cuales se unen mediante flechas denominadas líneas de flujo que indican el orden en que se deben ejecutar.

Arriba

Datos, constantes, variables, acumuladores, banderas y contadores

Tipos de datos

Las computadoras pueden trabajar con varios tipos de datos, los algoritmos y programas operan sobre estos. Existen dos clases de datos: datos simples y datos compuestos.

Los distintos tipos de datos se representan como un conjunto o secuencia de dígitos binarios (bits). Los lenguajes de programación de alto nivel nos permiten basarnos en abstracciones para no manejar los detalles de representación interna.

Los tipos de datos simples son: numéricos (enteros y reales), lógicos y caracteres.

Datos numéricos

Este tipo de datos se divide en enteros y reales.

Los enteros son aquellos números que no tienen componente fraccionario o decimal y dentro de la computadora son un subconjunto finito de los números enteros. Estos números pueden ser negativos o positivos y el rango es de –32,768 a 32,767.

El tipo de datos "real" son aquellos números que tienen una parte fraccionaria y pueden ser positivos y negativos dentro de la computadora forman un subconjunto de los números reales. Para representar números muy pequeños o muy grandes se emplea la notación de punto flotante, que es una generalización de la notación científica. En esta notación se considera al número real como mantisa y al exponente la potencia de 10 a la que se eleva este número.

Datos lógicos

Este tipo de dato es aquel que solo puede tomar uno de 2 valores: verdadero (true) o falso (false). En lenguaje C no existe el tipo lógico pero se puede implementar con un número entero conociendo que 0 es falso y cualquier número diferente de cero verdadero.

Caracteres

El dato tipo carácter puede tomar un valor de un conjunto finito y ordenado de caracteres o símbolos que la computadora reconoce (código ASCII). Este tipo de dato ocupa un byte y almacena un solo carácter.

Existe también el dato tipo cadena (compuesto) que es una sucesión de caracteres que se encuentran delimitados por comillas, la longitud de una cadena es el número de caracteres comprendidos entre los delimitadores.

Tipos de datos Descripción Memoria

Int Entero 2

...

Descargar como (para miembros actualizados)  txt (21 Kb)  
Leer 11 páginas más »
Disponible sólo en Clubensayos.com