ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Compresion Y Seguridad


Enviado por   •  17 de Julio de 2015  •  7.596 Palabras (31 Páginas)  •  196 Visitas

Página 1 de 31

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA

UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA FUERZA ARMADA

UNEFA NÚCLEO MIRANDA- EXTENSIÓN OCUMARE DEL TUY

CARRERA: INGENIERÍA DE SISTEMA 901N1

TECNOLOGÌA DE REDES

SEGURIDAD Y COMPRESION

Autores:

Kervin Cortez C.I 21.282.519

Anerlyn Sanchez C.I 19783974

Julio Gómez C.I 19966159

Juan Martínez C.I 18388229

Tutor académico:

Darwin José

Ocumare del tuy, mayo 2015

INDICE

Introducción 3

Autenticación 4

Privacidad 5

Métodos de autenticación 6

Control de acceso de red 6

Compresión de datos 7

Encriptación de datos 10

Tipos de cifrado según sus algoritmos 10

Algoritmos de cifrado simétrico 12

Algoritmos de claves. 15

Sistema de seguridad 19

Configuración de Firewall de Windows 30

Conclusión 31

Referencia bibliográfica 32

INTRODUCCIÒN

En Venezuela y en el mundo entero, la utilización de sistemas informáticos y redes como Internet, se ha incrementado espectacularmente en los últimos años, al grado de convertirse en un elemento indispensable para el funcionamiento de entes públicos y privados, así como para el quehacer diario de muchas personas.

Esta nueva realidad trae consigo la aparición de una gran variedad de amenazas y riesgos, por lo que se necesita implantar medidas apropiadas de protección. Como ejemplo, se debe resguardar la confidencialidad y la integridad de la información que se almacena y procesa en las computadoras o que se transmite por las redes; se debe garantizar la autenticidad de los datos y de los mensajes digitales; se debe verificar correctamente la identidad de los usuarios que ingresan a los sistemas; se deben defender los activos informáticos contra violaciones a la seguridad por parte de los propios empleados internos y ataques de hackers externos.

Por todas estas razones hoy día existe una gran necesidad de personal altamente capacitado en el campo de la Seguridad en Tecnología Informática y Telecomunicaciones (STIT).

Seguridad de tecnologías de la información es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida o circulante.

Autenticación:

La autenticación es el acto o proceso para el establecimiento o confirmación de algo (o alguien) como real. La autenticación de un objeto puede significar (pensar) la confirmación de su procedencia, mientras que la autenticación de una persona a menudo consiste en verificar su identidad. Todo ello en función de uno o varios factores.

Autenticación, autentificación (no recomendado) o mejor dicho acreditación, en términos de seguridad de redes de datos, se puede considerar uno de los tres pasos fundamentales (AAA). Cada uno de ellos es, de forma ordenada:

Autenticación. En la seguridad de ordenador, la autenticación es el proceso de intento de verificar la identidad digital del remitente de una comunicación como una petición para conectarse. El remitente siendo autenticado puede ser una persona que usa un ordenador, un ordenador por sí mismo o un programa del ordenador. En un web de confianza, "autenticación" es un modo de asegurar que los usuarios son quien ellos dice que ellos son - que el usuario que intenta realizar funciones en un sistema es de hecho el usuario que tiene la autorización para hacer así.

Autorización. Proceso por el cual la red de datos autoriza al usuario identificado a acceder a determinados recursos de la misma.

Auditoría. Mediante la cual la red o sistemas asociados registran todos y cada uno de los accesos a los recursos que realiza el usuario autorizados o no.

El problema de la autorización a menudo, es idéntico a la de autenticación; muchos protocolos de seguridad extensamente adoptados estándar, regulaciones obligatorias, y hasta estatutos están basados en esta asunción. Sin embargo, el uso más exacto describe la autenticación como el proceso de verificar la identidad de una persona, mientras la autorización es el proceso de verificación que una persona conocida tiene la autoridad para realizar una cierta operación. La autenticación, por lo tanto, debe preceder la autorización. Para distinguir la autenticación de la autorización de término estrechamente relacionada.

Pasos a tener en cuenta para la privacidad de una red:

 Instalar un cortafuegos ayudara mucho evitando que un sujeto pueda entrar a nuestra computadora o bien que usen un troyano y quizá pueda robar información valiosa como tarjetas de crédito o claves, etc.

 Un antivirus que en lo posible también detecte spyware servirá mucho para evitar que nos manden troyanos o spyware que envié información confidencial aunque si tenemos un firewall es probable que este bloquee el troyano/spyware al tratar de conectarse.

 Un antispyware que ayuda a eliminar el spyware que entró a través de distintas páginas.

 Usar un explorador alternativo a Internet Explorer o bien mantenerlo actualizado completamente.

 Mantener actualizado nuestro sistema operativo es importante para evitar que a través de un fallo del mismo alguien se pueda apoderar de nuestra computadora y posteriormente de algo valioso.

 No entrar en páginas web sospechosas de robar contraseñas o de mandar virus/spyware al PC.

 Cuando envíen un correo electrónico a varios contactos utilicen el CCO 'correo oculto' para no mostrar los contactos y parezcan como privados.

 No realizar transacciones comerciales en páginas web no seguras, las seguras tienen una "s" después del http

Métodos de autenticación

Los métodos de autenticación están en función de lo que utilizan para la verificación y estos se dividen en tres categorías:

 Sistemas basados en algo conocido. Ejemplo, un password (Unix) o passphrase (PGP).

 Sistemas basados en algo poseído. Ejemplo, una tarjeta de identidad, una tarjeta inteligente (smartcard), dispositivo usb tipo epass token, Tarjeta de coordenadas, smartcard o dongle criptográfico.

 Sistemas basados en una característica física del usuario o un acto involuntario del mismo: Ejemplo, verificación de voz, de escritura, de huellas, de patrones oculares

Control de acceso a la red

Los equipos suelen formar parte de una red de equipos. Una red permite que los equipos conectados intercambien información. Los equipos conectados a la red pueden acceder a datos y demás recursos de otros equipos de la red. Las redes de equipos crean un entorno informático potente y sofisticado. Sin embargo, las redes complican la seguridad de los equipos.

Por ejemplo, dentro de una red de equipos, los sistemas individuales permiten el uso compartido de información. El acceso no autorizado es un riesgo de seguridad. Debido a que muchas personas tienen acceso a una red, el acceso no autorizado es más probable, especialmente como consecuencia de errores del usuario. Un mal uso de contraseñas también puede originar el acceso no autorizado

Compresión de datos

En ciencias de la computación la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio. Al acto de compresión de datos se denomina compresión, y al contrario descompresión.

El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el cociente entre la frecuencia de muestreo y la resolución. Por tanto, cuantos más bits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits.

La compresión es un caso particular de la codificación, cuya característica principal es que el código resultante tiene menor tamaño que el original.

La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE.

En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión:

Por un lado, algunos buscan series largas que luego codifican en formas más breves.

Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten.

Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior.

La codificación de los bytes pares es otro sencillo algoritmo de compresión muy fácil de entender.

A la hora de hablar de compresión hay que tener presentes dos conceptos:

• Redundancia: Datos que son repetitivos o previsibles

• Entropía: La información nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia.

La información que transmiten los datos puede ser de tres tipos:

• Redundante: información repetitiva o predecible.

• Irrelevante: información que no podemos apreciar y cuya eliminación por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16.000/20.000 Hz, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores.

• Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal.

Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información:

Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante).

Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante.

Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).

Diferencias entre compresión con y sin pérdida

El objetivo de la compresión es siempre reducir el tamaño de la información, intentando que esta reducción de tamaño no afecte al contenido. No obstante, la reducción de datos puede afectar o no a la calidad de la información:

Compresión sin pérdida: los datos antes y después de comprimirlos son exactos en la compresión sin pérdida. En el caso de la compresión sin pérdida una mayor compresión solo implica más tiempo de proceso. El bit rate siempre es variable en la compresión sin pérdida. Se utiliza principalmente en la compresión de texto.

Un algoritmo de compresión con pérdida puede eliminar datos para disminuir aún más el tamaño, con lo que reduce la calidad. En la compresión con pérdida el bit rate puede ser constante (CBR) o variable (VBR). Una vez realizada la compresión, no se puede obtener la señal original, aunque sí una aproximación cuya semejanza con la original dependerá del tipo de compresión. Este tipo de compresión se da principalmente en imágenes, vídeos y sonidos.

Además de estas funciones la compresión permite que los algoritmos usados para reducir las cadenas del código desechen información redundante de la imagen. Uno de los formatos que permite compensar esta pérdida es el JPG, que emplea técnicas que suavizan los bordes y áreas que tienen un color similar permitiendo que la falta de información sea invisible a simple vista. Este método permite un alto grado de compresión con pérdidas en la imagen que, muchas veces, sólo es visible mediante el zoom

Algoritmo de encriptación:

En criptografía, el cifrado es un procedimiento que utiliza un algoritmo de cifrado con cierta clave (clave de cifrado) transforma un mensaje, sin atender a su estructura lingüística o significado, de tal forma que sea incomprensible o, al menos, difícil de comprender a toda persona que no tenga la clave secreta (clave de descifrado) del algoritmo. Las claves de cifrado y de descifrado pueden ser iguales (criptografía simétrica) o no (criptografía asimétrica).

El juego de caracteres (alfabeto) usado en el mensaje sin cifrar puede no ser el mismo que el juego de caracteres que se usa en el mensaje cifrado.

A veces el texto cifrado se escribe en bloques de igual longitud. A estos bloques se les denomina grupos. Estos grupos proporcionaban una forma de verificación adicional, ya que el texto cifrado obtenido debía tener un número entero de grupos. Si al cifrar el texto plano no se tiene ese número entero de grupos, entonces se suele rellenar al final con ceros o con caracteres sin sentido.

Aunque el cifrado pueda volver secreto el contenido de un documento, es necesario complementarlo con otras técnicas criptográficas para poder comunicarse de manera segura. Puede ser necesario garantizar la integridad la autenticación de las partes, etcétera.

Tipos de cifrado según sus algoritmos

Según la forma en la que operan los algoritmos de cifrado o descifrado, es posible distinguir varios tipos:

Cifrado en flujo: En estos algoritmos el cifrado se realiza bit a bit. Están basados en la utilización de claves muy largas que son utilizadas tanto para cifrar como para descifrar. Estas claves pueden estar predeterminadas (libreta de un solo uso) o generarse usando un generador de claves pseudoaleatorias o RKG (acrónimo del inglés random key generator), que genera una secuencia binaria pseudoaleatoria a partir de una clave de inicialización K. A veces, en el cálculo de la clave pseudoaleatoria también interviene el mensaje cifrado hasta ese momento. Por otra parte, el cifrador propiamente dicho: habitualmente en este tipo de algoritmos hay que mantener en secreto tanto la clave como el cifrador.

Cifrado por bloques: En este tipo de algoritmos, el cifrado se realiza bloque a bloque. En primera instancia, se descompone el mensaje en bloques de la misma longitud. A continuación, cada bloque se va convirtiendo en un bloque del mensaje cifrado mediante una secuencia de operaciones.

Ejemplos típicos de operaciones realizadas para conseguir cada mensaje cifrado son la sustitución y la permutación (cifrado por transposición) de elementos.

Este tipo de algoritmos pueden ser tanto de clave simétrica como de clave asimétrica. Sin embargo, en la bibliografía suele haber confusión y es frecuente ver casos en que se refieren sólo a algoritmos de clave simétrica.

Algoritmos de cifrado simétrico

DES

El DES (Data Encription Standard o Estándar de Encriptación de Datos) es el nombre del documento FIPS (Federal Information Processing Standard) 46-1 del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de Estados Unidos. Fue publicado en 1977. En este documento se describe el DEA (Data Encription Algorithm o Algoritmo de Encriptación de Datos. Es el algoritmo de cifrado simétrico más estudiado, mejor conocido y más empleado del mundo.

El DEA (llamado con frecuencia DES) es un algoritmo de cifrado por bloques de 64 bits de tamaño. Emplea una clave de 56 bits durante la ejecución (se eliminan 8 bits de paridad del bloque de 64). El algoritmo fue diseñado para ser implementado en hardware. Cuando se utiliza en comunicaciones ambos participantes deben conocer la clave secreta (para intercambiarla se suelen emplear algoritmos de clave pública). El algoritmo se puede usar para encriptar y desencriptar mensajes, generar y verificar códigos de autentificación de mensajes (MAC) y para encriptación de un sólo usuario (p. ej para guardar un archivo en disco).

Aunque el DES era un algoritmo computacionalmente seguro, esto ha dejado de ser cierto, ya que con hardware específico es posible realizar ataques por fuerza bruta que descubran una clave en pocos días (ver referencia [EFF98]). El problema principal es que el tamaño de la clave (56 bits) es demasiado pequeño para la potencia de cálculo actual. De hecho, el DES dejó de ser el algoritmo empleado por el gobierno norteamericano en Noviembre de 1998 y de momento (hasta que el AES sea elegido), emplean el Triple DES.

Triple-DES

Consiste en encriptar tres veces una clave DES. Esto se puede hacer de varias maneras:

DES-EEE3: Tres encriptaciones DES con tres claves distintas.

DES-EDE3: Tres operaciones DES con la secuencia encriptar-desencriptar-encriptar con tres claves diferentes.

DES-EEE2 y DES-EDE2: Igual que los anteriores pero la primera y tercera operación emplean la misma clave.

Dependiendo del método elegido, el grado de seguridad varía; el método más seguro es el DES-EEE3.

AES

El AES (Advanced Encription Standard o Estándar Criptográfico Avanzado) es un algoritmo de cifrado por bloques destinado a reemplazar al DES como estándar.

En la actualidad se han aceptado 15 propuestas de estándar de las que saldrán 5 candidatos para una revisión más completa. El proceso no parece que vaya a terminar hasta pasado el año 2000.

RC2

El RC2 es un algoritmo de cifrado por bloques de clave de tamaño variable diseñado por Ron Rivest de RSA Data Security (la RC quiere decir Ron's Code o Rivest's Cipher).

El algoritmo trabaja con bloques de 64 bits y entre dos y tres veces más rápido que el DES en software. Se puede hacer más o menos seguro que el DES contra algoritmos de fuerza bruta eligiendo el tamaño de clave apropiadamente.

El algoritmo está diseñado para reemplazar al DES.

RC4

El RC4 es un algoritmo de cifrado de flujo diseñado por Ron Rivest para RSA Data Security. Es un algoritmo de tamaño de clave variable con operaciones a nivel de byte. Se basa en el uso de una permutación aleatoria y tiene un periodo estimado de más de 10100. Además, es un algoritmo de ejecución rápida en software.

El algoritmo se emplea para encriptación de ficheros y para encriptar la comunicación en protocolos como el SSL (TLS).

RC5

El RC5 es un algoritmo parametrizable con tamaño de bloque variable, tamaño de clave variable y número de rotaciones variable. Los valores más comunes de los parámetros son 64 o 128 bits para el tamaño de bloque, de 0 a 255 rotaciones y claves de 0 a 2048 bits. Fue diseñado en 1994 por Ron Rivest.

El RC5 tiene 3 rutinas: expansión de la clave, encriptación y desencriptación. En la primera rutina la clave proporcionada por el usuario se expande para llenar una tabla de claves cuyo tamaño depende del número de rotaciones. La tabla se emplea en la encriptación y desencriptación. Para la encriptación sólo se emplean tres operaciones: suma de enteros, o-exclusiva de bits y rotación de variables.

La mezcla de rotaciones dependientes de los datos y de distintas operaciones lo hace resistente al criptoanálisis lineal y diferencial. El algoritmo RC5 es fácil de implementar y analizar y, de momento, se considera que es seguro.

IDEA

El IDEA (International Data Encription Algorithm) es un algoritmo de cifrado por bloques de 64 bits iterativo. La clave es de 128 bits. La encriptación precisa 8 rotaciones complejas. El algoritmo funciona de la misma forma para encriptar que para desencriptar (excepto en el cálculo de las subclaves). El algoritmo es fácilmente implementable en hardware y software, aunque algunas de las operaciones que realiza no son eficientes en software, por lo que su eficiencia es similar a la del DES.

El algoritmo es considerado inmune al criptoanálisis diferencial y no se conocen ataques por criptoanálisis lineal ni debilidades algebraicas. La única debilidad conocida es un conjunto de 251 claves débiles, pero dado que el algoritmo tiene 2 128 claves posibles no se considera un problema serio.

SAFER

El SAFER (Secure And Fast Encription Routine) es un algoritmo de cifrado por bloques no propietario. Está orientado a bytes y emplea un tamaño de bloque de 64 bits y claves de 64 (SAFER K-64) o 128 bits (SAFER K-128). Tiene un número variable de rotaciones, pero es recomendable emplear como mínimo 6.

El algoritmo original fue considerado inmune al criptoanálisis lineal y diferencial, pero Knudsen descubrió una debilidad en el generador de claves y el algoritmo fue modificado (SAFER SK-64 y SAFER SK-128).

Blowfish

Es un algoritmo de cifrado por bloques de 64 bits desarrollado por Scheiner. Es un algoritmo de tipo Feistel y cada rotación consiste en una permutación que depende de la clave y una sustitución que depende de la clave y los datos. Todas las operaciones se basan en o-exclusivas sobre palabras de 32 bits. La clave tiene tamaño variable (con un máximo de 448 bits) y se emplea para generar varios vectores de subclaves.

Este algoritmo se diseño para máquinas de 32 bits y es considerablemente más rápido que el DES.

Algoritmos de clave pública

RSA

El RSA, llamado así por las siglas de sus creadores (Rivest, Shamir y Adelman), es el algoritmo de clave pública más popular. El algoritmo se puede usar para encriptar comunicaciones, firmas digitales e intercambio de claves.

La clave es de tamaño variable, generalmente se usan claves entre 512 y 2048 bits. Las claves más grandes aumentan la seguridad del algoritmo pero disminuyen su eficiencia y generan más texto cifrado. Los bloques de texto en claro pueden ser de cualquier tamaño, siempre que sea menor que la longitud de la clave. Los bloques de texto cifrado generados son del tamaño de la clave.

La clave pública del algoritmo tiene la forma (e, n), donde e es el exponente y n el módulo. La longitud de la clave es igual al número de bits de n. El módulo se obtiene multiplicando dos números primos grandes, p y q. Los números se seleccionan aleatoriamente y se guardan en secreto. La clave privada tiene la forma (d, n), donde d es el producto inverso de e modulo (p-1)(q-1) (es decir, (ed - 1) es divisible por (p-1)(q-1)).

El cálculo de d a partir de p y q es sencillo, pero es computacionalmente imposible calcular d sin conocer p y q para valores grandes de n, ya que obtener sus valores es equivalente a factorizar n, que es un problema intratable computacionalmente.

El funcionamiento del algoritmo es como sigue:

Encriptación.Para encriptar un mensaje un usuario calcula c=me modulo n, donde m es el texto en claro, c es el texto cifrado y (e, n) es la clave pública del destinatario.

Desencriptación. Para desencriptar el mensaje el destinatario calcula cd modulo n = (me)d modulo n = med modulo n = m, donde (d, n) es la clave privada del destinatario. Hay que indicar que la última sustitución es posible por el modo en que hemos escogido los números, ya que d es el producto inverso de e modulo n, por lo que med= m.

Firmado. Si el emisor desea enviar el mensaje firmado usa su clave privada para calcular c=md modulo n y el destinatario lo valida calculando ce modulo n = (md)e modulo n = mde modulo n = m, donde (e, n) es la clave pública del emisor.

El algoritmo es lento, ya que emplea operaciones matemáticas que tienen un coste elevado y trabaja con claves de gran tamaño. Parte del problema está en la elección del exponente e, ya que un exponente de 512 bits escogido aleatoriamente precisa 768 multiplicaciones en promedio. Para solucionarlo se suelen escoger los valores 3 ó 65537, que precisan 3 y 17 multiplicaciones respectivamente. La elección de un exponente fijo no disminuye la seguridad del algoritmo si se emplean esquemas de criptografía de clave pública adecuados, como por ejemplo el relleno de mensajes con bits aleatorios.

Adicionalmente, el uso de exponentes fijos hace que la encriptación sea más rápida que la desencriptación y la verificación más rápida que la firma. Esta última característica es incluso deseable, ya que un usuario firma una vez un mensaje pero es posible que la firma se valide muchas veces.

Comparado con los sistemas de cifrado simétrico como el DES, el algoritmo de RSA es 100 veces más lento en software y de 1000 a 10000 veces más lento en hardware.

Diffie-Hellman

El algoritmo de Diffie Hellman es un algoritmo de clave pública que permite el intercambio seguro de un secreto compartido. Generalmente se emplea junto con algoritmos de cifrado simétrico, como método para acordar una clave secreta. El algoritmo no se puede usar para encriptar conversaciones o firmas digitales.

El funcionamiento del algoritmo es como sigue:

El emisor escoge un número primo grande p y un generador g (g<p) y se los envía al destinatario. A continuación escoge un número grande dA como clave privada y calcula la clave pública correspondiente eA = gdA modulo p.

De modo similar, el destinatario escoge una clave privada dB y una clave privada eB = gdB modulo p.

Ambos participantes intercambian sus claves públicas y calculan un secreto compartido. El del emisor será sA = eBdA = (gdB)dA = gdBdA modulo p. Y el del destinatario sB = eAdB = (gdA)dB = gdAdB= gdBdA modulo p.

Con este sistema, aunque un tercero interceptara los números p y g y las claves públicas eA y eB, no podría calcular el secreto compartido sin tener una de las claves privadas, lo que equivale a calcular el logaritmo discreto de una de las claves públicas, que es un problema intratable computacionalmente.

El problema fundamental de este algoritmo es que es sensible a ataques activos del tipo hombre en el medio. Si la comunicación es interceptada por un tercero, este se puede hacer pasar por el emisor cara al destinatario y viceversa, ya que no disponemos de ningún mecanismo para validar la identidad de los participantes en la comunicación. Así, el hombre en el medio podría acordar una clave con cada participante y retransmitir los datos entre ellos, escuchando la conversación en ambos sentidos.

Sistema de seguridad:

Es la capacidad del sistema para proteger datos, servicios y recursos de usuarios no autorizados. El fin de la seguridad es garantizar la protección o estar libre de todo peligro y/o daño, y que en cierta manera es infalible. Como esta característica, particularizando para el caso de sistemas operativos o redes de computadores, es muy difícil de conseguir (según la mayoría de expertos, imposible), se suaviza la definición de seguridad y se pasa a hablar de fiabilidad (probabilidad de que un sistema se comporte tal y como se espera de el) más que de seguridad; por tanto, se habla de sistemas fiables en lugar de hacerlo de sistemas seguros. A grandes rasgos se entiende que mantener un sistema seguro (o fiable) consiste básicamente en garantizar tres aspectos: confidencialidad, integridad y disponibilidad. Algunos estudios integran la seguridad dentro de una propiedad más general de los sistemas, la confiabilidad, entendida como el nivel de calidad del servicio ofrecido. Consideran la disponibilidad como un aspecto al mismo nivel que la seguridad y no como parte de ella, por lo que dividen esta última en sólo las dos facetas restantes, confidencialidad e integridad. En este trabajo no seguiremos esa corriente por considerarla minoritaria.

· La confidencialidad: Nos dice que los objetos de un sistema han de ser accedidos únicamente por elementos autorizados a ello, y que esos elementos autorizados no van a convertir esa información en disponible para otras entidades.

· La integridad: Significa que los objetos sólo pueden ser modificados por elementos autorizados, y de una manera controlada.

· La disponibilidad: Indica que los objetos del sistema tienen que permanecer accesibles a elementos autorizados; es el contrario de la negación de servicio. Generalmente tienen que existir los tres aspectos descritos para que haya seguridad: por ejemplo en un sistema Unix puede conseguir confidencialidad para un determinado fichero haciendo que ningún usuario (ni siquiera el root) pueda leerlo, pero este mecanismo no proporciona disponibilidad alguna. Dependiendo del entorno en que un sistema Unix trabaje, a sus responsables les interesara dar prioridad a un cierto aspecto de la seguridad. Por ejemplo, en un sistema militar se antepondría la confidencialidad de los datos almacenados o transmitidos sobre su disponibilidad: seguramente, es preferible que alguien borre información confidencial (que se podría recuperar después desde una cinta de backup) a que ese mismo atacante pueda leerla, o a que esa información esté disponible en un instante dado para los usuarios autorizados. En cambio, en un servidor NFS de un departamento se premiará la disponibilidad frente a la confidencialidad: importa poco que un atacante lea una unidad, pero que esa misma unidad no sea leída por usuarios autorizados va a suponer una pérdida de tiempo y dinero. En un entorno bancario, la faceta que mas ha de preocupar a los responsables del sistema es la integridad de los datos, frente a su disponibilidad o su confidencialidad: Es menos grave que un usuario consiga leer el saldo de otro que el hecho de que ese usuario pueda modificarlo.

Dentro del campo de la protección de la información podemos destacar tres grandes problemas, además comunes, que intervienen en nuestros sistemas y perturban nuestra información, primero encontramos a los HACKER que son usuarios muy avanzados que por su elevado nivel de conocimientos técnicos son capaces de superar determinadas medidas de protección. Su motivación abarca desde el espionaje industrial hasta el mero desafío personal. También Los virus informáticos son programas, generalmente destructivos, que se introducen en el ordenador (al leer un disco o acceder a una red informática) y pueden provocar pérdida de la información (programas y datos) almacenada en el disco duro. Para evitar problemas en caso de apagón eléctrico existen las denominadas UPS (acrónimo de UninterruptedPowerSupply), baterías que permiten mantener el sistema informático en funcionamiento, por lo menos el tiempo necesario para apagarlo sin pérdida de datos.

MEDIDAS DE SEGURIDAD •

Una alternativa es el uso de una llave pública y una privada mediante el protocolo de seguridad Securet Socket Layer (SSL) que autentifica tanto al usuario que envía como al que recibe la información, porque es durante este proceso de transmisión que ocurren la mayor parte de las violaciones en la seguridad. • Una técnica para proteger la confidencialidad es el cifrado. La información puede cifrarse y descifrarse empleando ecuaciones matemáticas y un código secreto denominado clave. Generalmente se emplean dos claves, una para codificar la información y otra para descodificarla. La clave que codifica la información, llamada clave privada, sólo es conocida por el emisor. La clave que descodifica los datos, llamada clave pública, puede ser conocida por varios receptores. Ambas claves se modifican periódicamente, lo que complica todavía más el acceso no autorizado y hace muy difícil descodificar o falsificar la información cifrada. Estas técnicas son imprescindibles si se pretende transmitir información confidencial a través de un medio no seguro como puede ser Internet. Las técnicas de firma electrónica permiten autentificar los datos enviados de forma que se pueda garantizar la procedencia de los mismos (imprescindible, por ejemplo, a la hora de enviar una orden de pago).

LA COMPUTACIÓN GRID

La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una importante revolución.

El término grid se refiere a una infraestructura que permite la integración y el uso colectivo de ordenadores de alto rendimiento, redes y bases de datos que son propiedad y están administrados por diferentes instituciones. Puesto que la colaboración entre instituciones envuelve un intercambio de datos, o de tiempo de computación, el propósito del grid es facilitar la integración de recursos computacionales. Universidades, laboratorios de investigación o empresas se asocian para formar grid para lo cual utilizan algún tipo de software que implemente este concepto.

Llamamos grid al sistema de computación distribuido que permite compartir recursos no centrados geográficamente para resolver problemas de gran escala. Los recursos compartidos pueden ser ordenadores (PC, estaciones de trabajo, supercomputadoras, PDA, portátiles, móviles, etc), software, datos e información, instrumentos especiales (radio, telescopios, etc.) o personas/colaboradores.

La computación grid ofrece muchas ventajas frente a otras tecnologías alternativas. La potencia que ofrecen multitud de computadores conectados en red usando grid es prácticamente ilimitada, además de que ofrece una perfecta integración de sistemas y dispositivos heterogéneos, por lo que las conexiones entre diferentes máquinas no generarán ningún problema. Se trata de una solución altamente escalable, potente y flexible, ya que evitarán problemas de falta de recursos (cuellos de botella) y nunca queda obsoleta, debido a la posibilidad de modificar el número y características de sus componentes.

Estos recursos se distribuyen en la red de forma transparente pero guardando unas pautas de seguridad y políticas de gestión de carácter tanto técnico como económico. Así pues, su objetivo será el de compartir una serie de recursos en la red de manera uniforme, segura, transparente, eficiente y fiable, ofreciendo un único punto de acceso a un conjunto de recursos distribuidos geográficamente en diferentes dominios de administración. Esto nos puede llevar a pensar que la computación Grid permite la creación de empresas virtuales. Es importante saber que una grid es un conjunto de maquinas distribuidas que ayudan a mejorar el trabajo sobre software pesados

CARACTERISTICAS

o Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite;

o Alta disponibilidad. con la nueva funcionalidad, si un servidor falla, se reasignan los servicios en los servidores restantes;

o Reducción de costes: con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y podremos hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón;

Se relaciona el concepto de grid con la nueva generación del protocolo IP. El nuevo protocolo de Internet IPv6 permitirá trabajar con una Internet más rápida y accesible. Una de las ideas clave en la superación de las limitaciones actuales de Internet IPv4 es la aparición de nuevos niveles de servicio que harán uso de la nueva capacidad de la red para intercomunicar los ordenadores.

Este avance en la comunicación permitirá el avance de las ideas de grid computing al utilizar como soporte la altísima conectividad de Internet. Es por ello que uno de los campos de mayor innovación en el uso del grid computing, fuera de los conceptos de supercomputación, es el desarrollo de un estándar para definir los Grid Services frente a los actuales Web Services.

Desventajas

No obstante, la computación grid presenta algunos inconvenientes que deben solucionarse. Estos problemas son:

• Recursos heterogéneos: la computación grid debe ser capaz de poder manejar cualquier tipo de recurso que maneje el sistema, si no resultará totalmente inútil.

• Descubrimiento, selección, reserva, asignación, gestión y monitorización de recursos son procesos que deben controlarse externamente y que influyen en el funcionamiento del grid.

• Necesidad de desarrollo de aplicaciones para manejar el grid, así como desarrollo de modelos eficientes de uso.

• Comunicación lenta y no uniforme.

• Organizativos: dominios de administración, modelo de explotación y costes, política de seguridad...

• Económicos: precio de los recursos, oferta/demanda

Ventajas y requisitos

En definitiva, grid supone un avance respecto a la World Wide Web:

El World Wide Web proporciona un acceso transparente a información que está almacenada en millones de ordenadores repartidos por todo el mundo. Frente a ello, el grid es una infraestructura nueva que proporciona acceso transparente a potencia de cálculo y capacidad de almacenamiento distribuida por una organización o por todo el mundo.

Los requisitos que debe cumplir cualquier grid son:

Los datos deben compartirse entre miles de usuarios con intereses distintos. Se deben enlazar los centros principales de supercomputación, no sólo los PC. Se debe asegurar que los datos sean accesibles en cualquier lugar y en cualquier momento. Debe armonizar las distintas políticas de gestión de muchos centros diferentes. Debe proporcionar seguridad.

Y los beneficios que se obtienen:

• Proporciona un mecanismo de colaboración transparente entre grupos dispersos, tanto científicos como comerciales.

• Posibilita el funcionamiento de aplicaciones a gran escala.

• Facilita el acceso a recursos distribuidos desde nuestros PC.

• Todos estos objetivos y beneficios se engloban en la idea de "e-Ciencia".

Estos beneficios tendrán repercusión en muchos campos:

• Medicina (imágenes, diagnosis y tratamiento).

• Bioinformática (estudios en genómica y proteómica).

• Nanotecnología (diseño de nuevos materiales a escala molecular).

• Ingeniería (diseño, simulación, análisis de fallos y acceso remoto a instrumentos de control).

• Recursos naturales y medio ambiente (previsión meteorológica, observación del planeta, modelos y predicción de sistemas complejos).

La tecnología derivada del grid abre un enorme abanico de posibilidades para el desarrollo de aplicaciones en muchos sectores. Por ejemplo: desarrollo científico y tecnológico, educación, sanidad, y administración pública.

NUEVAS TECNOLOGÍAS EN SISTEMAS DISTRIBUIDOS

IBM anunció una serie de productos de software que se “auto-reparan”. Estos productos son capaces de encontrar y resolver problemas en forma automática, para evitar caídas de sistemas antes de que ocasionen demoras en la operatoria basada en Internet, o la pérdida de valiosa información sobre los clientes. El software marca la próxima ola de tecnología autonómica auto-administrable de IBM, al entrar de lleno en el terreno de la reparación pro-activa de los problemas de tecnología informática.

El nuevo software de la división Tivoli de IBM es capaz de identificar y luego llegar al lugar del problema para resolverlo. Por ejemplo, puede reparar cuellos de botella o logjams de Internet, y devolver los sistemas al estado operativo en línea después de producirse un corte de electricidad. Con este recurso, se elimina la engorrosa tarea de encontrar y reparar contratiempos que naturalmente ocurren en sistemas informáticos complicados y entrelazados, para que las empresas de todo tipo –desde minoristas de mediano porte hasta compañías de seguros multinacionales- puedan administrar en forma segura y completa sus aplicaciones en línea. En modo análogo al sistema nervioso autónomo del organismo, capaz de reparar un hueso quebrado sin intervención del pensamiento consciente, el nuevo software de reparación autónoma de IBM se hace cargo de las desaceleraciones y las interrupciones de servicio, evitando que los consumidores que visitan un sitio se frustren con la espera y decidan pasar al sitio de la competencia, por ejemplo.

La tarea de resolución de problemas relacionados con caídas e interrupciones de sistemas puede llevar horas o incluso días a los equipos de especialistas de TI, pues requiere revisar los registros de error para rastrear los problemas, paso por paso, hasta encontrar el punto de falla. De hecho, la firma de analistas Enterprise Management Associates estima que determinar la causa de un problema puede llevar entre el 50 y el 80% del tiempo del personal de TI, mientras que el tiempo dedicado a su reparación es el 15 a 20% restante.

La iniciativa de computación autonómica de IBM, que abarca múltiples industrias y fue lanzada en 2001, durante los últimos cuatro años ha logrado simplificar radicalmente la gestión de la tecnología informática y su infraestructura subyacente, al automatizar los procesos e incorporar la inteligencia a los sistemas en sí, ayudando a movilizar a las empresas hacia ambientes de autogestión. IBM ha construido el portafolio más amplio de productos, servicios y soluciones habilitados para la modalidad autonómica, con más de 475 características de autogestión en 75 productos IBM distintos.

“La era de la tecnología auto-reparable ha llegado – comentó Alan Ganek, Chief Technology Officer de la División de Software Tivoli de IBM y Vicepresidente de Computación Autonómica de IBM. –Estos nuevos productos de IBM permiten a las empresas detectar y corregir los problemas de TI en forma automática (y detrás de escena) para que puedan enfocarse en los proyectos estratégicos que son valiosos para su negocio. Estamos abriendo nuevas puertas para reducir la complejidad de la tecnología.”

Los nuevos productos auto-reparables de IBM son:

• IBM Tivoli Monitoring – Permite a las empresas manejar aplicaciones en línea, tales como e-mail o sistemas de pago de facturas, mediante la corrección anticipada de los problemas de servicios informáticos, tales como aplicaciones “colgadas”, y la resolución de los problemas en los servidores, sistemas operativos y bases de datos de una empresa antes de que impacten en los usuarios. El software detecta la necesidad de procedimientos específicos, tales como agregar servidores adicionales cuando se acerca la sobrecarga de capacidad, automatizando la forma en que se corrigen los problemas comunes. Además, el software proporciona encriptado de seguridad para servicios en toda la empresa, lo cual asegura que los datos que pasan por la tecnología de monitoreo, tales como contraseñas y claves, estén protegidos. Este software que se auto-repara fue probado durante los últimos siete meses por casi 100 organizaciones, con lo cual se convirtió en el programa beta más grande de la historia de Tivoli. Tivoli Monitoring de IBM ya está disponible.

• IBM Tivoli Composite Application Manager – acelera el acceso a la información en Internet (desde reservar un paquete para vacaciones a realizar investigación antes de comprar un auto) al predecir y arreglar cuellos de botella que surgen a medida que docenas de sistemas diferentes se conectan bajo una Arquitectura Orientada a Servicios (SOA). El software auto-reparable puede ubicar dónde están los problemas, identificar la causa específica y tomar medidas para resolverlos, todo antes de que los clientes se vean afectados. Los productos IBM Tivoli Composite Application Manager for SOA, IBM Tivoli Composite Application Manager for WebSphere y IBM Tivoli Composite Application Manager for Response Time Tracking ya están disponibles.

• Tivoli System Automation for Multiplatforms – puede señalar el estado de aplicaciones complejas que se ejecutan en múltiples plataformas y sistemas operativos, y usar instrucciones predefinidas, o políticas, para que las aplicaciones vuelvan a estar en línea en forma automática si el sistema falla por un corte de energía o por otra causa. Por ejemplo, una aplicación compleja de un banco para transferir fondos entre cuentas puede ejecutarse en un sistema Linux y estar conectada a una base de datos en un sistema mainframe. El software auto-reparable de IBM devuelve todo el entorno complejo de aplicación y base de datos en línea si se produce un corte de energía, evitándole a la empresa perder datos de negocio y de clientes. Anteriormente, el personal de TI debía encontrar dónde se había producido el corte y reiniciar manualmente la aplicación o la base de datos para reanudar las operaciones. Tivoli System Automation ya está disponible.

El nuevo software se enmarca en la iniciativa IT Service Management de IBM, dedicada a automatizar e integrar procesos de tecnología informática en toda la empresa. El software podrá adquirirse directamente en IBM y a través de sus asociados de negocio.

Configuración de Firewall de Windows

Un firewall puede ayudar a impedir que hackers o software malintencionado (como gusanos) obtengan acceso al equipo a través de una red o de Internet. Un firewall también puede ayudar a impedir que el equipo envíe software malintencionado a otros equipos.

Puede personalizar cuatro opciones de configuración para cada tipo de ubicación de red en Firewall de Windows. Para buscar estas opciones de configuración, siga estos pasos:

Para abrir Firewall de Windows, haga clic en el botón Inicio y, seguidamente, en Panel de control. En el cuadro de búsqueda, escriba firewall y, a continuación, haga clic en Firewall de Windows.

En el panel izquierdo, haga clic en Activar o desactivar Firewall de Windows. Si se le solicita una contraseña de administrador o una confirmación, escriba la contraseña o proporcione la confirmación

CONCLUSIÒN

Este trabajo ligeramente, aborda algunos aspectos acerca de las seguridad y compresión Informáticas, con el fin de contribuir, como material de consulta, para aquellas personas que deseen adentrarse en el mundo de la tecnología computacional, están vienen contribuyendo un material muy necesario.

Entonces bien en el amplio mundo de la red informática existen numerosa ventajas sobre la accesibilidad que se tiene para encontrar información y datos de algo en especifico, esto podría verse comprometido por algún factor riesgo y podría ser penetrado en este caso las los datos de las personas o la información debe estar resguardadas en sistemas de seguridad de aquí hablamos lo que es la encriptación de datos, los firewall (cortafuego) y entre otros tipos de sistemas de seguridad.

Cabe destacar que los datos de una persona subida a la nube siempre será expuesta por amenazas por esa razón, las corporaciones, empresas, instituciones tienen que contar obligatoriamente con un sistemas de seguridad, para cuidar y mantener a salvos estos datos y no perder la credibilidad ya que es de importante relevancia tener estos sistema a disposición

Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quien y cuando se puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización a organización. Independientemente, cualquier compañía con una red debe de tener una política de seguridad que se dirija a conveniencia y coordinación

REFERENCIA BIBLIOGRAFICA:

https://www.exabyteinformatica.com/uoc/Dactiloscopia/Identidad_digital/Identidad_digital_(Modulo_1).pdf

http://lsub.org/who/esoriano/03.sec-auth.pdf

https://www.globalsign.es/autenticacion-seguridad-correoelectronico/

http://docs.oracle.com/cd/E24842_01/html/E23286/concept-4.html

http://mtorresunad.blogspot.com/2012/09/tipologia-de-redes.html

http://www.monografias.com/trabajos6/sein/sein.shtml

http://www.caverin.com/Ficheros%20de%20datos/Redes%20Inalambricas/Funk/White%20Papers/Aut-segura-Funk.pdf

http://sistemasdistribuidos11.blogspot.com/p/seguridad-y-nuevas-tecnologias-en-los.html

http://windows.microsoft.com/es-419/windows/understanding-firewall-settings#1TC=windows-7

...

Descargar como  txt (48.2 Kb)  
Leer 30 páginas más »
txt