La Complejidad Celular
Sagam22 de Julio de 2013
4.012 Palabras (17 Páginas)415 Visitas
EL PENSAMIENTO COMPLEJO :UNA INTRODUCCIÓN A LA COMPLEJIDAD CELULAR.
Francisco J.Bedoya
Revista Electrónica de la Asociación Andaluza de Filosofía.
D. L: CA-834/97.
ISSN 1138-3569
1. Posicionamiento de salida
• Introducción a la comunicación celular
• Redes de señalización en la célula
2. Más allá del reduccionismo en la ciencia
• ¿Qué es la complejidad?
• ¿Cómo se estudia? ¿Cuáles son los límites de las simulaciones de los fenómenos complejos mediante ordenador?
• ¿En qué teorías se basan los estudios sobre la complejidad?
• La tensión entre lo simple y lo complejo
3. Introducción al pensamiento complejo
• ¿Por qué aparece el pensamiento complejo?
• ¿Cuáles son las fuentes del pensamiento complejo?
Introducción a la comunicación celular
En el contexto social del organismo o de los tejidos que lo componen, las células interaccionan mediante la emisión y reconocimiento de señales. Estas interacciones implican la existencia de receptores que reconocen específicamente las diferentes señales externas a la célula y la generación de otras señales en el interior de la célula que conectan la información procedente del exterior con procesos como la extracción de energía del ambiente, el recambio de los componentes de la célula, su supervivencia ó muerte y su reproducción. El estudio de los sistemas que llevan a cabo la transmisión de señales desde el exterior celular al interior ha mostrado que se pueden dar fenómenos de convergencia o de divergencia y que por tanto, no existe un “cableado” específico que conecte cada señal extracelular con determinados procesos en el interior de la célula. Sino que, los mencionados “cables” están interconectados entre sí, de modo que la arquitectura en red de las comunicaciones dentro de la célula puede generar un modelo mucho más informativo de las propiedades de la célula que la conexión mediante vías independientes.
El abordaje analítico del estudio de la señalización celular tiene como objeto diseccionar cada una estas vías e identificar sus componentes. Dado que las vías de señalización intracelular forman redes en las que se procesan señales en paralelo con interacciones múltiples, se puede tener una imagen de este proceso utilizando modelos computacionales desarrollados para estudiar las conexiones en red de sistemas neuronales.
Redes de señalización en la célula.
La reproducción de la célula está conectada a señales extracelulares. Un modelo hipotético de esta red de señalización contiene receptores específicos para seis señales extracelulares y tres enzimas cuyas actividades están acopladas a la activación de esos receptores con diferentes características.
Los receptores reconocen dos tipos de señales extracelulares (estímulos, input)
Moléculas de la matriz (cemento) intercelular (A1,A2 y A3)
Factores de crecimiento (B1,B2 y B3))
A1 y A2 son dos señales que activan con diferente intensidad a la enzima 1.
A3 inhibe a la enzima 1 y a la enzima 2.
B1,B2 y B3 activan con diferente intensidad a la enzima 2
Por último, la enzima 3 es activada por las enzimas 1 y 2 y cataliza la fosforilación de una proteína que regula la expresión de genes de proteínas reguladoras de la proliferación celular.
En esta red la enzima 1 tiene actividad máxima cuando la célula detecta las moléculas A1 y A2 si A3 está ausente, mientras que la enzima 2 es activa cuando las moléculas B1, B2 y B3 están presentes y A3 está ausente. La enzima 3 será completamente activa y estimulará la proliferación celular cuando las enzimas 1 y 2 están activas simultáneamente y eso ocurre cuando la célula reconoce A1, A2, B1,B2,B3 y está ausente A3.
La complejidad en las vías de señalización deriva del número de elementos que la componen, de las conexiones entre los componentes y de la relación espacial entre ellos. Además, las redes de señalización en los sistemas biológicos tienen ramificaciones condicionales, ensamblaje dinámico, translocación, degradación, además de la compartimentalización y la regionalización de las interacciones en el interior de la célula. Cada una de estas actividades tienen lugar simultáneamente y cada componente participa en varias actividades diferentes.
Un abordaje para su estudio es comenzar con una visión conceptualmente simple de la señalización y añadir datos para introducir nuevos niveles de complejidad. De modo que la complejidad podrá ser estudiada por métodos computacionales en el momento en el que se identifiquen y parametricen los componentes de los sistemas.
MAS ALLA DEL REDUCCIONISMO EN LA CIENCIA
Actualmente, el advenimiento de la informática y de ciertas técnicas matemáticas no lineales ayuda a los científicos modernos a la comprensión de los fenómenos caóticos, complejos y emergentes. Se puede simular la realidad y crear modelos de sistemas complejos como grandes moléculas, sistemas caóticos, redes neuronales, el cuerpo y el cerebro humano ó el crecimiento demográfico. Además, su capacidad de cálculo permite procesar información demasiado compleja para la mente humana. A partir de conjuntos de instrucciones matemáticas, el ordenador puede elaborar modelos complicados y como los autómatas celulares de von Neumann, “Life” del matemático Conway o el conjunto de Mandelbrot que contiene los fractales, objetos matemáticos cuyas propiedades están presentes en fenómenos de la naturaleza.
Pero una cosa es observar que un fenómeno se ajusta a un modelo -por ejemplo, un patrón fractal en la naturaleza- y otra cosa distinta es determinar la causa de dicho patrón. Dicho con otras palabras, el hallazgo de que un conjunto de reglas matemáticas seguidas por un ordenador dan origen a patrones sumamente complicados no implica necesariamente que existan unas reglas simples que subyazcan a fenómenos del mundo que son complicados.
Los estudiosos de la complejidad y el caos afirman que las reglas simples que subyacen la naturaleza como la mecánica cuántica, la relatividad general, la selección natural o la genética mendeliana son insuficientes para explicar la complejidad.
¿Qué es la complejidad?
A comienzos de los 90 el físico Seth Lloyd recopiló 31 descripciones de complejidad que se inspiran en la termodinámica, la teoría de la información y la informática e incluye conceptos como la entropía, el azar y la información.
De todas ellas, la que parece que ha tenido mayor consenso entre los que estudian experimentalmente esta propiedad de los sistemas en la naturaleza es la de “Fenómenos al borde del caos” (Packard y Langton a finales de los años 80). Así, los expertos de la complejidad se intentan desmarcar del caos: éste es según Yorke una serie de fenómenos que evolucionan de una manera predeciblemente impredecible, demostrando sensibilidad hacia las condiciones, la conducta aperiódica y la recurrencia de ciertos patrones diferentes en la escala espacial y temporal. Por tanto, un sistema complejo se encuentra a caballo entre una conducta altamente periódica y otra caótica
Aunque los investigadores de la complejidad no se ponen de acuerdo en lo que están estudiando, sí coinciden en cómo deberían estudiarlo: con ordenadores.
Por ejemplo, Langton se ocupa de recrear la vida en el ordenador. Según él, el método científico clásico proporciona una comprensión limitida de los fenómenos que surgen merced a los accidentes históricos. Esto se puede superar mediante la combinación diferente de los componentes básicos de la vida para explorar lo que podría haber sucedido hipotéticamente o pudo suceder de hecho. Se puede simular informáticamente el principio de la vida modificando las condiciones y explorando las consecuencias. La vida artificial de Langton pretende estudiar qué aspectos de nuestra historia fueron inevitables y qué otros fueron contingentes. Esta simulación podía seguir considerándose vida, ya que ésta se caracteriza como conjunto de entidades capaces de comer, reproducirse y evolucionar más que por las cosas de las que están hechas.
¿Cuáles son los límites de las simulaciones de los fenómenos complejos mediante ordenador?
Esta cuestión ha sido abordada por un grupo multidisciplinario encabezado por la historiadora y geofísica Naomi Oreskes et al. En un trabajo publicado en Science en febrero de 1994 [3]. El argumento de los autores del artículo es que la verificación y validación de modelos numéricos de sistemas naturales es imposible. Ya que las propuestas que pueden verificarse son las que versan sobre la lógica ó la matemática. Estos sistemas son cerrados en cuanto que sus componentes se basan en axiomas que son verdaderos por definición pura. Los sistemas naturales son abiertos y nuestro conocimiento es incompleto y aproximativo. Los datos son significantes cargados de conocimiento incompleto de un fenómeno natural. Estas inferencias y suposiciones se pueden justificar y a veces estimar la incertidumbre sobre la base de la experiencia. Pero el grado de validez de nuestras suposiciones no puede ser estimado nunca a priori. Incluso cuando una simulación remeda ó predice un fenómeno real, el modelo no está aún verificado. Un modelo, al igual que una novela, puede resonar con la naturaleza, pero no es una cosa real.
Los modelos
...