31 agosto, 2011

, ,

Las bacterias ya eran resistentes a los antibióticos 30,000 años antes de que los usáramos

Los antibióticos fueron descubiertos hace más de 70 años por Alexander Fleming y desde entonces los hemos producido y usado día a día para curar la mayoría de nuestros males. Se sabe que el uso excesivo o inadecuado de los antibióticos genera una fuerte presión selectiva sobre las bacterias patógenas propiciando la aparición de cepas resistentes. Sin embargo, un grupo de investigadores canadienses han demostrado que la resistencia a los antibióticos es un fenómeno natural ancestral ya que se han encontrado genes de resistencia en muestras de hielo de 30,000 años de antigüedad según un artículo publicado en Nature.

antibiotic-resistance

Estudios recientes muestran que la concentración de genes de resistencia que hay en las bacterias que habitan nuestro cuerpo (ya sean comensales o patógenas) como en las bacterias de vida libre han aumentado durante los últimos años. Sin embargo, cuando se hacen análisis de ADN ambiental se encuentra una gran reserva de secuencias homólogas a los genes de resistencia conocidos, sugiriendo que la presencia de estos genes no es un fenómeno moderno sino que tiene una historia natural muy antigua, tal vez desde el momento en que se originaron los primeros antibióticos hace unos 40 a 2,000 millones de años.

Para determinar si los genes de resistencia actuales aparecieron debido al uso de los antibióticos o ya estaban presentes desde mucho más antes, un grupo de investigadores canadienses liderados por la Dra. Vanessa D’Costa y su colega Christine King de la Universidad McMaster, analizaron las secuencias de ADN presentes en un bloque de hielo extraído del norte de Canadá, cerca a la ciudad de Dawson, la cual permaneció inalterada por al menos unos 30,000 años (permafrost perteneciente al Pleistoceno tardío).

Antes de empezar con sus análisis, los investigadores corroboraron de que no hubo contaminación con bacterias modernas al momento de extraer el núcleo de hielo y que el ADN presente era en realidad ancestral. Luego, hicieron un análisis metagenómico —secuenciaron todo el ADN presente en la muestra, sin importar a que especie de bacteria correspondía— y encontraron genes de resistencia a la tetraciclina (TetM), a la vancomicina (VanX), a la penicilina (Bla), entre otros.

D’Costa et al. aislaron estos genes y los introdujeron en unas bacterias para analizar y comparar sus secuencias con los genes de resistencia modernos. Por ejemplo, las B-Lactamasas (Bla) tenían un alto grado de similaridad con las Bla modernas, lo mismo ocurrió con las TetM. En ambos casos, los genes de resistencia ancestrales se agrupaban con los genes de resistencia de los actinomicetos modernos. Pero, lo que les pareció más intrigante a los investigadores fue que la resistencia a la vancomicina ancestral tenía una estructura y una función similar a la versión moderna.

vancomicina-resistencia

Este descubrimiento se debe de tomar muy en cuenta ya que la vancomicina es un antibiótico usado como último recurso, cuando los demás antibióticos no funcionan. La resistencia a la vancomicina apareció a finales de los años 1980’s y se ha diseminado rápidamente a muchas otras bacterias patógenas. Esta resistencia se da gracias a la acción de un operón compuesto por tres genes: vanHvanAvanX (vanHAX), que en conjunto inhiben la acción del antibiótico y reactivan la síntesis de la pared celular bacteriana. El estudio mostró que la resistencia ancestral también estaba formada por este grupo de genes y la proteína vanA ancestral era estructuralmente similar a la vanA moderna.

Esto quiere decir que la aparición de cepas resistentes no sólo se debe a la presión selectiva ejercida por los antibióticos usados en la medicina moderna, sino que también hay un reservorio de genes de resistencia que ha estado rondando por el ambiente durante miles de años, los cuales aceleran los brotes de bacterias resistentes en diferentes partes del mundo. Esto nos enseña que las bacterias siempre nos llevan la delantera.


Referencia:

ResearchBlogging.orgD’Costa, V., King, C., Kalan, L., Morar, M., Sung, W., Schwarz, C., Froese, D., Zazula, G., Calmels, F., Debruyne, R., Golding, G., Poinar, H., & Wright, G. (2011). Antibiotic resistance is ancient Nature DOI: 10.1038/nature10388

, , ,

Scale—volviendo los tejidos transparentes

Uno de los retos más grandes dentro de las investigaciones biológicas es poder ver las células que conforman los tejidos internos de los animales entre tres dimensiones y con una resolución que hasta ahora sólo era obtenida con animaciones computarizadas. Un grupo de investigadores japoneses han desarrollado una novedosa solución acuosa llamada Scale que permite volver los tejidos en estructuras ópticamente transparentes, sin perder su forma ni función. Además, han usado esta sustancia para estudiar a fondo el cerebro de ratones a una escala subcelular y con una resolución sin precedentes. El artículo fue publicado ayer en Nature Neuroscience.

Sca/e

Una de las cosas más difíciles es observar la disposición estructural y la geometría que adoptan las células en los tejidos que forman órganos como el hígado, los riñones o el cerebro. Una de las formas de obtener imágenes tridimensionales es usando técnicas de tomografía por resonancia magnética, la cual carece de una resolución a nivel celular y subcelular. Otra forma es rebanando (seccionando) un determinado tejido en tajadas sumamente delgadas y observándolas bajo un microscopio electrónico. Si bien esta última técnica permite reconstruir la estructura tridimensional de un tejido, el proceso es sumamente laborioso y costoso —sólo se puede analizar una pequeña porción de un determinado tejido.

El seccionamiento óptico usando proteínas fluorescentes permite acelerar el proceso y reducir los costos. Sin embargo, su poder de penetración está limitado por la dispersión de la luz. Por ejemplo, la microscopia de escaneo láser confocal sólo tiene un poder de penetración de 150um, mientras que la microscopía de excitación de dos fotones puede alcanzar los 800um.

Si nos preguntamos cómo podríamos solucionar el problema de la dispersión de la luz la respuesta más lógica sería incrementando la transparencia de los tejidos, para que la luz pueda penetrar más distancia antes de refractarse. En el mercado existen sustancias que clarifican los tejidos, por ejemplo, el FocusClear® —muy costoso para grandes muestras. También existen otras más caseras como la sucrosa al 60% con PBS o el BABB (una mezcla de alcohol bencílico y benzoato bencílico), la cual es más usada por su facilidad y bajo costo. Sin embargo, estas técnicas pueden interferir y atenuar la fluorescencia o muchas veces no vuelven los tejidos lo suficientemente transparentes como para hacer buenos estudios tridimensionales.

Un grupo de investigadores japoneses liderados por el Dr. Hiroshi Hama desarrollaron una solución llamada Sca/e, la cual está compuesta por urea 4M, glicerol 10% y Triton X-100 0.1%. [Creo que estos insumos están presentes en cualquier laboratorio]. Hama y sus colaboradores probaron el Scale en embriones de ratones y obtuvieron la imagen ubicada al inicio de esta entrada.

Para probar si la fluorescencia era atenuada por la solución de Scale, los investigadores probaron la técnica de clarificación en una línea celular humana (HeLa). Los resultados mostraron que la fluorescencia no era atenuada. Una vez obtenidos estos resultados, probaron la técnica in vivo. Para ello usaron una línea de ratones transgénicos (YFP-H) con la capacidad de expresar la proteína amarilla fluorescente (YFP) en las neuronas. Usando el microscopio de excitación de dos fotones lograron hacer la reconstrucción tridimensional hasta una profundidad de 4mm!

imagenes-Scale

Pero, cuando se marcó fluorescentemente de manera exclusiva un cierto grupo de neuronas, el poder de penetración fue mucho mayor. Hama et al. marcaron los axones de las neuronas del corpus callosum, que es el encargado de comunicar ambos hemisferios del cerebro. Para ello usaron el Microscopio Macro Confocal AZ-C1 de NIkón y lograron obtener imágenes a una profundidad de 35mm.

Con esto queda demostrado los usos potenciales de esta técnica, sobre todo para revelar cómo se ensambla el sistema nervioso y como se forman las conexiones interneuronales —también conocido como el conectoma— en el cerebro. Por ejemplo, Hama y sus colaboradores usaron otra proteína fluorescente, esta vez roja, para estudiar la asociación de las vasos capilares con las células madre neuronales. También se usaron otras técnicas específicas de marcación fluorescente para observar otros arreglos neuronales en el cerebro. Las posibilidades de visualización son muchas.

Los investigadores desarrollaron también otras variantes del Scale, usando diferentes concentraciones de glicerol para reducir la expansión observada en los tejidos sometidos al Scale original. Por otro lado, usando urea más concentrada se lograba reducir el tiempo de clarificación de varias semanas y hasta meses, a tan sólo una semana. Además, la clarificación con Scale es reversible ya que bastaba con un lavado con PBS para restaurar la opacidad original del tejido.

Sin dudas, es un procedimiento sencillo y económico que ayudará a entender más a fondo el desarrollo y función del cerebro en los animales superiores. Además, Scale nos ayudará a ver cómo se organizan las neuronas y cómo interactúan entre ellas en el cerebro, sin la necesidad de seccionarlo. La conectómica ahora tiene un gran aliado.


Referencia:

ResearchBlogging.orgHama, H., Kurokawa, H., Kawano, H., Ando, R., Shimogori, T., Noda, H., Fukami, K., Sakaue-Sawano, A., & Miyawaki, A. (2011). Scale: a chemical approach for fluorescence imaging and reconstruction of transparent mouse brain Nature Neuroscience DOI: 10.1038/nn.2928

30 agosto, 2011

Cierre de la XXII Edición del Carnaval de la Física

logo_espanol1

Bueno, este mes fue de vacaciones veraniegas para muchos de mis co-bloguers del hemisferio norte, pero no por eso el Carnaval se detuvo, tuvimos un total de nueve contribuciones mostrando las aplicaciones de la física en los distintos instrumentos que usamos hoy en día, en las diferentes ramas de la ciencia; así como también, unas historias muy interesantes y poco conocidas por nosotros que de seguro los mantuvieron entretenidos un buen rato. Entonces, sin más preámbulos haremos un recuento de lo que fue esta XXII Edición del Carnaval de la Física.

La Física para estudiar el Universo

Sin dudas es la Astronomía una de las ramas de la ciencia que más se apoya en la Física. Seguro que hay muchas personas en el mundo que tienen su pequeño telescopio en casa y hay otras que se sienten motivados en comprar uno, pero lo más importante de un telescopio es saber cómo calcular su aumento máximo, ya que de él dependerá mucho su precio. Fran Sevilla desde Vega 0.0 nos da una explicación muy didáctica de cómo calcular el límite al que podemos llevar nuestro telescopio, tanto en aumentos como en resolución.

Otra forma de observar los planetas, satélites y asteroides es visitándolos. Esto fue precisamente lo que hizo la sonda Dawn, visitar el asteroide Vesta para analizar su superficie. En el mes de Julio, Dawn por fin entró en contacto con Vesta después de casi 4 años de viaje a través del Sistema Solar. Las imágenes captadas por Dawn son asombrosas y no hay mejor descripción que la hecha por Verónica Casanova en su blog Astrofísica y Física.

Pero, si queremos viajar a través del espacio, debemos estar seguros que las reservas alimenticias y líquidas nos duren lo suficiente como para llegar, por lo menos, a un planeta tan cercano como Marte. ¿Que pasaría si se agota el agua?. Bueno, en la última misión de los transbordadores de la NASA, se probó una nueva “tecnología” que consiste en usar la propia orina de los astronautas para obtener una bebida isotónica nutritiva. Pero, qué pasa en el caso de los alimentos sólidos… mejor no les cuento y les recomiendo leer el interesantísimo artículo de José M. López Nicolás en su blog Scientia.

Y para terminar con esta parte enfocada al Universo, regresaremos a nuestro planeta, con una bonita forma de sorprender a tus amigos calculando el diámetro de la Tierra usando tu reloj, pero esto no queda aquí, usando el mismo principio puedes calcular la distancia al horizonte en otros planetas. Gerardo Blanco en su blog Últimas noticias del Cosmos nos lo explica como.

La física para estudiar y curar el cuerpo

Todo nace a partir de la física nuclear y la producción de radioisótopos, ya sean en reactores nucleares o en ciclotrones. Sin dudas, muchos de nosotros creemos que las radiaciones ionizantes son malas, y en verdad lo son, pero si las podemos usar de manera controlada son capaces de diagnosticarnos enfermedades y curarnos del cáncer. Quien les habla, les mostró cómo se usan las radiaciones ionizantes para el diagnóstico y tratamiento de cánceres y tumores, que radionúclidos son los más usados y cómo se hace para mejorar la especificidad de acción y evitar que los tejidos sanos sean afectados, haciendo un viaje desde los inicios de la medicina nuclear. Esta fue la participación del blog anfitrión BioUnalm.

Pero, quien iba a pensar que usamos antimateria todos los días. Esa forma de materia tan exótica y extraña, que nos hace imaginar más a una película de ciencia ficción que la vida real. Una de las propiedades más importantes de la antimateria es que si se encuentra con una partícula similar de materia se aniquilan mutuamente liberando energía en forma de rayos gama. Esta energía puede ser detectada y usada para estudiar el cuerpo en tiempo real, pero ¿cómo?. Si quieres saberlo no puedes dejar de leer el interesante artículo de Cuentos Cuánticos.

La física donde no te la imaginabas

Quién no ha soñado de niño poder tener una capa de invisibilidad, o tal vez una pintura que al untártela te desaparezca por completo y así poder hacer travesuras sin que nadie se percate de ello. Pero lo que nos cuenta Daniel Martín Reina en su blog La Aventura de la Ciencia sin dudas dejará con la boca abierta a más de uno. De qué se trata, nada menos que de una capa de invisibilidad temporal… o sea, en vez de ocultar y desaparecer objetos, esta capa de invisibilidad oculta sucesos!

El principio de la incertidumbre nos dice de manera sencilla que a nivel atómico, los conceptos de la física clásica no se pueden emplear, sobre todo si pretendemos calcular de manera precisa la posición y el momento lineal de una partícula dada. Pero, este principio que se da a nivel cuántico puede ser aplicado a la veracidad de las noticias. Antonio Gregorio Montes en su blog Física e Química en Ribadeo nos los explica cómo.

Y para cerrar el carnaval, José M. López Nicolás de Scientia se hace presente nuevamente con una historia muy entretenida sobre una de las más grandes apuestas que ha tenido el mundo científico, entre nada menos que John Hampden y Alfred Wallace. La apuesta: demostrar que la Tierra era redonda o no. Wallace apostó a ganador —obviamente la Tierra era es redonda— pero esto le costó muy caro: una vida muy miserable entre difamaciones y disputas legales. Sin dudas una historia que no pueden dejar de leer.

Resumen de entradas participantes:

Cuentos Cuánticos – “Cuando la antimateria se vuelve útil

SCIENTIA – “La gran apuesta científica de la historia

La aventura de la ciencia – “Una capa de invisibilidad temporal

Física e Química en Ribadeo – “Una nueva aplicación de la física: El principio de incertidumbre de las noticias

Astrofísica y Física – “Primeros resultados de la misión Dawn. ¿Qué podemos aprender de las fotografías de Vesta?

SCIENTIA – “Lo que escondía el Atlantis: bebidas de “pis” y hamburguesas de “mierda”

Vega 6.0 – “¿Cuántos aumentos puedo usar en mi telescopio?

Noticias del Cosmos – “Calcule el radio de la Tierra con su reloj

BioUnalm – “Cuando las radiaciones ionizantes combaten el cáncer en vez de generarlo

Y de esta manera la XXII Edición del Carnaval de la Física llega a su fin. Fue un placer haber sido el anfitrión de esta edición, la verdad me entretuve y aprendí mucho leyendo sus entradas, ahora espero que voten por su favorita hasta el día 12 de Septiembre. La elección será muy difícil por la calidad de entradas que tuvimos. Y sin nada más que decir, nos despedimos hasta otra oportunidad cediendo la posta de la XXIII Edición al interesantísimo blog Astrofísica y física.

29 agosto, 2011

, ,

Muerte desde el aire—las estrategias de oviposición de las avispas parásitas [Video]

Con un miserable tamaño de dos milímetros, tres géneros de la pequeña tribu de avispas Neonurini (Elasmosoma, Kollasmosoma y Neoneurus) son el terror de las hormigas. Y no es para menos, estas avispas usan a las pobres hormigas como nidos vivientes para sus huevecillos, a pesar que cuentan con buenos mecanismos de defensa. Una vez que los huevos eclosionan, las larvas de se alimentan de las entrañas de las hormigas y empiezan a desarrollarse.

Sin embargo, no se sabe exactamente cómo se da el proceso, cómo hacen las avispas para depositar los huevos tan eficientemente o en qué lugar de la hormiga lo hacen preferentemente. Para responder a estas preguntas José-María Gómez Durán y Cornelis van Achterberg del Centro de Biodiversidad de Holanda Naturalis observaron y filmaron la estrategia usada por cuatro especies de avispas parásitas, dos de ellas nuevas para la ciencia (Neoneurus vesculus sp. n. y Kollasmosoma sentum sp. n.). He aquí los videos:

Avispa parasitoide (Hybrizon buccatus) depositando sus huevos en la hormiga (Lasius grandis)

Avispa parasitoide (Elasmosoma luxemburgense) depositando sus huevos en la hormiga (Formica rufibarbis)

Avispa parasitoide (Neoneurus vesculus) depositando sus huevos en la hormiga (Formica cunicularia)

Avispa parasitoide (Kollasmosoma sentum) depositando sus huevos en la hormiga (Cataglyphis ibericus)

Un bonito artículo para los entomólogos y los amantes de los insectos que es de acceso abierto, una buena descripción de cada una de las estrategias e imágenes de buena calidad.


Referencia:

Durán JMG, van Achterberg C (2011) Oviposition behaviour of four ant parasitoids (Hymenoptera, Braconidae, Euphorinae, Neoneurini and Ichneumonidae, Hybrizontinae), with the description of three new European species. ZooKeys 125: 59-106. doi:10.3897/zookeys.125.1754

,

Reconocemos a los animales con la amígdala derecha

La amígdala es una región importante del cerebro encargada de procesar las emociones; sin embargo, no se sabe si sólo reconoce y responde determinadas categorías de estímulos. En un artículo publicado en Nature Neuroscience, un grupo de científicos liderados por el Dr. Florian Mormann del Instituto Tecnológico de California (CalTech) encontraron que la amígdala derecha responde principalmente ante las imágenes de animales, algo que podría tener una connotación evolutiva importante.

nmr-animal

La amígdala se encuentran ubicada en los lóbulos temporales del cerebro de todos los vertebrados complejos y su función principal es el procesamiento y almacenamiento de las reacciones emocionales, tanto buenas como malas, entre ellas el miedo y las situaciones inesperadas. Sin embargo, no se sabe exactamente a que categorías o dimensiones de estímulos responden las neuronas de la amígdala.

Para responder parte de esta pregunta, Mormann et al. hicieron un análisis neurológico de la respuesta a diferentes estímulos en 41 pacientes de epilepsia. La prueba consistía en mostrar diferentes tipos de imágenes —personas, animales, paisajes y objetos— durante un segundo y analizar la respuesta neuronal antes estos cuatro diferentes estímulos.

Durante las 111 sesiones experimentales, los investigadores capturaron la actividad de 1,445 neuronas tanto de la amígdala, hipocampo y la corteza entorrinal. Los resultados mostraron que fueron las neuronas de la amígdala las que respondieron significativamente ante las imágenes de animales, respuesta que no fue observada con las otras imágenes.

amigdala-response

Pero como nuestra amígdala está dividida en dos —una en cada lóbulo temporal— los investigadores quisieron saber cuál de las dos era la que ofrecía esta respuesta. Al separar los datos por amígdala, Mormann y sus colaboradores vieron claramente que eran las neuronas de la amígdala derecha la que respondían preferentemente ante las imágenes de animales —en la amígdala izquierda no se observó este efecto.

Finalmente, los investigadores agruparon jerárquicamente los patrones de estimulación obtenidos [Figura inicial] y observaron claramente que las respuestas a las imágenes de animales formaban un grupo completamente diferenciado de los otros tres estímulos. Obviamente la imagen de Brad Pitt cayó fuera del grupo de los animales, mientras que, extrañamente, la imagen de la madre Teresa de Calcuta cayó dentro del grupo de los animales.

Sin dudas, este descubrimiento tiene una connotación evolutiva interesante ya que en los humanos primitivos al igual que en los animales actuales, reconocer a otro animal es de vital importancia para su supervivencia ya que se debe saber quien es un potencial depredador y quien una potencial presa. Los investigadores comentan que para completar el estudio y demostrar la connotación evolutiva, se repetirá este experimento en otros animales para ver si sus amígdalas se comportan de la misma manera que en los humanos.


Referencia:

ResearchBlogging.orgMormann, F., Dubois, J., Kornblith, S., Milosavljevic, M., Cerf, M., Ison, M., Tsuchiya, N., Kraskov, A., Quiroga, R., Adolphs, R., Fried, I., & Koch, C. (2011). A category-specific response to animals in the right human amygdala Nature Neuroscience DOI: 10.1038/nn.2899

25 agosto, 2011

, ,

Cuando las radiaciones ionizantes combaten el cáncer en vez de generarlo

logo_espanol1Como anfitrión de la XXII Edición del Carnaval de la Física, no podía faltar una participación nuestra en este evento. En esta ocasión les hablaré de cómo las radiaciones ionizantes pueden usarse en beneficio de la salud de las personas, sobre todo en el diagnóstico y tratamiento del cáncer.

De manera sencilla, las radiaciones ionizantes engloban tanto a las ondas electromagnéticas como a las partículas atómicas que, gracias a la energía que portan, tienen la capacidad de ionizar —desprender un electrón— de cualquier átomo o molécula. Entre las más conocidas tenemos los rayos UV, cuya fuente principal es el sol y tiene la capacidad de dañar el ADN; es por esta razón que también son usadas para esterilizar las cámaras de flujo laminar y las cabinas de bioseguridad en los laboratorios. Luego tenemos los rayos gamma, los cuales también son ondas electromagnéticas generados en el universo (Ej.: estrellas, supernovas, cuásares, etc.) y en la Tierra gracias al decaimiento de los átomos radiactivos como el Uranio, los cuales pueden ser usados para esterilizar alimentos enlatados y materiales quirúrgicos, así como también pueden ser usados como trazadores en la industria y en la medicina. Los rayos alfa y beta, a diferencia de los anteriores, son partículas atómicas (electrones, positrones y núcleos de helio) que son usados en el tratamiento de ciertos tumores y cánceres. Y finalmente tenemos a los neutrones usados para la activación y conversión de átomos estables en átomos radiactivos.(c)http://www.eeae.gr/

El peligro de las radiaciones ionizantes se debe a su capacidad de dañar las biomoléculas que componen las células, principalmente el ADN, generando mutaciones y el desarrollo de tumores y cánceres. Cuando una biomolécula como el ADN o una proteína se ioniza, se vuelve inestable y altamente reactiva, con la capacidad de interactuar con otras moléculas, causando un daño irreversible. Es este efecto perjudicial sobre las células el que ha sido visto como un potencial aniquilador de las células malignas. Pero, para que ello funcione, la radiación debe depositarse exclusivamente en el tejido dañado para no afectar las células sanas. ¿Cómo se logra esto?

braquiteraiaLas formas mas antiguas de tratamiento con radiaciones ionizantes (radioterapia) se basan en el uso de agujas radiactivas, usando principalmente radionúclidos con altas energías como el Cobalto-60 (Co-60) o el Cesio-137 (Cs-137), los cuales se introducían en el cuerpo del paciente hasta alcanzar el tumor. Una variante es la braquiterapia, en la cual se usa una pequeña fuente altamente radiactiva que es introducida y depositada en el tumor. Esta técnica es usada para el tratamiento del cáncer de próstata y mama, pero por ser un método invasivo es sumamente incómodo, tal como lo pueden ver en la imagen.

Con los grandes avances en los campos de la física y la química en los años 1950’s, donde se empezaron a producir átomos radiactivos de manera artificial (usando reactores nucleares), se entró en una nueva era para el diagnóstico y tratamiento de enfermedades conocida como la medicina nuclear.

Inicialmente se usaban los átomos radiactivos de manera pura. Por ejemplo, el Iodo-131 (I-131) era administrado directamente en un paciente para tratar sus problemas de tiroides (hipertiroidismo o cáncer de tiroides), gracias a que el Iodo tiene una gran afinidad por este órgano. Todos los isótopos de un determinado elemento tienen las mismas propiedades químicas, sean o no sean radiactivos. Si bien la diferencia entre el Iodo natural (I-127) y el I-131 son sólo cuatro neutrones de más, ambos tienen la misma afinidad por la tiroides y se comportan de la misma manera en el cuerpo humano. Así que se aprovechó de esta propiedad y especificidad por un determinado tejido para usarlo como agente terapéutico.

Sin embargo, los científicos se dieron cuenta que la radiación no sólo se podía usar para matar las células, ya que si se administraba a bajas actividades —como para que el daño en las células sea el mínimo— y se usaba un aparato que detecte la radiación emitida por el radioisótopo, se podía usar con fines de diagnóstico. A través del detector de radiación se podría observar cómo funcionaba un determinado órgano. Fue así como nació la gamagrafía. El Iodo radiactivo era usado para diagnosticar problemas de tiroides; el Hierro radiactivo (Fe-59) —el cual podía introducirse en la hemoglobina— fue usado para el diagnóstico de problemas sanguíneos como la policitemia (exceso de glóbulos rojos).

Con el tiempo empezaron a aparecer muchos más isótopos radiactivos de una serie de elementos diferentes, cada uno con propiedades fisicoquímicas especiales. Pero, la primera revolución en la medicina nuclear fue cuando los investigadores empezaron a unir los átomos radiactivos a una serie de moléculas sencillas que tenían afinidad por ciertos tejidos, transportando así la radiación hacia regiones y órganos específicos del cuerpo y ampliando la gama de enfermedades que podían diagnosticarse usando la radiación. Fue así como nacieron los radiofármacos allá por los años 1960’s.

dtpaPor ejemplo, una molécula sencilla como el pirofosfato (PPi) tenía una alta afinidad por los huesos. Así que cuando lo unían a un radionúclido, se podía diagnosticar problemas asociados a los huesos como: deformaciones, fracturas, cánceres, etc. Otra molécula más compleja como el ácido dietilen-triamino-pentaacético (DTPA) —el cual es una extensión del conocido agente quelante EDTA— tiene una especificidad por los riñones y al ser unido a un radionúclido es usado para evaluar la función renal. Con el paso de los años empezaron a aparecer más moléculas con afinidad por diferentes tejidos.

Pero fue el descubrimiento del Tecnecio —el único de los elementos químicos tradicionales de la tabla periódica que no se encuentra de manera natural— la mayor revolución de la medicina nuclear del siglo XX. Para los años 1960’s, el Tecnecio-99 metaestable (Tc-99m) ya se producía a gran escala y prácticamente reemplazó a todos los demás radionúclidos dentro de la medicina nuclear. El Tc-99m era sumamente especial y gozaba de propiedades químicas únicas. En primer lugar es un metal, por lo tanto puede ser acomplejado y transportado usando cualquier agente quelante. Además, tiene un tiempo de vida media de 6hr (cada 6 horas, su actividad se reducía a la mitad), reduciendo así la tasa de exposición del paciente. El Tc-99m tiene todos los estados de oxidación, principalmente 0, +2, +4, +5, +6 y +7. En la actualidad es el radionúclido más usado en la medicina nuclear (casi el 90%).

Sin embargo, el Tc-99m es un emisor de radiaciones gamma, la cual no es la más indicada si se quiere usar para el tratamiento de tumores y cánceres. Esto se debe a que la radiación gamma, por ser ondas electromagnéticas, tienen un mayor poder de penetración (pueden atravesar fácilmente cualquier material que se ponga en frente antes de depositar su carga energética), por esta razón son muy peligrosas y se requieren de blindajes de plomo para poder contenerlas (Ej.: se requiere de un bloque de plomo de 10cm para contener la radiación gama emitida por 1Ci de I-131 y de 5cm para 1Ci de Tc-99m, sin blindajes pueden atravesar una gran distancia de aire). Si se administra en actividades altas —las cuales son requeridas para matar las células malignas— afectará indudablemente a los tejidos sanos.

penetration

Por otro lado, las radiaciones beta y alfa, al ser partículas atómicas, interactuarán con mayor facilidad con la materia, es por esta razón que penetrarán una menor distancia antes de depositar su carga energética. Debido a este bajo poder de penetración, basta con una lámina de acrílico de 0.5cm o estar a una distancia de 1m para estar protegidos. Sin embargo, su efecto sobre los tejidos y las biomoléculas es de 2 a 20 veces superior al de las radiaciones gama. Entonces, ellos serán los más indicados para ser usados en la aniquilación de tumores y células malignas: la radiación afectará en mayor medida a las células que se encuentren más próximas a ellas.

Para que la radiación alfa o beta usada en el tratamiento de tumores y cánceres sea depositada sólo en el tejido dañado, debe usarse un transportador que sea sumamente específico. Las moléculas transportadoras usadas para el radiodiagnóstico tienen especificidades del 90 al 95%, o sea, entre el 5 y 10% de la radiación se no llega a su destino y se pierde en los otros tejidos, pero como las actividades usadas son bajas no generan daños perjudiciales. Este lujo no nos podemos permitir con las actividades altas de los radionúclidos usados para el tratamiento de tumores.

Entonces, ahora dejaremos la química para enfocarnos en la biología. ¿Cuáles son las uniones más específicas dentro de las células?. La respuesta es aquella que se da entre un anticuerpo y su antígeno respectivo o entre una molécula señalizadora y su receptor específico. Gracias a los avances en la biología celular y la inmunología se conocen una serie de antígenos y receptores específicos para cada tipo celular, muchos de ellos asociados a las células cancerosas. Entonces, basta con aislarlos y generar anticuerpos monoclonales contra ellos para usarlos como un servicio de Delivery de radionúclidos. A este proceso se le conoce como la radioinmunoterapia.

zevalin

El producto más vendido del mercado para hacer la radioinmunoterapia es el Zevalin® el cual es usado para tratar linfomas (un tipo de cáncer de sangre caracterizado por la sobreproducción de células B). Este radiofármaco se basa en el uso de un anticuerpo monoclonal que reconoce un antígeno de membrana conocido como CD20, el cual se expresa solamente en las células B. El anti-CD20 (Rituximab®) es unido a un agente quelante conocido como DOTA el cual captura el radionúclido metálico —en este caso el Ytrio-90— el cual es un emisor exclusivo de radiación beta. El anti-CD20 transportará de manera específica la radiación beta a las células B malignas y terminará por exterminarlas eficientemente.

Sin embargo, al ser un emisor exclusivo de radiación beta no puede ser monitoreado para ver si el radiofármaco está dirigiéndose a la zona requerida o si se ha desviado hacia otro tejido, ya que se necesita la radiación gama para detectarlos. Además, la radiación gama permite determinar la tasa de dosis a la que está expuesto el paciente y determinar la actividad requerida para el tratamiento. Por esta razón, antes de inyectarse el Zevalin® se usa otro radionúclido con propiedades similares al Ytrio pero que emita además radiación gama. El más usado es el Indio-111.

Para ahorrarnos este trabajo se están empezando a usar otros emisores de radiación beta, los cuales también emiten una determinada cantidad de radiación gama. El más indicado para este trabajo es el Lutecio-177 (Lu-177), el cual viene reemplazando al Ytrio-90 en los últimos años.

Yo he trabajado por mucho tiempo en el desarrollo de un Anti-CD20 marcado con Lu-177, así que les comentaré brevemente como se desarrolla este radiofármaco. Lo primero es conjugar el agente quelante —en este caso el DOTA— con el anticuerpo. Luego, añadir el Lu-177 y dejar que el DOTA lo capture. Finalmente purificar el radiofármaco para separarlo del Lu-177 que haya quedado libre, ya que este radionúclido, por ser un lantánido, tiene una alta afinidad por los huesos pudiendo generar daños no deseados.

Si bien se ve fácil y rápido el proceso, es una tarea sumamente complicada. Trabajar con proteínas es muy difícil ya que si no se dan las condiciones adecuadas de pH, temperatura o concentración de sales y cofactores, simplemente la proteína se desnaturaliza, forma agregados y pierde su especificidad. Los anticuerpos son extremadamente sensibles a estas condiciones y los metales, por su parte, requieren de pH ácidos para no pasar a un estado coloidal. Cuando el metal pasa a un estado coloide, precipita y no puede ser capturado por el agente quelante, por so es recomendable hacer la marcación en una solución ácida. Pero, si se trabaja a pH ácidos la proteína tiende a desnaturalizarse. En otras palabras estas como Pimpinela: “entre la espada y la pared” sin saber si proteger a la proteína o al radionúclido.

Debido a esto, en los últimos años se están cambiando los anticuerpos por moléculas más pequeñas pero altamente específicas como los péptidos, los cuales son mas resistentes a las altas temperaturas y a pH básicos o ácidos. Por ejemplo, uno de los más usados es es el Tyr3-Octreotate (TATE), el cual es reconocido por los receptores de somatostatina, ya que es un análogo a este neurotransmisor. El TATE al ser unido a un radionúclido como el Lu-177, puede ser usado para el tratamiento de cánceres en órganos con funciones endocrinas —ricos en receptores de somatostatina— tales como el páncreas o las glándulas suprarrenales. [El cáncer de páncreas es uno de los más fulminantes de todos, las esperanzas de vida una vez diagnosticados no exceden los tres meses].

Y para terminar, una novedosa tecnología está reemplazando al Tc-99m por un radionúclidos emisores de positrones, tales como el Flúor-18 o el Iodo-121. La tecnología PET (tomografía por emisión de positrones) permite observar el funcionamiento de un órgano específico en tiempo real. No abordaré el tema por no prolongar más la presente entrada y porque Cuentos Cuánticos lo explicó para el presente Carnaval de la Física.

Espero no haberlos aburrido y perdonen la extensión de la entrada.

Por cierto, esta entrada también participa en el VII Carnaval de la Química celebrado en FeelSynapsis.

carnavalquimica

, , ,

Una bacteria podría controlar la transmisión del dengue

El dengue es la enfermedad viral transmitida por mosquitos más importante de todas. Cada año afecta a unas 50 millones de personas en el mundo causando la muerte de al menos unas 12,500. El virus del dengue es transmitido por la picadura de un mosquito conocido como Aedes aegypti el cual, a diferencia de sus colegas nocturnos que transmiten la malaria o la fiebre amarilla, lleva una vida activa durante el día. En dos artículos publicados hoy en Nature, un grupo de investigadores reportaron haber infectado una población de mosquitos con una bacteria capaz de inhibir la proliferación y transmisión del virus y que dicha población reemplazó casi por completo a dos poblaciones naturales susceptibles, abriendo el camino hacia un método más efectivo de control de transmisión de la enfermedad.

mosquito

El dengue es una enfermedad muy común en nuestro país gracias nuestra ubicación geográfica, la cual garantiza un clima adecuado para el desarrollo de su principal vector, el mosquito Aedes aegypti. El verano pasado, un brote de una cepa de dengue sumamente virulenta en el departamento de Loreto puso en alerta a las autoridades sanitarias de nuestro país ya que en menos de un mes, el virus había logrado infectar a unas 10,000 personas de las cuales 11 fallecieron, siendo considerado como el peor brote de dengue de nuestra historia.

SI bien el dengue es común en las zonas tropicales, especialmente en el sudeste asiático, el Pacífico y las Américas, su rango de distribución geográfica se viene expandiendo año tras año, poniendo en riesgo al 40% de la población mundial. Como no existe vacuna efectiva contra el dengue, muchos investigadores vienen estudiando diversas estrategias para controlar la transmisión del virus. La mayoría de estas estrategias se basan en el control de las poblaciones de mosquitos, ya sea mediante el uso de insecticidas o mediante la liberación de mosquitos manipulados genéticamente para ser estériles o resistentes a la infección. Sin embargo, ninguna de estas estrategias ha reducido la prevalencia de la enfermedad en las zonas de riesgo.

En el año 2009, Moreira et al. reportaron que una cepa de Wolbachia había logrado proteger al mosquito A. aegypti de la infección de una serie de agentes patógenos. La cepa conocida como wMelPop-CLA fue usada también por McMeniman et al. quien reportó que esta cepa reducía la esperanza de vida de las A. aegypti adultas, afectando enormemente la transmisibilidad del virus. Sin embargo, este efecto negativo sobre la esperanza de vida del mosquito no le permite madurar completamente y mucho menos llegar a  reproducirse, evitando así que estas poblaciones de moscas infectadas con la bacteria puedan mantener el fenotipo en las poblaciones naturales por mucho tiempo.

Por si no lo saben, las Wolbachia son un grupo de bacterias simbióticas intracelulares, presentes en al menos el 60% de todas las especies de insectos conocidos. Tienen la capacidad de ser heredadas a través de los huevos de la madre. Si bien han sido encontradas en una gran variedad de especies diferentes de mosquitos, extrañamente están ausentes en aquellas especies transmisoras de agentes patógenos humanos.

En el presente trabajo, Walker et al. usó una cepa de Wolbachia conocida como wMel. Esta cepa está presente normalmente en las poblaciones de moscas de la fruta (Drosophila melanogaster), no afecta su esperanza de vida y tiene la capacidad de interferir de manera eficiente con el ARN de los virus que naturalmente la infectan. Walker la usó con la esperanza que tuviera el mismo efecto en la A. aegypti, interfiriendo con la proliferación del virus del dengue.

Los resultados fueron los esperados: la Wolbachia fue capaz de inhibir la proliferación y transmisión del virus del dengue tipo 2 (DENV-2) en los A. aegypti infectados —no se encontró la presencia del virus en la saliva de los mosquitos. Por si fuera poco, la esperanza de vida (Derecha), la viabilidad de sus huevos (Centro), y la fertilidad (Izquierda) no se vieron afectadas a diferencia de los mosquitos infectados con la cepa wMelPop-CLA. Este resultado es alentador ya que sus chances de generar descendientes portando la cepa wMel será tan alta como de las moscas silvestres, introduciendo así el fenotipo resistente a los virus del dengue dentro de las poblaciones de A. aegypti naturales.

mosquito2

Izquierda. Fecundidad de las A. aegypti silvestres (Blanco), wMeI (Azul) y wMelPop-CLA (Rojo). Centro. Viabilidad de los huevecillos de A. aegypti sin Wolbachia (MGYP2 tet), con wMel (MGYP2) y con wMelPop-CLA (PGYP1). Derecha. Esperanza de vida de A. aegypti con wMel (MGYP2) y silveastre (wildtype). Click a la imagen para ampliarla.

En el segundo trabajo, Hoffmann et al. usaron las A. aegypti infectadas con las Wolbachia wMel para hacer un estudio en campo. Los investigadores seleccionaron dos pequeñas ciudades australianas —Yorkeys Knob (con 604 casas) y Gordonvale (con 668 casas)— donde la incidencia del dengue debido a a picadura de mosquitos es relativamente alta. Durante el mes de enero del 2011 (temporada húmeda). Hoffmann y sus colaboradores liberaron deliberadamente entre 10,000 y 22,000 mosquitos wMel cada semana, durante 10 semanas. En total liberaron 141,600 mosquitos en Yorkeys Knob y 157,300 en Gordonvale.

Cada dos semanas, los investigadores colectaban los huevos de mosquitos capturados en las ‘ovitrampas’ dispuestas de manera estratégica en las calles y casas de cada uno de los pueblos, esto  con el fin de evaluar la presencia de las Wolbachia en la población natural de mosquitos. Se colectaban 10 huevos por cada ovitrampa y se les hacía la PCR para detectar a la bacteria.

La frecuencia de Wolbachia en la población de mosquitos aumentó a medida que pasaban las semanas en los dos pueblos. En Yorkeys Knob (Fig. a) la frecuencia alcanzó el 100% y en Gordonvale (Fig. b) más del 80% después de 5 semanas de haber hecho la última liberación de mosquitos wMel. De esta manera Hoffmann y sus colaboradores demostraron que los mosquitos resistentes al virus pueden ser introducidos dentro de las poblaciones naturales de mosquitos susceptibles y transformarlos en resistentes, reduciendo así el riesgo de infección del dengue en los habitantes de la zona.

frecuencia

Las ventajas que tiene esta estrategia es que no se requiere eliminar a las poblaciones de mosquitos de una determinada región. Si bien los mosquitos son empalagosos y transmiten enfermedades, su erradicación puede traer graves consecuencias ecológicas ya que también cumplen funciones importantes dentro de los ecosistemas. Por otro lado, se puede usar esta misma estrategia para controlar otros agentes patógenos transmitidos por virus u otros insectos ya que las Wolbachia están presentes en más de la mitad de todas las especies de insectos. En teoría todo esto puede funcionar.

Sin embargo debemos recordar que los virus pueden evolucionar para superar la resistencia inducida por las Wolbachia. Los investigadores que realizaron estos dos estudios aún no saben exactamente cual es el mecanismo de defensa que induce la bacteria dentro de los mosquitos. Se creen que las Wolbachia silencian los genes del virus o promueven el funcionamiento del sistema inmune de los mosquitos con el fin de beneficiarse solamente ellas de la maquinaria fisiológica de sus células huésped ya que el virus también requiere de la maquinaria celular para poder propagarse e infectar otros individuos. Sin dudas hay una simbiosis: la Wolbachia protege al mosquito del virus y el mosquito le provee de todos los nutrientes a la Wolbachia.


Referencias:

ResearchBlogging.orgWalker, T., Johnson, P., Moreira, L., Iturbe-Ormaetxe, I., Frentiu, F., McMeniman, C., Leong, Y., Dong, Y., Axford, J., Kriesner, P., Lloyd, A., Ritchie, S., O’Neill, S., & Hoffmann, A. (2011). The wMel Wolbachia strain blocks dengue and invades caged Aedes aegypti populations Nature, 476 (7361), 450-453 DOI: 10.1038/nature10355

Hoffmann, A., Montgomery, B., Popovici, J., Iturbe-Ormaetxe, I., Johnson, P., Muzzi, F., Greenfield, M., Durkan, M., Leong, Y., Dong, Y., Cook, H., Axford, J., Callahan, A., Kenny, N., Omodei, C., McGraw, E., Ryan, P., Ritchie, S., Turelli, M., & O’Neill, S. (2011). Successful establishment of Wolbachia in Aedes populations to suppress dengue transmission Nature, 476 (7361), 454-457 DOI: 10.1038/nature10356

24 agosto, 2011

, ,

¿Los conflictos sociales se deben al fenómeno de El Niño?

La noción de que el clima puede influir en los conflictos sociales —guerras, manifestaciones, protestas, terrorismo, etc.— y el colapso de las civilizaciones no es algo nuevo. Sin embargo, muchos estudios no han encontrado una correlación significativa entre ellos dos. Un estudio global hecho por investigadores de la Universidad de Columbia han encontrado que la probabilidad de que hayan conflictos sociales es el doble en los años de ocurrencia del fenómeno de El Niño según reportaron hoy en Nature.

niño

Vivimos en tiempos donde el cambio climático se ha convertido en la causa principal de muchos problemas, tanto ambientales como ecológicos. Como si fuera Osama Bin Laden, al cambio climático se le echa la culpa de todo; desde el derretimiento de los casquetes polares y el retroceso de los glaciares hasta la pérdida de los ecosistemas y las especies que viven en ellos. Por si fuera poco, en el 2009, un polémico artículo publicado en PNAS relaciona al cambio climático con las guerras civiles en África. De lo único que podemos estar seguros, por ahora, es que el calentamiento global si juega un rol importante en muchos de estos problemas, aunque no podemos estar seguros si somos nosotros los únicos responsables de ello —tal vez sean los mismos procesos geofísicos del planeta quienes se lleven la mayor parte del crédito.

Uno de los fenómenos naturales más importantes, con la capacidad de cambiar el clima de todo el planeta, es el fenómeno de El Niño. Este fenómeno aparece de manera cíclica sin un patrón de periodicidad aparente —puede darse cada 3 – 8 años— generando un cambio global en el clima, afectando a los países tropicales, principalmente a los de Sudamérica, y trayendo consigo sequías en las zonas donde generalmente llueve y torrenciales lluvias donde la mayor parte del año es seco. Después del periodo cálido de El Niño viene un periodo frío conocido como La Niña, donde las condiciones climáticas se invierten. En su conjunto este fenómeno es conocido como la Oscilación del Sur El Niño (ENSO).

Como el ENSO tiene la capacidad de modificar el clima a gran escala, ofrece una buena oportunidad para analizar la relación que podría existir entre el clima y los conflictos sociales de manera global. Una de las hipótesis de las que parten los investigadores es que existen varios factores económicos, políticos y sociales que están influenciados por el clima (Ej.: la agricultura, la pesca, las importaciones y exportaciones, etc.). Si el clima afecta estas actividades, la población se verá afectada de manera directa o indirecta y esperan que sus autoridades soluciones el problema. Muchas veces los gobiernos no tienen los recursos, ni los medios, ni la voluntad para hacerlo generando protestas y violencia, las cuales terminarán agravándose y generando los conflictos sociales más serios.

En el presente estudio, Hsiang et al. primero dividieron todos los países en dos grupos: los más afectados por el ENSO [países en rojo dentro del mapa, por ej.: Perú, Sudán, India, Australia, etc.] y los menos afectados por el ENSO [países en azul en el mapa, por ej.: EEUU, los países europeos, Chile, etc.]. Luego, recolectaron los datos de conflictos sociales ocurridos en el mundo entre1950 y el 2004, los cuales dejaron como saldo al menos 25 muertos. Finalmente, usando diferentes modelos estadísticos, relacionaron los conflictos sociales con la presencia del ENOS en los dos grupos de países.

Los resultados mostraron que en el grupo de países más afectados por el ENSO, la tasa de conflictos sociales pasó del 3% —durante La Niña— al 6% —durante El Niño, lo que indicaría que la quinta parte de los conflictos sociales ocurridos desde 1950 estarían afectados por el ENSO.

Sin embargo, hay muchos escépticos y críticos de este estudio (yo me considero uno de ellos). En primer lugar porque las estadísticas no muestran una correlación contundente entre los cambios climáticos y los conflictos sociales. Es muy difícil encontrar un método estadístico adecuado para estudiar el comportamiento social humano.

En países como el nuestro, los conflictos sociales se originan principalmente por el descontento de la población con sus autoridades de turno quienes no sólo dejan de cumplir con sus promesas hechas en las campañas electorales, sino que se aprovechan de los recursos naturales a costa de la salud y bienestar de la población. Otro factor es el olvido que se le da a las regiones más alejadas del país, donde la informalidad y la delincuencia es la principal fuerza motora. Cuando se trata de hacer algo por esas regiones, la herida es tan profunda que muy difícilmente se puede curar. Así que no hay otra solución que imponer la fuerza generando violencia. Ninguno de estos factores están influenciados por el clima, así que no podría haber una relación de causalidad.

Conflictos sociales hay todos los años, y como El Niño afecta cada 3 a 8 años, si hacemos un cálculo rápido asumiendo que El Niño aparece cada 5 años y que en cada año hay dos conflictos sociales de magnitud; entre 1950 y el 2004 habrán habido 108 conflictos sociales y 11 años con el fenómeno, lo que indicaría que 22 conflictos sociales se dieron durante los años de El Niño, el cual corresponde al 20% de todos los conflictos sociales, o sea la quinta parte. Valla sorpresa, el resultado es bastante aproximado al obtenido por Hsiang y sus colaboradores.

En otras palabras, no se puede decir que la quinta parte de los conflictos sociales se deban al cambio climático provocado por el ENSO, ya que este resultado es el esperado como producto del azar. Sin embargo, si podemos decir que el clima caluroso característico de El Niño podría influir en cierta medida en los conflictos sociales, ya que la probabilidad que haya uno durante en ese periodo es mayor que durante los periodos fríos de La Niña. Esto tal vez se deba a la reducción en el rendimiento de los cultivos debido a las sequías, afectando los precios de los alimentos; pero, por ejemplo, no podemos echarle la culpa de la guerra interna con Sendero Luminoso, al fenómeno de El Niño.


Referencia:

ResearchBlogging.orgHsiang, S., Meng, K., & Cane, M. (2011). Civil conflicts are associated with the global climate Nature, 476 (7361), 438-441 DOI: 10.1038/nature10311

Científicos estiman que hay 8.7 millones de especies en la Tierra

Sabemos aproximadamente cuántas estrellas hay en nuestra galaxia —unas 200,000 millones— o cuántos libros hay en la Biblioteca del Congreso de los Estados Unidos —22’194,656 para ser exactos— pero no sabemos cuántas especies diferentes hay en nuestro planeta. Las aproximaciones ‘más exactas’ dicen que hay entre 3 y 100 millones, mientras que otras dicen que son menos de 10 millones. Según un artículo publicado ayer en PLoS Biology, en el planeta hay 8.7 millones de especies, con un margen de error de ±1.3 millones. ¿Cómo llegaron a este valor?

species

Creo que sería sumamente vergonzoso si un día nos visitan seres de otro planeta y nos preguntan “¿cuántas formas de vida (especies) diferentes hay en tu planeta?” y nosotros no sepamos qué responder. Saber el número de especies que hay en la Tierra ha sido una de las preguntas más elusivas de la ciencia durante los últimos 250 años —desde que Carlos Linneo estableció la nomenclatura binomial y la taxonomía.

Actualmente se han nombrado y catalogado alrededor de 1.3 millones de especies diferentes. Con las especies conocidas se han hecho una serie de estimaciones y extrapolaciones para determinar el número total de especies que habitan nuestro planeta. Según las estimaciones de May —en base a la extrapolación de frecuencias de las especies grandes y pequeñas— hay entre 10 y 50 millones. Según la gradiente latitudinal de especies de Raven, hay entre 3 y 5 millones. Cada autor emplea un factor distinto para estimar el número de especies en el planeta y los valores obtenidos difieren mucho unos con otros.

El problema de estas estimaciones es que tienen una base empírica limitada y dependen fuertemente de la subjetividad con la que se evalúen. Por otro lado, los esfuerzos de los taxónomos para caracterizar cada una de las especies que hay en el planeta están divididos prácticamente por igual para cada grupo de organismos, a pesar que en algunos de ellos el número de especies sea 10 o 100 veces superior al de otros grupos.

En el presente artículo, Mora et al. ofrecen una nueva estrategia para estimar el número de especies que hay en la Tierra en base a la jerarquía taxonómica establecida por Carlos Linneo en el siglo XVIII (especies, géneros, familias, órdenes, clases, filos). Resulta que las categorías taxonómicas superiores están mejor descritas y caracterizadas que las inferiores, que es donde hay mayores incertidumbres. Esto quiere decir que se sabe con mayor exactitud cuántos filos, clases, órdenes o familias hay que géneros o especies.

Mora et al. observaron que el número de taxas que había dentro de cada categoría taxonómica, aumentaba a medida que se avanzaba hacia las categorías taxonómicas inferiores siguiendo un patrón predecible. Usando una regresión estadística se podía estimar el número aproximado de especies que había en cada género.

diversity-pyramid

Para corroborar el funcionamiento de esta estrategia, los investigadores aplicaron esta aproximación a 18 grupos taxonómicos donde el número total de especies que lo conforman es relativamente conocido. Los resultados demostraron que la estrategia desarrollada en el presente trabajo fue capaz de predecir, casi de manera precisa, el número de especies que habían en los grupos taxonómicos analizados.

predicted-species

De esta manera, Mora et al. calcularon que en el planeta hay unas 8.74 millones de especies diferentes de organismos eucariotas (~7.77 millones de especies de animales, ~298,000 especies de plantas, ~611,000 especies de hongos, ~36,400 especies de protistas, y ~27,500 especies de algas), con un margen de error de ±1.3 millones. De todas estas especies, aproximadamente 2.2 millones son marinas. Sin embargo, en esta estimación no se consideraron a las arqueas ni a las bacterias porque muchas de sus categorías taxonómicas superiores no están bien definidas.

Es muy complicado categorizar a las bacterias dentro de una determinada especie.  Es importante notar que en los procariotas, el concepto de especies tolera un mayor grado de disimilaridad genética a diferencia de los eucariotas, y los procesos de transferencia horizontal de genes complican más el trabajo. En el presente estudio, los investigadores estimaron que hay unas 10,100 especies de bacterias como mínimo, de las cuales unas 1,320 son marinas.

Si existen 8.74 millones de especies, tan sólo hemos logrado describir el ~14% de las especies terrestres y el ~9% de las marinas, en los 250 años que lleva existiendo la clasificación taxonómica. En los últimos 20 años, se han descrito un promedio de 6,200 especies por año. Por otro lado, un taxónomo describe un promedio de 25 especies durante toda su carrera, a un costo de $48,500 por especie. Entonces, haciendo un poco de matemáticas veremos que si se mantiene este ritmo tardaremos 1,200 años en describir todas las especies que aparentemente faltan, necesitaremos 303,000 taxónomos y una inversión de $364,000 millones. Sin embargo, a nuestro ritmo actual de extinción de especies (100 a 1,000 veces superior a la extinción natural), muchas especies se extinguirán antes que las podamos estudiar y caracterizar.

Por suerte, gracias a la genética molecular, el proceso de identificación y caracterización de una especie puede tomar menos tiempo, requerir menos dinero y menos taxónomos. El Consorcio del Código de Barras de la Vida viene trabajando en ello. Esto no significa que no se requerirán de más taxónomos en el futuro, todo lo contrario, su papel es el más importante de todos al momento de identificar una nueva especie ya que son ellos los más indicados para recolectar los especímenes sin correr el riesgo que se trate de una especie descrita anteriormente. Además, aún no se ha determinado en que punto una especie es una especie en base a su material genético, ¿qué porcentaje de similaridad genética será el límite para considerar que dos organismos son de diferente especie?


Referencia:

ResearchBlogging.orgMora, C., Tittensor, D., Adl, S., Simpson, A., & Worm, B. (2011). How Many Species Are There on Earth and in the Ocean? PLoS Biology, 9 (8) DOI: 10.1371/journal.pbio.1001127

22 agosto, 2011

, , ,

La IL-37 protege al ratón de la colitis

La colitis es un tipo de inflamación intestinal que afecta a miles de personas en el mundo. La principal causa de esta enfermedad es un desequilibrio en la respuesta inmune generada por diversos factores ambientales, tales como las infecciones, la dieta y el estrés —aún no se sabe exactamente cómo se origina. Para casos graves de colitis como la ulcerosa o la enfermedad de Crohn no existe tratamiento más que la extirpación del colón. Según un artículo publicado hoy en PNAS, un grupo de investigadores liderados por el Dr. Eóin McNameehan han descubierto que un tipo de citoquina poco conocido llamado IL-37 (Interleucina-37) tiene la capacidad de proteger a los ratones de la colitis dando esperanzas para un posible tratamiento para esta enfermedad.

colitis

La colitis no es más que la inflamación del colon debido a un desbalance en la expresión de los componentes del sistema inmune, el cual provoca fuertes dolores abdominales, pérdida del apetito, reducción del peso y, en casos más severos, diarreas sangrantes y posible desarrollo de un cáncer de colon. Los tratamientos se basan en el uso de corticosteroides (supresores del sistema inmune), pero en los casos más severos la única forma de tratar la enfermedad es mediante la extirpación del colon poniéndoles una prótesis en su reemplazo.

Como en todo proceso inflamatorio, las citoquinas juegan un rol muy importante en el desarrollo de la enfermedad. Es por esta razón que muchos investigadores se están enfocando en la manipulación de ciertas citoquinas anti-inflamatorias (Ej.: IL-6, IL-10 o IL-11) para poder controlarla. Recientemente se ha descubierto una citoquina llamada IL-37, la cual pertenece a la familia de las IL-1 y que en estudios in vitro ha demostrado tener un potente efecto anti-inflamatorio.

Para determinar si la IL-37 puede reducir la colitis, McNameehan y sus colaboradores diseñaron ratones transgénicos que expresaban la versión humana de esta citoquina (hIL-37tg). Luego, a estos ratones los sometieron a un tratamiento con Sulfato de Dextrano Sódico (DSS) para inducirles la colitis.

colonLos resultados fueron bastante alentadores. Los ratones transgénicos no mostraron síntomas físicos de la enfermedad a diferencia de los ratones silvestres (WT) quienes perdieron el 12% de su peso corporal y mostraron una reducción significativa de la longitud del colon a los 7 días de haber sido sometidos al tratamiento con el DSS. Al hacer los estudios histológicos, los ratones silvestres mostraron una infiltración excesiva de leucocitos en el tejido del colon —una característica muy común de la colitis — mientras que los ratones transgénicos mostraban un tejido más íntegro, sin signos de edemas ni hiperplasia.

McNameehan et al. también observaron que la expresión de la IL-37 en los  ratones transgénicos se daba una vez que empezaban a mostrarse los primeros signos de la colitis (del 3° al 5° día de haberse iniciado el tratamiento con DSS). Dicha expresión era siete veces mayor a los valores normales, demostrando así el papel de la IL-37 en el control de la inflamación del colon.

Los investigadores observaron que la IL-37 reducía la expresión de las citoquinas pro-inflamatorias  como la TNF y la IL-1β; mientras que aumentaba la expresión de la citoquina anti-inflamatoria IL-10. Entonces, ¿es posible que finalmente sea la IL-10 la responsable de la protección contra la colitis?. La respuesta es no porque a pesar que los investigadores bloquearon la función de la IL-10 usando un anticuerpo específico (Anti IL-10), la capacidad protectora de la IL-37 en los ratones transgénicos siguió siendo la misma.

No hay dudas que esta citoquina puede tener un potencial uso en el tratamiento de la colitis. Sin embargo, debido a que la acción de las IL-37 se da dentro de las células, se debe desarrollar una estrategia de transporte y entrega de la citoquina al interior de la célula. Se podría usar la terapia génica para insertar el gen en las células del colon, lamentablemente las técnicas de transformación genética de células humanos in situ aún no son eficientes ni seguras.

Para dar una solución a este problema, los investigadores hicieron un experimento más en el cual demostraron que aquellos ratones que recibieron un trasplante de médula ósea con células transformadas genéticamente para llevar consigo el gen de la IL-37, pudieron controlar la colitis de manera eficiente.

Entonces, si algún día se quisiera tratar la colitis usando esta citoquina, bastaría con extraer las células de la médula ósea del paciente, insertarles el gen de la IL-37 activa de manera sencilla mediante técnicas de transformación genética in vitro, cultivarlas hasta tener un buen número de células y finalmente reintroducirlas en la médula ósea del paciente, para que las células hematopoyéticas que después se convertirán en leucocitos, expresen la citoquina y la transporten al colon, reduciendo así la inflamación.

Sin embargo, aún falta mucho para lograr ese objetivo, ya que la fisiología humana es mucho más compleja que la del ratón. Por otro lado, aún no se sabe exactamente como actúa la IL-37, tal vez existen otros factores que no se han tomado en cuenta o han pasado desapercibidos.


ResearchBlogging.orgMcNamee, E., Masterson, J., Jedlicka, P., McManus, M., Grenz, A., Collins, C., Nold, M., Nold-Petry, C., Bufler, P., Dinarello, C., & Rivera-Nieves, J. (2011). Interleukin 37 expression protects mice from colitis Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1111982108