30 abril, 2010

, , ,

Estudio en gemelos profundiza el misterio de la esclerosis múltiple

La caída de los costos del secuenciamiento, ha permitido hacer un estudio más profundo y detallado de las bases genéticas de una de las enfermedades más extrañas que afectan al hombre, la esclerosis múltiple. Esta es una enfermedad neurodegenerativa que provoca una parálisis progresiva de muchas partes del cuerpo; y, aunque sea una enfermedad neurológica, son los linfocitos T (CD4+) los que están muy relacionados con su fisiopatología. ¿Por qué? Porque la esclerosis múltiple es una enfermedad autoinmune, el propio sistema inmunológico del cuerpo se ataca a sí mismo, específicamente, a la capa de mielina que envuelve los axones de las neuronas, tratándolas como si fueran malas y eliminándolas del cuerpo. Esta desmielinización es la causante de la enfermedad.

Los gemelos monozigóticos —o “idénticos”— son los más indicados para hacer estudios donde queremos determinar la influencia de la parte genética y la parte ambiental en el desarrollo de ciertas enfermedades. Si tenemos don individuos diferentes con la misma composición genética, pero expresan diferentes fenotipos; podríamos determinar, exactamente, que es lo que está produciendo esta diferencia. Así que al estudiar las células CD4+ de gemelos idénticos, uno con esclerosis múltiple y el otro sano, podremos identificar las diferencias que provocan la enfermedad.

Cuando un pariente cercano tiene esclerosis múltiple, el riesgo de que otro miembro de la familia también lo desarrolle es alto y si uno de los gemelos sufre la enfermedad, la probabilidad de que el otro también lo sufra es superior al 25%. Pero, ¿que hace diferente a los gemelos idénticos para que uno desarrolle la enfermedad y el otro no?. Así que Baranzini et al. hicieron un estudio a nivel genético, transcriptómico y epigenómico de gemelos, uno con esclerosis múltiple y el otro sano. La investigación costó 1.5 millones de dólares y tomó 18 meses secuenciar los 2.8 mil millones de secuencias de ADN de cada gemelo.

Al hacer el estudio genómico (secuencias de ADN de las células CD4+), ninguna diferencia significativa fue encontrada en los ~3.6 millones de polimorfismos de nucleótido simple (SNP: son las diferencias puntuales que hay en la posición de un nucleótido) ni en los ~200 mil polimorfismos de inserción o deleción de secuencias (fragmentos de ADN que fueron incorporados o suprimidos del genoma), confirmando que se trataban de gemelos idénticos o monozigóticos (gemelos que se forman del mismo embrión).

Varios genetistas que han investigado la esclerosis múltiple por años han detectado ciertos SNPs que podrían tener cierta relación con el desarrollo de la enfermedad; ahora se confirmó que a pesar que los gemelos idénticos compartían los mismos SNPs y tenían los mismos riesgos de adquirir la enfermedad al llegar al mundo, sólo uno la desarrollaba.

Al hacer un estudio transcriptómico, para determinar que genes se expresan y que genes no (un estudio del ARN mensajero para determinar que genes que están activos), también observaron que no había diferencia en la expresión de los ~19000 genes de las células CD4+ del par de gemelos. La enfermedad tampoco estaba relacionada con la expresión de “genes malignos” o la falta de expresión de “genes buenos”, entonces ¿que podría ser?

Para completar el estudio hicieron un análisis epigenómico, para determinar los factores químicos que pueden “prender” o “apagar” los genes (un estudio de moléculas que interaccionan con el ADN regulando la expresión de los genes), los cuales se ha demostrado que son diferentes hasta en los gemelos idénticos. Sólo encontraron entre 2 y 176 diferencias en la metilación de los ~2 millones de dinucleótidos que son metilados (menos del 0.0088%), mucho menor a las ~800 diferencias en la metilación entre células CD4+ de individuos no relacionados y las miles de diferencias entre células sanas y células cancerosas. Así que la parte epigenómica tampoco explicó el desarrollo de la esclerosis múltiple.

Se usaron las técnicas más avanzadas para tratar de revelar el misterio de la esclerosis múltiple, se hizo un análisis completo a nivel genético, transcriptómico y epigenómico usándose gemelos idénticos (uno con esclerosis y el otro sin la enfermedad) pero no se encontró nada de nada. El factor genético no es suficiente para explicar el desarrollo de la enfermedad, así que los investigadores sugieren que como ambos gemelos tienen la misma predisposición a adquirir la enfermedad, uno de ellos ha sido expuesto a la combinación perfecta de estímulos ambientales los cuales han activado la enfermedad. Sin embargo, hacer un estudio de los factores ambientales (nutrición, hábitos, condiciones climáticas, etc.) es algo mucho más complicado de hacer.

Entonces, este estudio podría sugerir que los factores ambientales podrían tener un efecto más importante de lo que se pensaba. Tampoco hay que decir que los factores genéticos no tienen nada que ver ya que los gemelos idénticos tienen seis veces más riesgo de tener esclerosis múltiple que los gemelos de que vienen de dos diferentes embriones (mellizos). Así que los investigadores están buscando más gemelos con características particulares, así como enfocar el estudio a otros tipos de células (las del cerebro) y usar técnicas novedosas que están actualmente en desarrollo.

Referencia:

ResearchBlogging.orgBaranzini, S., Mudge, J., van Velkinburgh, J., Khankhanian, P., Khrebtukova, I., Miller, N., Zhang, L., Farmer, A., Bell, C., Kim, R., May, G., Woodward, J., Caillier, S., McElroy, J., Gomez, R., Pando, M., Clendenen, L., Ganusova, E., Schilkey, F., Ramaraj, T., Khan, O., Huntley, J., Luo, S., Kwok, P., Wu, T., Schroth, G., Oksenberg, J., Hauser, S., & Kingsmore, S. (2010). Genome, epigenome and RNA sequences of monozygotic twins discordant for multiple sclerosis Nature, 464 (7293), 1351-1356 DOI: 10.1038/nature08990

29 abril, 2010

Hielo y compuestos orgánicos descubiertos en la superficie de un asteroide

Una de las teorías del origen de la vida habla que los principales componentes orgánicos, que propiciaron la formación de estructuras más complejas de las que están conformados los seres vivos, vinieron del espacio, a través de cometas y meteoritos que impactaron con la Tierra hace miles de millones de años; tal como el agua de los océanos. Esta teoría es una de las más convincentes debido a que se ha demostrado la presencia de agua y algunos componentes orgánicos simples en muchos de los cometas que orbitan alrededor del sol.

Sin embargo, es la primera vez que se detecta la presencia de agua —en forma de hielo— y componentes orgánicos en la superficie de un asteroide de gran tamaño. Themis 24 es el asteroide más grande de esta familia y está localizado en el cinturón de asteroides entre Marte y Júpiter. ¿Como han podido detectar esto a millones de kilómetros de distancia? Pues fácil, usando telescopios, pero no cualquier telescopio, sino el Telescopio Infrarrojo de la NASA. Este telescopio, en vez de ver la superficie de los objetos que están distantes en el espacio, detecta la longitud de onda de los rayos infrarrojos (IR) que emiten. Cada molécula —o tipo de enlace químico— emiten rayos IR de una determinada longitud de onda y es mediante esta característica que pueden ser identificados.

El agua emite rayos IR a una longitud de onda de ~3.1µm mientras que los componentes orgánicos emiten IR entre 3.3 y 3.6µm. Según la posición y forma del espectro pudieron identificar algunos grupos funcionales como el C-H, -CH2 y CH3, aunque la absorción cerca de 3.3µm sugiere la presencia de grupos aromáticos también.

image

Si bien hay mucha discusión acerca del origen del agua de la Tierra, este sería un punto a favor de los científicos que creen que vino a través de choques con asteroides y cometas del espacio, durante el Intenso Bombardeo Tardío, después del gran choque que dio origen a la Luna. Se cree que Themis 24 es una cápsula del tiempo del sistema solar naciente, y el agua que posee podría ser similar al que llegó a la tierra hace miles de millones de años. De esta manera podemos ver que el agua es una de las moléculas más abundantes del universo, y así como llegó a la tierra también pudo haber llegado a la Luna, Marte y otros planetas en otros sistemas solares diseminados por todo el universo.

Referencias:

Campins, H., Hargrove, K., Pinilla-Alonso, N., Howell, E., Kelley, M., Licandro, J., Mothé-Diniz, T., Fernández, Y., & Ziffer, J. (2010). Water ice and organics on the surface of the asteroid 24 Themis Nature, 464 (7293), 1320-1321 DOI: 10.1038/nature09029

Rivkin, A., & Emery, J. (2010). Detection of ice and organics on an asteroidal surface Nature, 464 (7293), 1322-1323 DOI: 10.1038/nature09028

28 abril, 2010

,

Podrían los microbios de la Tierra contaminar Marte?

Imagínense esta situación…

Dentro de unos 135 años, la primera colonia humana se instala en el “planeta rojo”, ya en los últimos años llegaron sondas espaciales cargando los primeros componentes de la estación de investigación marciana. Son cinco los astronautas que llegan para formar esta primera colonia humana permanente, se quedarán ahí por un año investigando las posibles formas de vida que pudieron haber existido en Marte, hasta que sean relevados por un segundo grupo de astronautas. A los pocos días uno de ellos se pone muy grave y sin un hospital y sólo con algunos medicamentos para los posibles enfermedades que podrían contraer como algunas infecciones estomacales —porque se supone que es un planeta estéril, sin agentes infecciosos más los que llevan en el cuerpo cada uno— el primer astronauta muere, y a los pocos días los demás se ponen igual de graves y todos mueren. El segundo grupo de astronautas que llegan investigan las causas de la muerte y se dan con la sorpresa de que es la enterobacteria Serratia la causante del daño. Pero al salir de la Tierra, no mostraban signos de infección con Serratia y sus muestras de heces mostraban una baja concentración de este enteropatógeno, ¿como se infectaron? Salen a investigar y se dan con la sorpresa que el suelo marciano esta infestado con pequeñas colonias de Serratia y E. coli. ¡Hay vida en Marte!, pero es nuestra… ¿Que pasó?… Las sondas espaciales que llegaron a Marte desde el siglo XX no estaban bien esterilizadas y contaminaron en “planeta rojo”.

Un artículo publicado en la revista Applied and Environmental Microbiology demuestra que las bacterias comúnmente asociadas a las naves y sondas espaciales —Escherichia coli y Serratia liquefaciens— son capaces de sobrevivir al ambiente extremo de Marte, lo suficiente como para contaminarlo con vida terrestre. Ya se conocía que estas bacterias pueden crecer a bajas presiones atmosféricas (~2.5kPa). Sin embargo, el suelo marciano además se caracteriza por su alta salinidad y bajas temperaturas. Así que los investigadores de la Universidad Central de Florida diseñaron medios de cultivos y ambientes combinando estas características. Evaluaron la supervivencia y replicación de estas dos especies de bacterias a diferentes temperaturas (5, 10, 20 y 30°C) con concentraciones de 0, 5, 10 y 20% de tres diferentes sales (MgCl2, MgSO4 y NaCl).

Como era de esperarse, se obtuvo altas tasas de crecimiento a temperaturas de 20 y 30°C y concentraciones de sal de 0 y 5%. En las otras condiciones —temperaturas más bajas y altas concentraciones de sal— no hubo un incremento en la densidad celular de las dos especies, con excepción de 10% de MgSO4 a 20 y 30°C. Hasta ahora no tiene mucho de extraño estos resultados ya que son casi las condiciones en las que pueden vivir estos microorganismos en nuestro planeta, en la superficie de Marte las condiciones son más duras; sin embargo, todas tuvieron una tasa de crecimiento significativa a presiones muy bajas (2.5 y 10kPa), aunque aún esta por debajo de la encontrada en Marte.

Pero, lo interesante de este estudio fue que, una vez se obtenían células vegetativas de estas dos especies y se ponían en medios de cultivo y condiciones análogas al encontrado en Marte (temperaturas de 20°C de día y -50°C de noche, radiación UV de 200 a 280nm a 3.6 W m–2 por 8 horas, presiones de 0.71kPa y una proporción de gas similar a la composición de su atmósfera) pudieron sobrevivir aunque nunca pudieron incrementar su densidad celular.

Así que hay que tener más cuidado para futuras investigaciones, y no emocionarnos mucho si encontramos pequeños microbios en Marte porque podría ser nuestras propias formas de vida que se mantendrán en un estado de latencia hasta que las condiciones marcianas mejoren.

Referencia:

ResearchBlogging.orgBerry, B., Jenkins, D., & Schuerger, A. (2010). Effects of Simulated Mars Conditions on the Survival and Growth of Escherichia coli and Serratia liquefaciens Applied and Environmental Microbiology, 76 (8), 2377-2386 DOI: 10.1128/AEM.02147-09

26 abril, 2010

Esto sí se llama “maximizar el espacio”

Vivimos en ciudades cada vez más pobladas, donde tener una casa se convierte en un lujo, y pronto, tener un pequeño departamento de 60m2 también lo será. Sin embargo, un arquitecto Hong Kongnes (¿se escribe así?) diseño un apartamento maximizando el poco espacio disponible y haciéndolo energéticamente eficiente. Así que les invito a conocerlo y visitar su pequeño departamento de 30m2 con las mismas comodidades que tendría uno del doble de tamaño.

Ohh… recibí mi polo de WhereBioBegins

Recuerdan hace unas semanas había una cuenta regresiva que causó mucha expectativa para los biólogos, ¿Where Bio Begins? el cual, al final fue una página de productos de biología molecular de Sigma-Aldrich; sin embargo, me inscribí para recibir mi polito y bueno ya lo había olvidado hasta el día de hoy… Llegué a mi casa y un paquete me esperaba, era de Sigma, uhmm… así que recordé que debería ser el polo, lo abrí con el miedo de que no me quedara —a pesar que pedí S, en USA y Europa los S miden 1.75, yo humildemente, menos de eso— sin embargo, me quedó perfectamente. Si bien no dice “bioamazing” sino “biochic”, está bonita la polera como para este invierno que se avecina.

biochic

Bueno, estas empresas tardan en enviarte este tipo de cosas pero siempre lo hacen. Ya antes he recibido varios posters y libros de Science y Stratagene, también inscribiéndome a sus promociones. Así que aprovechen, a veces son cosas que valen la pena, sobre todo los posters —que son bastante informativos— y lo indicado para un biólogo que no tiene posters de autos o grupos de rock pegados en sus paredes, sino posters de las rutas metabólicas o afiches de congresos.

,

¿Por qué los infectados con VIH son más susceptibles a la Salmonella?

El SIDA es una de las enfermedades más devastadoras de la humanidad y una grave amenaza a la salud pública por el incremento, casi incontrolable, del número de infectados. Lamentablemente, sólo las personas con poder adquisitivo pueden llevar bien esta enfermedad gracias a los medicamentos costosos que usan para controlarla. Por esta razón, es la población de los países más pobres los que sufren más por esta enfermedad y las tasas de mortalidad son elevadas. Sin embargo, uno no muere de SIDA, la enfermedad te deteriora el sistema inmunológico quitándote la capacidad de responder ante cualquier infección, así que las muertes más comunes son por cuadros de neumonías agudas y enfermedades entéricas, una de ellas causada por la Salmonella.
La Salmonella es el enteropatógeno causante de la tifoidea; sin embargo, existe un tipo de Salmonella no-tifoideal (NTS). En personas sanas, la NTS es responsable de la gastroenteritis autolimitante, pero en personas con el sistema inmunológico comprometido —como los infectados con VIH— causa un severo cuadro de bacteremia, siendo el patógeno oportunista más común asociado al SIDA. En países con una disponibilidad limitada de antirretrovirales, el NTS es una causa importante de mortalidad en los pacientes con VIH.
Lo más lógico pensar es que en los pacientes con VIH la respuesta inmune a una infección con NTS es defectuosa. Sin embargo, investigadores británicos liderados por el Dr. MacLennan, encontraron una alta concentración de anticuerpos contra NTS en el suero de estos pacientes. ¿Cómo? ¿No debería ser al contrario?. Si un paciente con VIH no es tratado, el virus se diseminará por todo el cuerpo causando una viremia y una progresiva reducción de los linfocitos T cooperadores (CD4+), lo que causa la inmunodeficiencia. Pero, paradójicamente, se encontró que los infectados con VIH tenían una respuesta inmune excesiva. Esto se debe a que en los individuos con VIH los linfocitos B tienen una excesiva respuesta policlonal (producen diferentes tipos de anticuerpos ante diferentes antígenos); sin embargo, es probable que esta también sea defectuosa. Entonces, si hay más anticuerpos, ¿por qué no controlan la infección?
Lo que MacLennan et al. descubrieron fue que los anticuerpos que producidos por los infectados con VIH reconocían los lipopolisacáridos (LPS) de la membrana externa de los NTS; en cambio, los anticuerpos de las personas sanas reconocían las proteínas de la membrana externa, específicamente las porinas, matando al microorganismo (Figura). Además, encontraron que los anticuerpos que se unían a los LPS protegían a los NTS del efecto bactericida de los anticuerpos que se unen a las porinas, ya que al poner suero sano en el suero infectado la infección continuaba. Al unirse estos anticuerpos al LPS evitan que los anticuerpos bactericidas lleguen a las porinas y maten a la NTS.
NTS
Sin embargo, este efecto sólo fue observado en pacientes con el VIH avanzado y estos anticuerpos LPS no tenían relación con el incremento de los anticuerpos totales en el sangre (hipergammaglobulemia). Una explicación puede ser que en estos pacientes hay una disrupción de la mucosa intestinal, permitiendo el paso de los LPS al torrente sanguíneo, induciendo a los linfocitos B a producir anticuerpos para LPS, pero tampoco se encontró relación entre los niveles de LPS y anti-LPS en sangre. Aún así, este hallazgo abre el camino para el desarrollo de nuevas vacunas, enfocadas hacia las proteínas de la membrana externa.
Referencia:
Moir, S., & Fauci, A. (2010). Salmonella Susceptibility Science, 328 (5977), 439-440 DOI: 10.1126/science.1189088

25 abril, 2010

,

Cooperación entre los ribosomas y la ARN polimerasa

En las células eucariotas —la que todos nosotros tenemos— la transcripción (pasar de ADN a ARN mensajero) y la traducción (pasar del ARNm a proteínas) se da en diferentes compartimientos celulares. Sin embargo, las bacterias no tienen núcleo, así que estos dos procesos de la expresión genética están acopladas en espacio y tiempo, así que la traducción se inicia ni bien el sitio de unión del ribosoma (RBS) salga de la ARN polimerasa (ARNpol).

Este proceso ha sido conocido por muchos años, tal como los fenómenos de polaridad y atenuación. Polaridad, es cuando se termina la transcripción de los genes de manera prematura; por ejemplo, cuando hay poca cantidad de aminoácidos, la traducción se hace lenta y la cadena de ARNm, que crece entre la ARNpol y el ribosoma, se hace tan larga que es capturado por el factor de terminación Rho, deteniendo la transcripción. En cambio la atenuación se da en ciertos operones mediante la formación de una horquilla en el ARNm que trunca el avance del ribosoma y se detiene la traducción.

Proshkin et al. se dieron cuenta que estos fenómenos de regulación de la expresión genética —polaridad y atenuación— se dan cuando la ARNpol y los ribosomas están físicamente más distantes, permitiendo que el factor Rho o la formación de horquillas terminen con la expresión del gen de manera prematura. Entonces, ¿que pasaría si ambos complejos estuvieran juntos? Proshkin et al. demostraron que los ribosomas asisten directamente a la ARNpol en la elongación del ARNm, aumentando la tasa de transcripción a medida que aumentaban su tasa de traducción, para demostrar esto diseñaron unos cuantos experimentos.

image

Primero demostraron que si se reducía la tasa de traducción, la tasa de transcripción también se reducía en la misma proporción. Para esto usaron el Cloramfenicol (Cm), un antibiótico que inhibe la traducción de las proteínas (de esta manera, mata a las bacterias). Se usó una dosis baja (1ug/ml) de Cm, lo suficiente para reducir a la mitad el efecto inhibitorio pero no llegar a matar a la E. coli. Al cuantificar la tasa de traducción, como era de esperarse, esta se redujo de 14 aminoácidos por segundo (aa/s) a 9aa/s. Y al cuantificar la tasa de transcripción, ésta también se redujo, de 42 nucleótidos por segundo (nt/s) a 27nt/s. De esta manera demostraron que, a parte de estar acoplados estos dos procesos, la inhibición de uno afecta directamente al otro.

Pero, como buenos científicos, quisieron corroborar estos resultados usando otro tipo de experimento. Usaron una cepa de E. coli que tiene una mutación en el gen rpsL, el cual codifica para una de las proteínas que componen el ribosoma, volviéndolo más lento. Si se le pone estreptomicina (Sm) al medio, esta cepa mutada vuelve a la normalidad, restaurando la velocidad de traducción del ribosoma. Sin Sm, la velocidad de traducción era lenta (6aa/s) y la tasa de transcripción de 19nt/s, pero, cuando se restauró la velocidad de traducción del ribosoma con 100ug/ml de Sm, la tasa de traducción y transcripción aumentaron a 10aa/s y 30nt/s, respectivamente. De esta manera, está más que comprobado que hay una fuerte dependencia de la velocidad de transcripción de la ARNpol con el ribosoma.

En estos dos experimentos, se afectó la tasa de traducción haciéndole daño al ribosoma. Sin embargo, para que quede completamente validado este trabajo, los investigadores diseñaron otro experimento más, esta vez a nivel del ARNm. Ya vimos en artículos anteriores que cada triplete de nucleótidos (codón) codifican para un determinado aminoácido, y existen aminoácidos que son codificados por más de un codón. Sin embargo, los organismos tienen una mayor preferencia por ciertos tipos de codones. Los codones que no son usados por un organismo son llamados “codones raros”, y cuando hay codones raros en una secuencia de ARNm, la traducción se puede hacer lenta.

Así que el buen Proshkin usó tres genes de E. coli: rplB-tfuA, dos genes fusionados que tienen pocos codones raros, 16 de los 639 codones que lo conforman (2,5%); y el gen srb4, el cual tiene un 15% de codones raros (102 de 688). Como pueden ver las dos secuencias tiene casi el mismo tamaño, sin embargo, la tasa de traducción de rplB-tfuA fue 1.5 veces mayor que de srb4. La tasa de transcripción también tuvo la misma proporción, siendo más veloz en los que tenían menos codones raros. De esta manera queda nuevamente comprobado el efecto del ribosoma en la tasa de transcripción de la ARNpol.

Pero, que conexión hay entre la ARNpol y los ribosomas que causa este efecto? Proshkin et al. sugieren que se debe a la habilidad de la ARNpol de dar marcha atrás al proceso, cuando el extremo 3’ del ARNm se libera del canal secundario y taponea el canal de salida del ARNm que está siendo transcrito, así como un candado. Esto forma una barrera física y detiene la transcripción. Este mecanismo es de suma importancia para controlar la tasa de transcripción global del microorganismo.

Así que Proshkin diseñó un experimento usando un plásmido con sitios de terminación y RBS (sitio de unión al ribosoma) para ver si la proximidad del ribosoma a la ARN polimerasa bloqueaba su mecanismo de marcha atrás. Cuando hay un RBS fuerte, el ribosoma se une inmediatamente al ARNm en nacimiento cubriendo la región 3’ que podría truncar el canal de salida del ARNm que está siendo transcrito, de esta manera no se da el mecanismo de marcha atrás y la velocidad de transcripción se acelera.

Como se ve en la figura, la ARNpol y el ribosoma se acoplan gracias a la unión de dos proteínas receptoras NusG y NusE/S10. El factor de terminación Rho (polarización) también tiene afinidad por la NusG. En ausencia de ribosoma, Rho terminará prematuramente la expresión genética. Además, muchos operones se caracterizan por no tener  RBS de unión fuerte a los ribosomas, reduciendo su afinidad por él, y reduciendo la tasa de transcripción. Pero, bajo estas premisas, ¿que pasa con el ADN ribosomal, el cual no es transcrito pero no traducido a proteína? Si bien el ribosoma no se una al ARN ribosomal que está siendo transcrito, ciertos factores de transcripción se unen a la ARNpol como el NusA, NusB, NusG y NusE, formando un complejo de antiterminación, evitando que el factor Rho se una a la ARNpol y termine la formación del ARN ribosomal.

Referencia:

ResearchBlogging.orgProshkin, S., Rahmouni, A., Mironov, A., & Nudler, E. (2010). Cooperation Between Translating Ribosomes and RNA Polymerase in Transcription Elongation Science, 328 (5977), 504-508 DOI: 10.1126/science.1184939

23 abril, 2010

22 abril, 2010

En peligro el reciclaje del papel

Siguiendo con los artículos “verdes” conmemorando el Día de la Tierra, hablaremos de algo muy importante, quizá, el pináculo de la conservación del ambiente: el RECICLAJE.

Reciclar, en términos sencillos es modificar, por procesos físicos, químicos y/o mecánicos, productos usados e inservibles para convertirlos nuevamente en materia prima o en algún otro producto servible; o sea, obtener materias primas a partir de desechos. Uno de los reciclajes más importantes es el del papel. La producción del papel se inicia con la tala de árboles ya que a partir de sus fibras —compuesta principalmente por celulosa— se obtiene la materia prima para su producción. Así que, para producir más papel hay que talar más árboles. Como salvedad a esto, muchas empresas en el mundo producen papel reciclado.

Casi todo el papel higiénico, papel toalla y servilletas que se producen en el mundo se hace a partir de papel reciclado. Las fibras de las hojas que hemos usado en impresiones de trabajos, monografías, exámenes, cartas, informes, etc. y que después de ser leídos los hemos botado al tacho, han sido reusados para producir papel higiénico; esto, gracias a la buena calidad de las fibras del papel bond (sí, ese de 60 a 80gr/m2) usado en las impresiones y fotocopias, que le da una buena flexibilidad, suavidad y absorbencia, las cuales son características muy importantes en un buen papel higiénico.

Sin embargo, debido al alto costo que está alcanzando el papel bond, a causa de las restricciones en la tala de árboles, la protección de mayores extensiones de áreas forestales y la responsabilidad ambiental; ha provocado que las empresas reduzcan sus consumo de papel, reusando los documentos inservibles por la cara que se deja generalmente en blanco —como si fuera una libreta de notas—, imprimiendo sólo los documentos importantes e incentivando al buen uso del papel; esto sumado al movimiento ambiental por reducir el consumo de papel a través del uso del correo electrónico, los documentos .pdf, los e-books, las revistas digitales, etc. ha provocado que la industria del papel reciclado se vea muy amenazada.

La principal materia prima para la producción de papel higiénico y derivados es la pulpa virgen, pero su uso implicaría la tala de más árboles por eso no es la más usada. Sin embargo, la segunda fuente de materia prima más abundante —y la más usada— son los papeles de oficina y otros derivados como bolsas de papel y cajas de cartón. Pero, como vemos una reducción en el uso del papel, esta fuente de materia prima ha disminuido, llevando a las empresas nuevamente a usar la pulpa virgen.

Pero, por qué no usar nuevamente el papel reciclado usado para re-reciclar y así re-reciclar por toda la eternidad? Porque para reciclar papel se debe tener fibras en buen estado, no importa si están muy sucias o pintadas (de ahí viene que el color del papel reciclado sea un poco más oscuro que del original), las fibras son lo más importante. Para producir papel higiénico debemos asegurarnos que estas fibras tengan una buena calidad (para conseguir las características mencionadas anteriormente), y el papel de mejor calidad es el papel de oficina. La reducción de su consumo reducirá la materia prima del papel higiénico, el cual es uno de los tipos de papel más usado, (a menos que tengas otra forma novedosa de limpiarte, no solo el trasero, sino las narices, el sudor, etc.)

Entonces aquí viene esta extraña paradoja: La reducción en el consumo del papel, a la larga provocará la tala de más árboles. Suena bastante ilógico verdad?… Pero, esta es una realidad. Así que: Que propondrías tú para romper esta paradoja? ¿Cuál sería la salvedad para el reciclaje del papel?

Eyjafjallajokull, el volcán que paralizó Europa

Hoy 22 de Abril, se conmemora el XL Día de la Tierra. Como un pequeño homenaje, espectaculares imágenes de la erupción del volcán Eyjafjallajokull el pasado 17 de Abril, el cual ha paralizado a todo el continente europeo, retrasando, postergando y suspendiendo cientos de vuelos. Este homenaje sólo es para recordarnos parte del inmensurable poder que tiene la Tierra, capaz no sólo de evitar  que la gente llegue a sus destinos, rompiendo la principal vía de transporte —el aire—, sino borrarnos del mapa por completo.

Trozos de hielo despedidos tras la erupción. El cráter del volcán estaba taponeado por hielos de decenas de metros de grosor.

Miren lo insignificante que se ve ese avión (punto blanco) en comparación con la nube de cenizas.

La nube de ceniza vista desde el espacio. Que piñas los europeos, los vientos justo lo dirigen hacia sus tierras.

Tantos terremotos de gran magnitud y la erupción sin precedentes de este volcán impronunciable son evidencias más que certeras de que nuestro planeta está pasando por un periodo de mucha actividad, el cual se sabe, es un proceso cíclico y normal, tan normal como que el día de mañana haga erupción todo el Parque Natural de Yellowstone o se desate un terremoto de más de 8 grados en las costas peruanas, así que todos preparados.

Ver la galería completa de 35 imágenes en:
http://www.boston.com/bigpicture/2010/04/more_from_eyjafjallajokull.html

21 abril, 2010

,

El sol como nunca antes se había visto

El Observatorio Dinámico Solar (SDO, en inglés) fue el último telescopio lanzado al espacio por la NASA, el 12 de febrero pasado. Su misión, traer imágenes sin precedentes de nuestra estrella más cercana.

 

Estas imágenes iniciales muestran un sol extremadamente dinámico que no ha sido visto en los más de 40 años de investigación solar. El SDO cambiará la forma de ver y entender los procesos que ocurren en la principal fuente de energía del planeta, siendo el impacto de este nuevo observatorio comparado con el que tuvo el Hubble, hace unos años atrás.

La dinámica interna solar ha sido una de las principales materias de investigación en estos últimos años. Por qué aumenta y disminuye la actividad del sol y como afecta esto a nuestro planeta es una de las preguntas que aún no han sido completamente resultas. Una tormenta solar de gran magnitud, podría alterar todo el sistema tecnológico humano, dejando incomunicada casi todas las ciudades del mundo y provocando un colapso en la distribución de la energía eléctrica debido a la sobre carga de sus redes.

El SDO nos ayudará a comprender la complicada dinámica solar. El SDO es nuestro ojo hacia el sol, con imágenes de una resolución largamente superior que de los telescopios pasados, enviando cerca de 1.5 TB (terabytes) de datos a la Tierra, todos los días. Integrando todos estos datos y conociendo la dinámica solar podremos ser capaces de anticiparnos a posibles tormentas solares, así como entender como trabaja su campo magnético.

En el primer video vemos las diferentes herramientas con las que cuenta el SDO que nos permite tener imágenes en base a la temperatura, usando filtros especiales y longitudes de onda diferentes. Y en la imagen de arriba, tenemos una espectacular foto del sol en la región ultravioleta extremo del espectro de longitud de onda. El color rojo indica las zonas con menor temperatura (unos 60000°K), mientras que los colores azul y verde indican las regiones más calientes del sol con más de 1 millón de °K. (A este orden de magnitud de temperatura, consideren °K = °C)

Vía Wired Science y SDO.

, ,

Diseñando nuevas rutas metabólicas

Las plantas son la base para la existencia de todas las formas de vida que hay sobre la tierra, ya que se encuentran en el primer nivel de la cadena alimenticia. Ellas capturan y asimilan el CO2 directamente del ambiente para transformarlo en nutrientes, que son usadas como fuente de energía tanto por las plantas como por otros organismos. La forma como asimilan el CO2 es a través del ciclo de Calvin-Benson siendo la enzima RUBISCO la principal responsable de este proceso. Este ciclo combina el carbón asimilado bioquímicamente con moléculas de agua para producir una variedad de compuestos orgánicos. Sin embargo, por el hecho de que este proceso haya estado sometido a una fuerte presión evolutiva, no quiere decir que sea el más eficiente.

Nuestro deseo siempre ha sido producir más con menos, hacerlo todo más eficiente. Hemos querido modificar las plantas cultivadas de manera que puedan producir más biomasa y alimentos con las mismas condiciones de cultivo. Para ello se han usado procesos de mejoramiento genético, se han desarrollo nuevos fertilizantes, se han usado promotores de crecimiento, y hasta se han insertando genes de otras especies para darles características especiales que no las podría obtener naturalmente. Un intento fue mejorar la eficiencia de asimilación del CO2 para que la planta pueda asimilar más carbono del ambiente y pueda producir más compuestos orgánicos, sin embargo esto no ha podido ser posible aún.

Sin embargo, usando la magia de las biomatemáticas y la biología computacional, los investigadores han descubierto una nueva forma de crear rutas metabólicas más eficientes. En términos generales, este descubrimiento consiste en tomar partes diseñadas por la naturaleza, seleccionar las mejores y reconectarlas para crear nuevas rutas metabólicas más eficientes, con nuevas características y hasta con nuevas funciones, capaz de acabar con todas las necesidades del hombre.

Así que estos investigadores diseñaron algoritmos que podrían hacer combinaciones de las más de 5000 enzimas metabólicas conocidas por la ciencia. Por ejemplo, podríamos encontrar todas las enzimas relacionadas con la fijación del CO2, seleccionar aquella que asimile la mayor cantidad de carbono con el menor consumo de energía y reconectarla con las otras enzimas envueltas en el proceso para generar una nueva ruta metabólica. Es como crear una nueva ruta metabólica desde cero, más conocido como biología sintética.

Al hacer este proceso se encontró una familia de reacciones químicas llevadas a cabo por ciertas enzimas que pueden generar una ruta metabólica artificial llamada: malonil-CoA-oxaloacetato-glioxilato (MOG, para abreviar), que podría ser de dos a tres veces más eficiente que el ciclo de Calvin-Benson. Aunque por ahora el ciclo MOG solo existe en los campos de cultivo de las computadoras (in silico), las enzimas relacionadas con esta ruta metabólica artificial puede ser encontrada en muchas especies de bacterias. Así que usando los principios de la biología sintética, se podría diseñar una bacteria capaz de realizar el ciclo MOG in vivo. Si se obtiene esta bacteria, por qué no pensar en hacerlo en tejidos vegetales.

La evolución pudo haber llegado a esta solución sin la introgresión del hombre; sin embargo, la madre naturaleza también tuvo que preocuparse por las plagas, la disponibilidad de nutrientes y agua, y otros factores que nuestros agricultores modernos lo tienen bajo control. Lo agricultores tratan de optimizar una cosa diferente de lo que la naturaleza trata de optimizar.

Vía Wired Science, PNAS.

20 abril, 2010

, , ,

Criaturas que se esconden en el fondo del mar

No, no es un pequeño pulpo —aunque se parezca bastante— es más bien una pequeña anémona en su estado larval. Esta es una de las imágenes que ha publicado NatGeo de las extrañas criaturas que viven en el fondo del mar, pero, siempre han sido esquivas a ser capturadas en fotos. Esta anémona no mide más de un centímetro y usa sus tentáculos para pescar sus pequeñas presas; sin embargo, una vez que madure, sufre un cambio morfológico radical pasando a ser un tubo adherido a una roca, con los tentáculos hacia arriba, formando comunidades de pólipos.

Este álbum de fotos fue realizado en conjunto con Census of Marine Life y la Enciclopedia de la Vida. Identificar a estas especies tan difíciles de ver y, más aún, entender el rol que cumplen dentro de la cadena alimenticia y el ciclo de carbono, el cual permite que haya una gran diversidad de vida bajo los mares, es de vital importancia para estblecer estrategias de conservación.

Esta pequeña burbuja se ve bonita, pero, mucho cuidado! Karenia brevis es una especie de plancton muy tóxico —más conocido como los dinoflagelados— quienes son responsables de los afloramientos de “mareas rojas” en las costas de Texas y Florida, causando la muerte de muchos peces, volviendo tóxico a los mariscos y llegando a irritar la piel y causar problemas respiratorios en el hombre.

Estos bizarros animalitos, que parecen extraterrestres de una película de ciencia ficción de los 80’s no son más que las larvas de las estrellas de mar, importantes miembros del ecosistema marino.

Para terminar, esta imagen del Telescopio Espacial Hubble de una supernova a 100 millones de años luz. No! esta imagen es de una pequeña ameba, organismos microscopios muy abundantes en el mundo marino. El frágil esqueleto de este diminuto organismo está hecho de cristales de sulfato de estroncio que se disuelven en el mar una vez la célula muera.

Sin dudas, este álbum de fotos deben visitarlo:
http://news.nationalgeographic.com/news/2010/04/photogalleries/100418-hard-see-sea-species-marine-census-pictures/

19 abril, 2010

Pregúntale al biólogo

No te ha pasado que tienes una pregunta que no te ha dejado tranquilo toda tu vida, pero no sabes a quien hacerla? Por ejemplo: Por que cuando te haces una herida dentro de la boca (cuando te muerdes la lengua o la mejilla) ¿no se forma una costra? o ¿que crece más rápido: el cabello o las uñas? o la pregunta del millón… ¿QUE ES UNA CHINCHILLA? bueno, encontraste el lugar indicado… NOOOO AQUÍ NO!… aunque me gustaría hacerlo, pero… “el tiempo vale más que el dinero”… Pero si lo puedes hacer en ASK A BIOLOGIST, un portal donde podrás hacer todas estas preguntas y uno de los más de 50 científicos que lo conforman te lo responderán, y hasta podrás leer preguntas hechas por otras personas, y te sacarás —de una vez por todas— esa duda que te ha intrigado por muchos años.

image

Así que entra a http://askabiologist.org.uk/ y pregúntale a un biólogo, ya que el siempre tiene la respuesta a todo, así no la sepa, te meterá un floro bastante convincente.

,

Una RNasa que puede cortar el ADN

Las RNasas (Ribonucleasas) son enzimas que cortan las secuencias de ARN para su posterior degradación. Son importantes, por ejemplo, cuando hacemos extracción de ADN, evitando la presencia de ARN en nuestras muestras. Las enzimas son bastante específicas a sus sustratos, o sea, solo degradan las moléculas para han sido programadas. Si la enzima se vuelve inespecífica puede acarrear muchos problemas fisiológicos y causar ciertas enfermedades. Sin embargo, algunas enzimas pueden tener más de un sustrato mientras que un sustrato también puede ser degradado por diferentes enzimas.

Nakagawa et al. estudiaba los mecanismos de la apoptosis, un proceso normal de las células para autoeliminarse cuando están viejas o funcionan mal debido a ciertas mutaciones. Este mecanismo, en mamíferos, se caracteriza por la activación de iniciadores de DNasas (como las RNasas pero estas sí degradan el ADN) que digieren el ADN antes de que la célula se desensamble. Nakagawa quería saber como se daba este proceso en C. elegans, un nematodo muy usado en estudios biológicos y se dio con la sorpresa que una RNasa tipo III estaba envuelta en la degradación de ADN.

Dicer es esta RNasa III, la cual tiene un rol importante en el procesamiento de los ARN de interferencia, los cuales son responsable de regular la expresión de ciertos genes a través del silenciamiento de genes. Dicer, también es responsable del procesamiento de los microARN, otro tipo de ARN de cadena muy corta (~20nt) que también regulan la expresión de los genes. En condiciones normales, Dicer se una a ARN de doble cadena y con ayuda de otra proteína (RBP: RNA Binding Protein) la cortan para formar el ARN de interferencia (Figura).

image

En C. elegans, Dicer tiene la capacidad de cortar el ADN y pasar de una función de RNasa a una función de DNasa. Nakagawa postuló que Dicer-1 (codificado por el gen dcr-1) se una a una proteína llamada caspasa CED-3 (codificada por el gen ced-3) en el dominio RNasa IIIa, formándose un Dicer truncado. Dicer requiere de los dos dominios RNasa (IIIa y IIIb) para procesar (cortar) el ARN de doble cadena. Al estar truncado, muestra una actividad de DNasa, uniéndose al ADN y cortándolo. También descubrieron que lo hace con el mismo sitio activo, ya que al mutar y modificar los aminoácidos del residuo catalítico (cambiar la configuración del sitio activo), pierde sus dos funciones (RNasay DNasa).

image

De esta manera demostraron que por medio de la caspasa CED-3, Dicer puede pasar de ser una RNasa a una DNasa. En condiciones normales Dicer se encuentra completo, pero cuando la célula se prepara para la apoptosis, los niveles de CED-3 aumentan y provocan el cambio de función de Dicer. Así que Dicer tiene una función importante en la muerte celular programada.

Referencia:

ResearchBlogging.orgNakagawa, A., Shi, Y., Kage-Nakadai, E., Mitani, S., & Xue, D. (2010). Caspase-Dependent Conversion of Dicer Ribonuclease into a Death-Promoting Deoxyribonuclease Science, 328 (5976), 327-334 DOI: 10.1126/science.1182374

18 abril, 2010

,

Tu laptop podría detectar el siguiente terremoto?

Claro que sí, simplemente basta con descargar un simple programa y ayudarás a los investigadores a detectar o predecir donde podría ocurrir el siguiente terremoto. Bueno, no todas las laptops lo podrían hacer, si tienes una Mac (Apple) o una Lenovo siéntete afortunado. Estas máquinas traen instalados dentro de ellas un dispositivo llamado acelerómetro, el cual no es más que un simple detector de movimiento que puede detectar si computadora se cae o golpea par apagar el disco duro y evitar perder información valiosa.

Entonces, por qué no aprovechar de este dispositivo para medir movimientos telúricos?, se podría hacer, ya que los sismógrafos también son detectores de movimientos, pero mucho más sensibles e instalados algunos metros bajo tierra. Sin embargo, con un software diseñado por Elizabeth Cochran (UC Riverside) y Jesse Lawrence (U Stanford) podrían convertir su laptop en una estación sismográfica. El programa se llama Quake-Catcher Network, y puede ser descargado libremente. Este programa usa el acelerómetro que tienen instaladas estas laptops para enviar, de manera automática, sus mediciones a las principales estaciones geofísicas, de esta manera, se soluciona el problema de la falta de sensores que monitoreen y graben los sismos ocurridos en cualquier parte del mundo en tiempo real.

image

Sin embargo, como estos acelerómetros están diseñados para detectar movimientos o golpes bruscos, su sensibilidad será a partir de sismos de 4.0 grados en la escala de Richter, algo así como un temblor leve. Pero, cuando se da uno fuerte, se puede alertar de manera rápida a otras zonas aledañas, ya que la información que viaja vía internet (satélites y fibras ópticas) viaja más rápido que la onda expansiva de un terremoto, dando valiosos minutos para evacuar edificios y condominios.

Ya hay miles de personas en el mundo que tienen instalado el programa. Si no tienes una Mac o una Thinkpad (Lenovo) no te preocupes, puedes adquirir un sencillo acelerómetro que se conecta vía el puerto USB y el programa será totalmente funcional. Si bien aún no estamos en la capacidad de predecir en que momento se dará un terremoto, si podemos saber el lugar y la intensidad que este podría tener. Así que ayudemos a prevenir más pérdidas humanas detectando los terremotos a tiempo

http://qcn.stanford.edu/downloads/.

17 abril, 2010

,

La importancia de la fusión de mitocondrias

Las mitocondrias son organelos muy móviles y dinámicos que continuamente se fusionan y dividen, como si fueran una célula y no parte de ella. Su función principal es de producir la energía necesaria para que funcione nuestro organismo. Sin embargo, las mitocondrias no se presentan de manera individual, sino están fusionadas lo cual tiene grandes implicancias en el buen funcionamiento de las células de todos los organismos eucariotas, desde las levaduras hasta los mamíferos.

cell1Son dos tipos de proteínas las responsables de la fusión de las mitocondrias: las mitofusinas (Mfn1 y Mfn2) que se encuentran en la membrana externa de las mitocondrias y la OPA1 que se encuentran en la membrana interna. Chen et al. diseñaron ratas mutantes simples (Mfn1+/Mfn2- y Mfn1-/Mfn1+) y ratas doble mutantes (Mfn1-/Mfn2-). Al compararlas, observaron que las ratas doble mutantes pesaban entre 30 y 50% menos que las ratas normales (silvestres), además tenían menos glucosa en la sangre, tanto en alimentación normal como en ayunas y el concentración de lactato era mayor que en las ratas silvestres. Esto evidenciaba que la producción de energía era realizada a través de la glucólisis y no por la cadena transportadora de electrones (c.t.e). Al comparar los muslos de las dos ratas observaron que de las doble mutantes eran mas delgadas que de las silvestres lo cual sugiere que hubo una pérdida de la masa muscular. Entonces, la fusión de mitocondrias es importante para el buen desarrollo del tejido muscular ya que las ratas doble mutantes tenían las miofibrillas en una disposición desordenada bajo el microscopio electrónico, tal como lo tienen los pacientes que sufren de miopatías.

cell1Disposición de las miofibrillas. C: Normal. D: Defectuoso.

Cuando cuantificaron la cantidad de ADNm que había en las ratas doble mutantes se dieron con la sorpresa que era muy baja (~250 copias por ADN nuclear) mientras que en las ratas silvestres era de unas 3000 copias de ADNm por ADNn. Además observaron que las mutaciones se acumulaban en las ratas doble mutantes y había una pérdida de la capacidad respiratoria de las mitocondrias. Cuando hicieron una prueba de tinción (COX/SDH) que evidencia la presencia de la enzima COX de color marrón (buen funcionamiento de la mitocondria porque COX se codifica en el ADNm) observaron que las ratas doble mutantes, después de la segunda semana, mostraban tinciones de color azul (acumulación de SDH, enzima que se codifica en el ADNn), lo que indicaba que había un mal funcionamiento de la mitocondria. Entonces, la falta de fusión afectaba el funcionamiento de las mitocondrias. Este mismo patrón de tinción azul se observó en muestras de pacientes con encefalomiopatías.

cell2 Tinción celular COX/SDH. E: Sanas (COX+). F: Defectuosas (SDH+)

También observaron que había una acumulación de mutaciones en el ADNm de las ratas doble mutantes. Para esto diseñaron una ADNm polimerasa defectuosa, que provoca que se acumulen mutaciones en el ADNm. Las ratas silvestres vivieron normalmente a pesar de tener esta ADNm defectuosa, mientras que las ratas doble mutantes y las ratas mutantes para Mfn2, murieron tempranamente. Al analizar las tasas de mutación del ADNm, observaron que fueron las mismas en las ratas silvestres y en las doble mutantes, así que llegaron a la conclusión que la fusión les permitía a las mitocondrias soportar mejor la acumulación de mutaciones.

Finalmente, quisieron saber por qué había una pérdida de la capacidad respiratoria de las mitocondrias. Al hacer une estudio en la cadena transportadora de electrones vieron que el Complejo I redujo su actividad en 20 veces, siendo este complejo el más afectado por la falta de fusión de las mitocondrias, la acumulación de las mutaciones se dio en varios genes que codifican para las proteínas que forman este complejo.

Así que este estudio da nuevas pistas de como están relacionadas las enfermedades de origen mitocondrial con el ser humano. Muchas miopatías son a causa del mal funcionamiento de las mitocondrias, y según el modelo en las ratas, se debe a la falta de fusión de las mitocondrias.

Referencia:

ResearchBlogging.orgChen, H., Vermulst, M., Wang, Y., Chomyn, A., Prolla, T., McCaffery, J., & Chan, D. (2010). Mitochondrial Fusion Is Required for mtDNA Stability in Skeletal Muscle and Tolerance of mtDNA Mutations Cell, 141 (2), 280-289 DOI: 10.1016/j.cell.2010.02.026

Explicación más sencilla en:

http://cienciafacil.lamula.pe/?p=25#content

16 abril, 2010

Exclusiva: Fotos del día de la muerte de A. Einstein

Ralph Morse, un fotógrafo ambicioso de la revista Life, cubrió uno de los funerales más importantes de la historia en Nueva Jersey, el 18 de Abril de 1955. Sin embargo, estas fotos no fueron publicadas hasta 55 años después… El funeral era del gran Albert Einstein.

 

Einstein murió de un paro cardiaco a la edad de 76 años, en el Hospital de Princeton. El patólogo del hospital removió su cerebro para conservarlo y hacerle un estudio, con la esperanza de averiguar a qué se debía la enorme inteligencia de este personaje. Después de la autopsia, Albert fue llevado a un velatorio y luego a un crematorio en Trenton, Nueva Jersey. Sus cenizas fueron luego esparcidas por el campus de Instituto de Estudios Avanzados de Princeton. Ralph, fue el único fotógrafo que presenció todo este evento, pero el hijo de Albert, Hans Albert Einstein, pidió a la revista Life que respeten la privacidad de la familia mientras que el dolor de la pérdida todavía se sentía. Life lo hizo y mientras que pasaba el tiempo se olvidaron de las fotos, hasta el día de hoy…

image Oficina de Albert, no muy ordenada que digamos.

image Casa de Albert, con la familia regresando después de la ceremonia.

El Dr. Thomas Harvey (1912 - 2007) fue el patólogo que estudió el cerebro de Albert. La rebanó en delgadas tajadas y las conservó cuidadosamente para posteriores estudios. Aquí una foto que posiblemente sea el fileteo del cerebro de Albert.

image Dr. Harvey preparando los anticuchos.

Ver la galería de fotos completa en Live.

, , ,

Trailer: PowerBiofilm

Están entre nosotros, no podemos escapar de ellos… Suena a película de suspenso, y es así el formato que le dan a este spot publicitario de un kit de extracción de ADN y/o ARN a partir de biopelículas.

Las biopelículas son una comunidad de microorganismos que se adhieren unos a otros que a su vez, pueden estar adheridos o no a una superficie. Esto es posible gracias a que estos microorganismos forman una matriz de polisacáridos extracelulares u otras sustancias poliméricas. Un buen ejemplo de ellas son las caries dentales. Virtualmente, todas las bacterias son capaces de formar biopelículas, siendo la forma más frecuente en las que son encontrados. Sus propiedades fisiológicas son distintas de aquellas bacterias que viven en medios de cultivo líquidos.

Vía Mo Bio.

15 abril, 2010

Como funcionan los ribosomas?

Hace un par de días habíamos hablado del como pudo haber sido el origen del código genético y, para que tenga una continuidad, hoy hablaremos de como funciona exactamente los ribosomas. Recordando: Los ribosomas son unas estructuras especializadas formadas por algo más de 50 proteínas y ARN ribosomal y se encarga de leer el ARN mensajero (ARNm) y traducirlo a proteínas a través de los codones del ARNm y los anticodones del ARN de transferencia (ARNt) que cargan en el otro extremo un determinado aminoácido.

Los ribosomas tienen tres sitios bien determinados. El sitio A es donde el ARNt cargando su respectivo aminoácido (aminoacilado) se une al ribosoma, luego pasa al sitio P dejando el sitio A libre para la entrada de otro ARNt aminoacilado y se forme el enlace peptídico que une a los dos aminoácidos. El ARNt que estaba en el sitio P se queda sin su aminoácido y pasa al sitio E de donde es liberado para que vuelva a conseguir otro aminoácido. El ARNt que estaba en el sitio A pasa al P cargando un aminoácido más, repitiendo este ciclo hasta terminar de formar la cadena de aminoácidos (proteína) con un ARNt de finalización (no carga aminoácido alguno). Este paso de translocación es hecha por la enzima GTPasa EF-G. ¿Se ve sencillo?… Pasar de A a P y luego a E. Sin embargo, detrás de esto hay todo un trabajo coordinado de muchos componentes. Uemura et al. reportaron el uso de una técnica extremadamente sensible para detectar, a nivel molecular, como se da este proceso.

image

El método que emplearon se llama “guía de onda en modo cero” (zero-mode waveguide: ZMW) el cual consiste en una nanoestructura de una capa de aluminio, con pequeños agujeros circulares de 50 a 200nm de diámetro en cuya base hay una capa de cristal de cuarzo.  Este aparato permite analizar volúmenes de zeptolitros (10-21L), reduciendo las señales de fondo y otras interferencias. 

ZWM Los ribosomas son inmovilizados en el ZMW en su forma de inicio de traducción (el ribosoma unido al ARNt de la metionina, el aminoácido inicial de las proteínas), este ARNtMet estará unida con un fluoróforo verde (una molécula que se excita a una determinada longitud de onda, emitiendo fluorescencia verde). Varios ARNm artificiales—diseñados para este experimento— serán ensamblados a la lámina de cuarzo del pozo. Este ARNm estará conformado sólo por 4 codones: Metionina (Met, M), Lisina (Lys, K), Fenilalanina (Phe, F) y el de terminación (no codifica para ningún aminoácido). Entonces, también deber haber cuatro tipos de ARNt: ARNtMet (verde), ARNtPhe (Rojo), ARNtLys (Celeste) y ARNtter (terminación, no tiene aminoácido ni esta marcado con molécula fluorescente). Todo este sistema será iluminado a tres longitudes onda diferentes: 488nm, 532nm y 642nm, los cuales excitaran las moléculas fluorescentes celeste, verde y roja, respectivamente. Las fluorescencia emitida por los ARNt será detectada solo cuando estén ubicados en uno de los tres sitios del ribosoma.

Primero diseñaron dos ARNm que codifican para una pequeña cadena de 4 aminoácidos (MFFF y MFKF). Probaron este experimento a bajas concentraciones de ARNt y GTPasa EF-G (30nM = 30 nanomoles por litro). Cuando no pusieron GTPasa EF-G en la reacción, como era de esperarse, sólo hubo un pulso rojo (de la F) —seguido al verde inicial de la metionina que siempre estará presente— y de ahí nada. Esto confirma que es necesaria la presencia de la GTPasa EF-G para la translocación de sitios. Luego pusieron 30nM de GTPasa EF-G y si observaron tres pulsos rojos (MFFF). A bajas concentraciones, la traducción tomaba ~20 segundos por codón. El ARNt era liberado del sitio E, la fluorescencia del ARNt del sitio P se extinguía a los 13.7seg, antes que llegue el nuevo ARNt al sitio A, así que no se pudo determinar exactamente cuanto tiempo se queda el ARNt en el ribosoma. Lo mismo se hizo con la secuencia MFKF. Entonces, el perfil de fluorescencia a bajas concentraciones es por pulsos. Uno verde, seguido por uno rojo, luego el verde desaparecía porque el ARNtMet dejaba su aminoácido y era liberado por el sitio E, luego el pulso rojo pasaba al sitio P y desaparecía a los 13 segundos. A los 20 aparecía otro pulso celeste correspondiente a K terminando con un pulso rojo correspondiente a F. 

zmw1

Bonito no?… Pero en las células no ocurre de esta manera. Las concentraciones de ARNt y GTPasa EF-G están en un orden micromolar (uM = 1000nM) y las cadenas de ARNm tienen muchos codones. Entonces, los investigadores diseñaron ARNm de 13 codones que codifican para 13 aminoácidos (M[FK]6 y M[FKK]4). Esta vez la concentración de ARNt  se subió a 200nM y de GTPasa EF-G a 500nM. Lo primero que se observó fue que la velocidad de traducción por codón se incrementó considerablemente y había superposición de fluorescencias, esto quiere decir que había más de un ARNt en el ribosoma al mismo tiempo. A más concentración de GTPasa EF-G, menos tiempo entre la llegada de un ARNt a otro en el sitio A. En promedio eran ~4.1 segundos los que cada ARNt estaban unidos al ribosoma. A máxima concentración de ARNt y GTPasa EF-G, la velocidad fue de casi 1 codón por segundo, muy cercano a lo obtenido por organismos vivos in vitro. Sin embargo, el tiempo de llegada del primer ARNt siempre fue el mismo, sea cual sea la concentración de  GTPasa EF-G. Otra cosa que se observó fue que M[FKK]4 se tradujo más rápidamente que M[FK]6, esto debido a que el carácter hidrofóbico de la Phe hace más lenta la traducción.

ZWM2

Pero, estos tiempos se dan cuando las dos sub-unidades del ribosoma están ensamblados. Que pasa cuando las sub unidades 30S y 50S están separados. Para esto, la sub-unidad 30S fue ensamblada a la ZMW (junto con el ARNtMet). Y se volvió a hacer el experimento. La traducción se desarrolló normalmente con un pequeño retraso inicial —en la llegada del primer ARNt— de 12 segundos. Este es el tiempo que le toma a la sub-unidad 50S en ensamblarse a la 30S.

Ahora, solo falta saber si en el ribosoma llegan a haber tres ARNt en un determinado momento (en cada uno de los sitios: A, P y E).  Hasta ahora se había visto que hay superposición de dos señales, entonces será la llegada del ARNt al sitio A el responsable de la liberación del ARN sin aminoácido del sitio E? o la liberación del sitio E se hace de manera independiente a la llegada del ARNt al sitio A?. Se observó que a pesar que se aumentaba la concentración de GTPasa EF-G y ARNt y el tiempo de permanencia de los dos ARNt en los sitios A y P disminuían, sólo en ~1.7% de las veces se presentaban los 3 ARNt en los 3 sitios del ribosoma. Pero esto todavía no explicaba si el ARNt era liberado del sitio E por la llegada de un nuevo ARNt al sitio A, así que diseñaron un experimento muy inteligente.

Usaron el ácido fusídico, una molécula que hace lenta la traducción del ARNm, inhibiendo la llegada de un nuevo ARNt al sitio A. Si la hipótesis de que la liberación del ARNt del sitio E es debido a la llegada de un ARNt nuevo al sitio A fuera cierta, el ácido fusídico prolongará el tiempo de permanencia del ARNt en el sitio E, hasta que el ARNt nuevo pueda alcanzar el sitio A. Sin embargo, observaron que a pesar que no llegó el ARNt al sitio A, el ARNt sin aminoácido del sitio E ya se había liberado. La liberación del ARNt del sitio E se da inmediatamente después de la translocación y no está relacionada con la llegada de un nuevo ARNt al sitio A. Lo que ocurre es que a altas concentraciones, todo se da de manera rápida que justo coinciden la llegada y la salida de los ARNt.

Referencia:

ResearchBlogging.orgUemura, S., Aitken, C., Korlach, J., Flusberg, B., Turner, S., & Puglisi, J. (2010). Real-time tRNA transit on single translating ribosomes at codon resolution Nature, 464 (7291), 1012-1017 DOI: 10.1038/nature08925

Explicación mas sencilla:

http://cienciafacil.lamula.pe/?p=24#content

El T. rex de las sanguijuelas encontrado en Perú

En la selva, se encuentra cada cosa, insectos enormes, plantas extrañas, flores llamativas, es sin dudas, un lugar con formas de vida únicas. Las sanguijuelas son unas de ellas. Si bien es cierto, son muy conocidas no sólo en nuestro país, sino en muchas partes del mundo, especialmente, en zonas pantanosas, se caracterizan por chuparte la sangre hasta la saciedad. Sin embargo, una sanguijuela con dientes fue encontrada en las fosas nasales de nadadores de la selva peruana, ha llamado la atención de los investigadores sobre una nueva rama aún desconocida y horrorosa del árbol de la vida.

La Tyrannobdella rex, “el rey tirano de las sanguijuelas”, tiene el tamaño de un dedo meñique —no muy grande cierto— pero con una mandíbula con dientes cinco veces más grandes que aquellos encontrados en otras sanguijuelas. El primer espécimen fue encontrado por los doctores en 1997 en las fosas nasales de un niño de seis años del departamento de San Martín, que se quejaba de dolores de cabeza. El mismo año, la sanguijuela fue encontrada en un niño de 16 meses de Ayacucho. Hasta ahí solo habían dos casos reportados y no se le dio mucha importancia, tampoco se sabía d donde salían estas sanguijuelas. No fue hasta 10 años después que un tercer T. rex fue encontrado en la nariz de una niña de 9 años, que sintió como que lago se “deslizaba” por su nariz. Entonces, haciendo una investigación encontraron que todos estos niños se habían bañado en riachuelos de la Amazonía.

A este hábito de invadir los orificios del cuerpo y alimentarse de las membranas mucosas es conocido como hirudiniasis y ya se ha reportado en una variedad de especies de sanguijuelas del Oriente Medio, África y Asia. Sin embargo, los científicos han asumido que la T. rex y estas especies de sanguijuelas no están relacionadas, considerando sus hábitos de alimentación. Pero, al hacer un estudio más profundo, los investigadores encontraron semejanzas anatómicas y al hacer un estudio genético, se llegó a la misma conclusión. El T. rex y los otros alimentadores de membranas mucosas en realidad pertenecen al mismo grupo evolutivo. Las diferencias genéticas entre ellas reveló que el último ancestro común del T. rex y el resto de las sanguijuelas vivió hace unos 200 millones de años, cuando los dinosaurios alcanzaron dominar la Tierra. Entonces “un antepasado del T. rex pudo haber habitado la nariz de otro T. rex”.

Vía Wired Science.

13 abril, 2010

,

¿Cómo se originó el código genético?

Sin dudas es una de las preguntas más difíciles de responder. Recordemos que el código genético está formado por tripletes de nucleótidos (codones) que reconocen a un determinado aminoácido a través del ARN de transferencia (ARNt), el cual tiene un triplete complementario en un extremo (anticodón) y un aminoácido específico en el otro.

¿Por qué los codones son selectivos para determinados aminoácidos? Para responder a esta pregunta deberíamos hallar un organismo que tenga un código genético primitivo o intermedio, pero no lo hay. Todos compartimos el mismo código genético, aunque en ciertos taxas —grupos de organismos como bacterias u hongos— presentan algunos codones particulares que codifican para aminoácidos diferentes. Sin embargo, estos son casos muy particulares.

imageLa teoría estereoquímica dice que el código genético se desarrolló a partir de las interacciones de secuencias polinucleotídicas, los cuales tenían anticodones —o codones— con aminoácidos específicos. Existen muchas proteínas que se unen a secuencias de ADN  (factores de transcripción, histonas, etc.), y el complejo nucleótidos-proteínas más primitivo de todos son los ribosomas. 

Los ribosomas no son más que unas 50 proteínas interactuando de manera extensiva con secuencias polinucleotídicas (ARN ribosomal) formando una estructura estable (Fig A. En verde el ARNr y en rojo las proteínas). Los ribosomas emergieron muy temprano en la evolución de la vida y pusieron el punto de partida para la traducción del código genético en el último ancestro común universal (de donde evolucionaron y divergieron todas las especies que hoy conocemos).

Entonces, al ser el ribosoma una de las interacciones entre nucleótidos y proteínas —específicamente entre nucleótidos y aminoácidos— más primitivas de todas, tal vez tenga ciertos vestigios de un código genético primordial. Fue así que investigadores del Instituto Salk de Estudios Biológicos, liderados por D. Johnson y Lei Wang, hicieron un análisis estructural del ribosoma para ver si el código genético que hoy conocemos es también aplicable a las interacciones de los aminoácidos de las proteínas del ribosoma con el ARNr.

imageMuchos aminoácidos fueron encontrados en contacto con tripletes —codones o anticodones— de ARNr. Se calculó el valor de enriquecimiento (Ex) de cada triplete con respecto a un aminoácido. Este valor se obtiene de la probabilidad de encontrar un triplete unido a un aminoácido (Px) con respecto a los otro 19 aminoácidos (Nx). El requisito fundamental es que el aminoácido se encuentre a 5Å del triplete, por eso no todas las uniones fueron consideradas. 

Por ejemplo: La fenilalanina (Phe ó F) tiene dos codones (UUU y UUC). PF será el número de veces que UUU ó UUC aparece a 5Å de Phe entre el número de total de tripletes NNN (donde "N" es cualquier triplete) que están a 5Å de Phe; mientras que NF será el número de veces que UUU ó UUC aparece a 5Å de cualquiera de los otros 19 aminoácidos entre el número total de tripletes NNN que están a 5Å de estos 19 aminoácidos. De esta manera, el valor de enriquecimiento de Phe  (EF) será la división de PF entre NF. Si el valor es mayor a uno, habrá una mayor probabilidad de encontrar una unión particular entre un aminoácido y un triplete, lo que indicaría una especificidad entre ellos, o sea un código genético. 

Luego, usando el método de Fisher (una prueba estadística) determinaron si los enriquecimientos eran significativos o no. Los investigadores encontraron once aminoácidos significativamente enriquecidos con sus anticodones y ocho con sus codones (códigos canónicos). Esto demuestra que determinados codones o anticodones son específicos (se encuentran muy cerca) a determinados aminoácidos en el ribosoma.

Pero fue esta interacción particular de tripletes con determinados aminoácidos productos del azar o ha sido como producto de alguna fuerza evolutiva que posteriormente dio origen al código genético que hoy conocemos. Para esto crearon un millón de secuencias de ARNr al azar y las reemplazaron por las secuencias de ARNr originales de los ribosomas y volvieron a hacer el estudio anterior. Luego compararon sus valores de enriquecimiento obtenidos con los valores de enriquecimiento de los 11 anticodones y 8 codones originales que tuvieron valores significativos. El 99.9555% de anticodones y 99.9716% de codones obtenidos al azar tuvieron valores de enriquecimiento promedio menores a los códigos canónicos (originales), esto demuestra que no pudo ser producto del azar. Sin embargo, al tomar en cuenta todos los aminoácidos, sólo el 54.5447% de los codones obtenidos al azar tuvieron valores de enriquecimiento menores a los originales, mientras que el 99.0225% de los anticodones si lo eran. Esto demuestra que hay una mayor correlación entre los aminoácidos con sus anticodones que con sus codones.


Entonces, ¿cómo evolucionó el código genético? En el código genético actual, de los 16 bloques que hay (donde solo el tercer nucleótido cambia), ocho bloques están compartido por dos aminoácidos o por aminoácidos con señales STOP y los otro ocho están conformados por aminoácidos únicos. Lo que creen los investigadores es que al comienzo, cada bloque correspondía para un aminoácido. 

Para corroborar esta hipótesis, aquellos bloques que codifican para dos aminoácidos fueron extendidos para que sólo codifiquen para un aminoácido y volvieron a determinar los valores de enriquecimiento. En este caso Leu, Ile, His y Lys aumentaron considerablemente su valor de enriquecimiento en el ribosoma, mientras que los Phe, Met, Gln y Asn no. Esto sugiere que en el código genético primitivo Leu, Ile, His y Lys también ocupaban un bloque entero. Además, los códigos al azar con altos valores de enriquecimiento disminuyeron, tanto en Leu, Ile, His y Lys (~50%) como en Met, Gln y Asn (~10%). Entonces hay evidencia para decir que Met capturó el codón AUG de Ile, considerado como la captura de codón clave en la evolución del código genético.

Según estos datos podemos sugerir que la formación y evolución del código genético se dio en dos partes. La primera se formó un código genético para los primeros aminoácidos que pudieron haber estado en la tierra primitiva según el experimento de Miller & Urey (1979) y luego se añadieron los nuevos aminoácidos. Sin embargo, que aminoácidos fueron los primordiales y cuales se fueron añadiendo posteriormente aúne s tema de debate. Lo que si se puede inferir de este estudio es el orden temporal en que se dio la interacción anticodón-aminoácido tuvo lugar.

Referencia:

ResearchBlogging.orgJohnson, D., & Wang, L. (2010). Imprints of the genetic code in the ribosome Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1000704107


Explicación más sencilla:
http://cienciafacil.lamula.pe/?p=22#content