29 septiembre, 2011

Cómo los celulares inteligentes pueden revolucionar las investigaciones en las ciencias cognitivas

iphone

Cuando se pretende hacer un estudio sobre las facultades cognitivas humanas, por ejemplo: el lenguaje, la atención o la memoria; los científicos cuentan con la buena fe de las personas que se apunten como voluntarios. Estos grupos, por lo general, tienden a ser muy homogéneos y muchas veces no representan lo que ocurre en la realidad.

La internet ha sido de gran ayuda para estas investigaciones porque ha permitido llegar a un mayor grupo de personas, sin que sea un impedimento las barreras geográficas o el idioma. Sin embargo, la internet no permite hacer estudios donde se requiere de precisión y rapidez, por ejemplo, cuando se pretende cuantificar la velocidad de respuesta ante un determinado estímulo.

Un grupo de científicos liderados por el ingeniero Stephane Dufau del Centro Nacional de Investigación Científica de Francia, desarrollaron una aplicación gratuita para el iPhone, el iPod y el iPad que permitía realizar el clásico estudio psicolingüístico conocido como el prueba de decisión léxica. Esta prueba es usada para evaluar la proficiencia lingüística y la capacidad de lectura, con el potencial para determinar si existen problemas como la dislexia.

iphone[1]La aplicación consistía en mostrar en la pantalla del celular un estímulo —una palabra bien escrita o una mal escrita (sin sentido)— que el usuario debía identificar si era o no una palabra. Para determinar la velocidad de respuesta, el estímulo era mostrado tan sólo por 0.3 segundos. El usuario podía elegir entre 50, 100 y 140 estímulos, dependiendo de su tiempo. Además, algunos de los estímulos mostrados se repetían con una mayor frecuencia.

El proyecto se lanzó en siete idiomas diferentes y duró cuatro meses. En este periodo de tiempo participaron un total de 4,157 personas de diferentes partes del mundo. Sin dudas, es un buen número de participantes ya que un estudio similar, pero usando la manera tradicional, hubiera tardado tres años en conseguir la misma cantidad de voluntarios.

En este estudio, por raro que parezca, los resultados obtenidos son lo de menos. Lo más resaltante es que Dufau y sus colaboradores han demostrado el gran potencial de los teléfonos inteligentes —smartphones o listófonos— para estudios cognitivos. Y no es para menos, en la actualidad, un porcentaje importante de la población urbana usa algún tipo de dispositivo móvil inteligente (no sólo celulares, sino también reproductores de música, netbooks y tablets), cuya principal ventaja es su portabilidad, su fácil manejo, su conectividad (acceso a internet y as redes sociales) y su uniformidad en cualquier país del mundo (mismos sistemas operativos, con las mismas funciones y las mismas aplicaciones).

“Este uso masivo coordinado de los celulares inteligentes crea una novedosa y poderosa herramienta científica que genera los datos necesarios para probar las teorías universales de la cognición”, dice Dufau, quien cree que será una revolución dentro del campo de las ciencias cognitivas.


Referencia:

ResearchBlogging.orgDufau, S., Duñabeitia, J., Moret-Tatay, C., McGonigal, A., Peeters, D., Alario, F., Balota, D., Brysbaert, M., Carreiras, M., Ferrand, L., Ktori, M., Perea, M., Rastle, K., Sasburg, O., Yap, M., Ziegler, J., & Grainger, J. (2011). Smart Phone, Smart Science: How the Use of Smartphones Can Revolutionize Research in Cognitive Science PLoS ONE, 6 (9) DOI: 10.1371/journal.pone.0024974

28 septiembre, 2011

Mira el streaming de los Ig Nobel 2011

El día de mañana (hoy) Jueves 29 de Septiembre, desde el Teatro Sanders de la Universidad de Harvard se llevará a cabo la XXI Entrega Anual de los Premios Ig Nobel (más conocido en el mundo de la ciencia como los Anti-Nobel o la parodia de los Premios Nobel, que serán anunciados durante la próxima semana).

Ig-Nobel-Poster-2011

En los Ig Nobel se premia a aquellas investigaciones que primero nos hacen reír y luego pensar; en otras palabras, se entrega a las investigaciones más extravagantes y que tal vez nadie se atreva a reproducirlas en su laboratorio [Pueden ver aquí a los ganadores del 2009 y del 2010]. Como es tradicional, la entrega de cada Ig Nobel es realizada por científicos que ganaron alguna vez el Premio Nobel (el original), este año veremos a Dudley Herschbach, Dudley Herschbach, Roy Glauber, entre otros.

Además, como una curiosidad, hubo un único personaje en la historia que ganó tanto el Ig Nobel (en el 2000) y el Nobel (en el 2010), se trata del físico Andre Geim por levitar ranas con campos magnéticos y por sus trabajos en el grafeno.

Así que pueden ver el streaming desde AQUÍ, a partir de las 6.30pm (Hora de Perú, –5UTC). Por ser el Año Internacional de la Química, éste será el tema de la ceremonia. Les aseguro que se van a divertir.

,

La concentración de azúcares en el néctar de las flores depende de la forma como la beben

nectar

Existe ciertas aves y muchos insectos que se alimentan principalmente del néctar de las flores utilizando tres tipos de técnicas diferentes para hacerlo: por succión activa (Ej.: mariposas y polillas), por succión capilar (Ej.: colibríes y miembro de la familia Nectariniidae) y por inmersión viscosa (Ej.: abejas y hormigas).

Es muy importante que se consuma la mayor cantidad de energía en el menor tiempo posible (tasa de ingesta energética) porque mientras se bebe el néctar, el animal se encuentra expuesto al ataque de cualquier depredador. La energía dependerá de la concentración de azúcares en el néctar, pero cuando el néctar tiene más nutrientes se hace más viscoso y, por lo tanto, más difícil de beberlo.

nectar[4]

Usando diferentes modelos de dinámica de fluidos, un grupo de investigadores del MIT liderados por Wonjung Kim determinaron la concentración óptima de azúcares en el néctar en función a la técnica empleada para beberla según reportaron en PNAS. Además observaron que esta concentración no dependía del tamaño del animal, ni de la cantidad ingerida, ni de la especie.

Los resultados de Kim y sus colegas mostraron que la concentración adecuada de azúcares fue mayor para la inmersión viscosa empleada por las abejas y hormigas (52% – 60%, %=g/100ml) que para la succión activa o por capilaridad (30% – 40%).

Las abejas cuentan con una lengua muy particular, la cual está llena de pelos. El néctar es capturado como si una se pusiera un papel toalla sobre un líquido derramado. Esta técnica le permite beber líquidos más viscosos a diferencia de la succión. Por ejemplo, si comparas la facilidad de beber una gaseosa (baja viscosidad) y un jugo de papaya (alta viscosidad) usando una pajilla te darás cuenta que en el segundo caso es más difícil hacerlo. Los mismo ocurre con los animales que usan la succión para beber el néctar, aunque hace unas semanas vimos que los colibríes no usan solamente la succión capilar, ya que poseen lenguas que funcionan como si fueran una esponja.

Sin embargo, al contrastar los resultados obtenidos usando los modelos físicos y los resultados experimentales, Kim y sus colaboradores observaron que la concentración de azúcares en el néctar de las flores polinizadas por abejas (inmersión viscosa) o por colibríes y mariposas (succión) era del 35% y 25%, respectivamente.

Esta limitación de nutrientes en la naturaleza se puede explicar si se toma en cuenta la coevolución entre las flores y los polinizadores. Las flores reducen sus niveles de nutrientes para mantener a sus polinizadores hambrientos y estos se vean en la necesidad visitar más flores a fin de saciar sus requerimientos energéticos, de esta manera, la probabilidad de fertilización más flores es mayor. Estos resultados también indicaría que las flores producen un tipo de néctar (más o menos concentrado) dependiendo de las especies encargadas de polinizarlas.


Referencia:

ResearchBlogging.orgKim, W., Gilet, T., & Bush, J. (2011). Optimal concentrations in nectar feeding Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1108642108

27 septiembre, 2011

, ,

Crónicas del plancton—espectaculares video marinos y más

He encontrado una página muy interesante que tal vez algunos de ustedes conozcan, se trata de Crónicas del Plancton y es un proyecto realizado por la Expedición Tara Oceans y el Observatorio Oceanológico de Villefranche-sur-mer quienes realizan videos mostrando la belleza de la biodiversidad marina enfocándose principalmente en los protistas, nidarios y otros invertebrados divididos en 13 videos con sus respectivas galerías de imágenes bien explicativas.

Erizos - Nacimiento planctónico from Parafilms on Vimeo.

Terópodos - Moluscos que nadan from Parafilms on Vimeo.

Así que les recomiendo invertir una hora de sus vidas para aprender un poco sobre estos fascinantes organismos.

Link | Crónicas del Plancton.

, , ,

Mensajes secretos usando bacterias

Imagínate una versión de Misión Imposible donde Ethan Hunt mande un mensaje secreto, al otro lado del mundo, usando unas bacterias genéticamente modificadas. Tal vez lo primero que se te ocurrió fue que el mensaje se insertó en el genoma de la bacteria mediante un pedazo de ADN sintético, el cual porta un mensaje que es descifrado usando el código genético. Pero lo que hicieron un grupo de científicos norteamericanos fue desarrollar distintas cepas de E. coli portando proteínas fluorescentes que se expresan sólo ante la presencia de ciertos componentes químicos en el medio. El trabajo fue publicado en PNAS.

infobio

En principio, lo que hicieron el equipo de investigadores del químico David Walt de la Universidad de Tufts fue usar organismos vivos como portadores de mensajes codificados (InfoBiología). Pero no lo hicieron de la manera tradicional que uno pensaría, en el cual el mensaje se escribiría y almacenaría en el propio genoma del organismo, Walt y sus colaboradores usaron la expresión de siete proteínas fluorescentes [Parte central de la figura de la izquierda] previamente insertadas en la bacteria E. coli y con ellas elaboraron un código basado en la combinación de dos colores sobre una matriz de nitrocelulosa [Figura de la derecha].

La ventaja de esta técnica a la cual bautizaron SPAM (Steganography by Printed Arrays of Microbes. Traducción libre: Estenografía por arreglo impreso de microbios), es que la expresión de las proteínas fluorescentes puede ser controlada de muchas maneras, por ejemplo: según el tipo de bacteria, el tipo de vector usado, el medio de cultivo, el promotor, la longitud de onda de la luz, etc., lo que permite obtener una amplia variedad de formas de codificar el mensaje —si no usas los factores correctos no podrás leer el mensaje original porque la combinación de colores no será la adecuada. Además, no se necesita de equipos especiales para leer el mensaje, las colonias de microbios son fácilmente observables.

Para probar su técnica, el químico Manuel Palacios, líder del proyecto, insertó cada una las siete proteínas fluorescentes en dos cepas diferentes de E. coli. Una de las cepas expresaría las proteínas fluorescentes sólo en presencia de una sustancia química conocida como IPTG, mientras que la otra no lo necesitaría. Luego, las bacterias fueron cultivadas ordenadamente en un medio rectangular e “impresas” en una membrana de nitrocelulosa para ser enviada al destinatario. Finalmente, el receptor tomaría la membrana y lo imprimiría en un medio de cultivo adecuado, con los factores que permitan inducir la expresión de la fluorescencia determinada.

spamLas bacterias son cultivadas en placas de dilución en un medio líquido (caldo de cultivo) y con un replicador se imprime 0.1ul de cada una en un medio sólido (agar). Una vez que las colonias crezcan son transferidas en una membrana de nitrocelulosa, el mensaje quedará impreso en ella. Esta lámina se envía al destinatario quien hará el proceso inverso, imprimiendo la membrana en otro medio de cultivo sólido enriquecido con los factores adecuados para la expresión de las proteínas fluorescentes.

Como se usa un código basado en la combinación de dos colores, en total se obtendrá sistema alfanumérico de 49 caracteres (72 = 49). Los investigadores usaron 144 colonias para elaborar un mensaje de 70 caracteres: “this is a bioencoded message from the walt lab at tufts university 2011.” [Figura inicial].

Si el mensaje se requiere con urgencia, se usa la cepa que necesita el IPTG como inductor. Al añadir esta sustancia, los genes que codifican para las proteínas fluorescentes se sobreexpresarán inmediatamente y en 8 horas el mensaje será completamente claro. Por otro lado, si se quiere un mensaje retardado se usa la cepa que no requiere de IPTG. Esta cepa expresará las proteínas fluorescentes a medida que aumenta su concentración en la colonia, o sea, cuanto más bacterias hayan, para eso dependen de la velocidad de división dela bacteria y el mensaje tardará unas 48 horas en apreciarse claramente.

Sin embargo, las bacterias pueden mutar fácilmente, lo que puede generar un cambio en el mensaje después de un tiempo prolongado. Esto sería lo mismo que decir “este mensaje de autodestruirá en 5 segundos varias semanas”. Bueno, no ayudaría mucho al secreto de las misiones de Ethan Hunt.

Pero, la eficiencia de la técnica para codificar mensajes secretos se puede mejorar con el uso de genes de resistencia a diferentes antibióticos. Por ejemplo, Palacios et al. demostraron esto usando bacterias con los genes que codifican las proteínas fluorescentes acoplados al gen de resistencia a la kanamicina o ampicilina. Cada antibiótico seleccionaba una bacteria portando una proteína fluorescente diferente, así que el uso de uno u otro antibiótico generaba dos mensajes diferentes.

antibio

Tal vez por ahora la técnica no sea muy práctica, pero el principio funciona correctamente. Una forma de mejorar esto sería reduciendo el tamaño de las colonias, tal vez confinándolas a chips de microarreglos y usando más antibióticos, y así aumentar la densidad de información, pero esto requeriría el uso de equipos sofisticados o microscopios para poder observar la fluorescencia.


Referencia:

ResearchBlogging.orgPalacios, M., Benito-Pena, E., Manesse, M., Mazzeo, A., LaFratta, C., Whitesides, G., & Walt, D. (2011). InfoBiology by printed arrays of microorganism colonies for timed and on-demand release of messages Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1109554108

26 septiembre, 2011

, , ,

Predicciones para los Premios Nobel 2011

Al igual que en los Oscar, los Emmy, los Globos de Oro o los MTV Movie Awards; en los premios Nobel también se suelen hacer predicciones de los posibles ganadores en cada una de las seis categorías. De todas las predicciones, la que elabora la Thomson Reuters desde el año 1989 es la más tradicional y aceptada de todas. La forma como elaboran sus predicciones se basa en el impacto científico y social de las publicaciones de diferentes investigadores del mundo, el cual se contabiliza en función al número de citas durante los últimos 30 años y el número de artículos publicados en las revistas de mayor impacto.

Para este año las predicciones de las tres categorías de ciencias son:

Premio Nobel en Fisiología o Medicina (Nobel que en mi opinión debería ser de Biología):
Anuncio
: Lunes 3 de Octubre (9:30am GMT, 4:30am Perú)

  1. Robert L. Coffman & Timothy R. Mosmann por su descubrimiento de los dos tipos de linfocitos T (Th1 y Th2) y su papel en la regulación de la respuesta inmune del hospedero. Resulta que nuestros linfocitos T tienen una polarización funcional en respuesta hacia distintos agentes infecciosos. Cuando nos infecta una bacteria o nos hacemos una herida entran en acción las células T tipo Th1 quienes activan los macrófagos para devorar (fagocitar) a los agentes infecciosos; mientras que cuando nos infectan parásitos gastrointestinales o helmintos (gusanos) entran en acción las células T tipo Th2 quienes activan una respuesta inmune mediada por anticuerpos. Estas dos funciones actúan de manera recíproca —una inactiva las funciones de la otra. [Artículo relacionado en BioUnalm].
  2. Brian J. Druker, Nicholas B. Lydon & Charles L. Sawyers por desarrollar el imatinib y el desatinib, dos potentes agentes anticancerígenos —ambos inhibidores de la tirosin kinasa—que revolucionaron la medicina y permitieron tratar la leucemia mieloide crónica, la leucemia linfoblástica aguda, y otros tipos de cáncer, salvando la vida de miles de personas en el mundo.
  3. Robert S. Langer & Joseph P. Vacanti por ser los pioneros en la investigación sobre la ingeniería de tejidos y la medicina regenerativa, a través del uso de medios de cultivo en 3D, desarrollo de armazones biocompatibles para la regeneración de órganos y cultivo de células madre con el fin de generar órganos a partir de cultivos celulares para generar y trasplantar órganos complejos compatibles con el paciente.
  4. Jacques F. A. P. Miller por descubrir la función del timo y la identificación de las células T y B en diferentes especies de mamíferos. El timo es parte importante de nuestro sistema inmune porque es ahí donde maduran los linfocitos T. Estos linfocitos son los encargados de coordinar la respuesta inmune con los linfocitos B que son los responsables de la producción de anticuerpos.

Premio Nobel en Física
Anuncio:
Martes 4 de Octubre (9:45am GMT, 4:45am Perú).

  1. Alain Aspect, John F. Clauser & Anton Zeilinger por sus análisis de las desigualdades de Bell y sus investigaciones en el entrelazamiento cuántico. Bueno, mi nivel de física no me permite explicarlo de manera adecuada, pero más o menos dice que cuando se crean dos partículas cuánticas correlacionadas (donde la acción sobre una ejerce un efecto sobre la otra), el estado de uno estará influenciado por el del otro, así que si tenemos dos electrones correlacionados, en dos puntos diferentes, y modificamos el espín de uno, entonces el otro modificará su espín de manera instantánea [Se usó el espín porque no es una variable continua, sólo puede tomar dos valores: +1/2 y –1/2], esto quiere decir que la información entre ellas dos viajó mucho más rápido que la luz (entrelazamiento cuántico), algo que Einstein no aceptaba porque el creía en el realismo local y la teoría de variables ocultas, donde cada electrón tendrá propiedades bien definidas [Artículo relacionado en Ciencia Kanija].
  2. Sajeev John & Eli Yablonovitch por la invención y desarrollo de los materiales fotónicos de banda prohibida. Estos materiales ópticos afectan el movimiento de los fotones de luz, permitiendo controlar y manipular el flujo de la luz. Están hechos de nanoestructuras dieléctricas que definen bandas de energía permitidas y prohibidas, dando lugar a la inhibición de la emisión espontánea de fotones, los espejos de alta reflexión omnidireccionales, y la localización y control de propagación de la luz (Ej. en los LED). En la naturaleza lo podemos observar en los ópalos y las alas de ciertas mariposas y otros insectos.
  3. Hideo Ohno por sus contribuciones al ferromagnetismo en semiconductores magnéticos diluidos. Los materiales semiconductores tradicionales pasan de un estado no conductor o de alta resistencia (0) a un estado conductor o de baja resistencia (1), aplicando una pequeña corriente eléctrica, pueden ser usados para gestionar información en un formato binario, siendo la base de los microprocesadores actuales. Sin embargo, para mantener dicha información se requiere que la tensión eléctrica sea aplicada continuamente, porque si se apaga, todo vuelve a un estado inicial no conductor y la información se pierde. Esto acarrea un alto consumo de energía. Por su parte, los materiales magnéticos se basan en un eje de fácil imanación, donde el material tomará dos orientaciones (0 y 1) en función a un campo magnético empleado al “escribir la información”, siendo la base de los discos duros. Consumen mucho menos energía pero el problema es que tardan más en leer o escribir la información. Entonces, lo que desarrolló Ohno fue una mezcla de los dos para obtener materiales rápidos y con demandas de energía más bajas, introduciendo impurezas magnéticas en los semiconductores que modificarán el espín de los electrones (que pueden tomar uno de dos valores y obtener un sistema de información binario).

Premio Nobel en Química
Anuncio:
Miércoles 5 de Octubre (9:45am GMT, 4:45am Perú).

  1. Allen J. Bard por el desarrollo y la aplicación de la microscopía de barrido electroquímico. Este equipo, al ser un microscopio de barrido, analiza la superficie de una determinada muestra ubicada dentro de una solución electrolítica usando un microelectrodo de platino u oro, que cuantifica la cantidad de corriente que atraviesa por la superficie de una muestra a diferentes distancias.
  2. Jean M. J. Fréchet, Donald A. Tomalia & Fritz Vögtl por la invención y desarrollo de los polímeros dendríticos (dendrímeros). Estos polímeros tienen una arquitectura tridimensional sumamente ramificada y nanoestructurada, son sumamente versátiles y de bajo costo, y pueden ser desarrollados con propiedades físicas y químicas específicas para cada aplicación (Ej.: revestimientos, catalizadores, modificadores de viscosidad, termoplásticos, portadores de fármacos, vectores en terapia génica, etc.).
  3. Martin Karplus por ser el pionero en las simulaciones de la dinámica de las moléculas biológicas. Junto a su equipo de trabajo en Harvard, analizan la estructura electrónica, la geometría molecular, la dinámica molecular de sustancias con importancia química y biológica, entrando en el campo de la mecánica cuántica semi-empírica y la mecánica estadística teórica y computacional.
  4. Robert S. Langer & Joseph P. Vacanti (otra vez) por ser los pioneros en la investigación sobre la ingeniería de tejidos y la medicina regenerativa, a través del uso de medios de cultivo en 3D, desarrollo de armazones biocompatibles para la regeneración de órganos y cultivo de células madre con el fin de generar órganos a partir de cultivos celulares para generar y trasplantar órganos complejos compatibles con el paciente.

Vía | Thomson Reuters Science.

22 septiembre, 2011

Desconcertantes datos del CERN hace que los neutrinos sean más rápidos que la luz

Actualización (22/09/2011; 23:20) Artículo científico publicado en el portal ArXiv.org:
http://arxiv.org/ftp/arxiv/papers/1109/1109.4897.pdf
Vía | Cuentos Cuánticos.


Esta tarde, todos los medios de comunicación del mundo han hecho eco de la noticia de un trabajo realizado por físicos del Centro Europeo de Investigación Nuclear (CERN) y del Laboratorio Nacional del Gran Sasso, el cual sugeriría que los neutrinos podrían viajar a velocidades superiores a la de la luz, amenazando la universalidad de la Teoría Especial de la Relatividad que propuso Albert Einstein hace más de 100 años, la cual establece que la velocidad de la luz en el vacío es la cosa más rápida del universo y nada ni nadie la puede superar, siendo la base de la Física Moderna que hoy manejamos.

opera_neutrino_light_experimenYo sugiero que se tome esta noticia con mucha cautela a pesar que la mayoría de los medios de comunicación se empecinen en mostrarlo como prueba contundente (sensacionalismo). En primer lugar porque el trabajo no ha sido publicado en una revista científica, así que se sabe muy poco o nada del diseño experimental empleado, los controles usados para contrastar los resultados y la forma cómo se han analizado los datos. Si el estudio no es publicado, pasando por las revisiones de expertos en el tema y la reproducción de los datos en otros centros de investigación, la noticia no tiene validez científica alguna. Aunque, los autores del estudio han manifestado que pondrán el artículo para su revisión previa en el portal ArXiv.org.

Entrando en la historia, los físicos que trabajan en el experimento OPERA, un sofisticado detector de partículas de 1,300 toneladas métricas alojado a 1.4Km bajo tierra en el Laboratorio Nacional del Gran Sasso (Italia), estudiaron los neutrinos disparados desde el CERN, ubicado a 730Km de distancia. Durante los últimos meses, repetían y repetían el mismo experimento porque los resultados que obtenían parecían salir de toda lógica. Resulta que los neutrinos disparados desde el CERN arribaban 60 nanosegundos (ns) antes de lo que se esperaría si estos alcanzaran la velocidad de la luz (299,792,458m/s).

Los neutrinos son una de las partículas subatómicas más esquivas para los físicos ya que, a parte de tener una masa prácticamente insignificante, casi ni interactúan con la materia. Los neutrinos son producidos en todo momento por las estrellas, producto de las reacciones nucleares que se llevan a cabo dentro de ellas. Nuestro planeta también produce neutrinos por el decaimiento radiactivo de los elementos que la conforman. Cada segundo nos atraviesan millones de ellos, y nos traspasan como si no existiéramos. Es por esta razón que los detectores de neutrinos deben ubicarse cientos de metros bajo tierra, donde los otros tipos de rayos cósmicos ya no puedan penetrar más, y reducir el fondo de lectura al mínimo. Luego queda esperar que al menos uno de los millones de neutrinos que pasan cada segundo interaccione con el detector.

En los tres años que lleva el experimento, OPERA ha detectado unos 16,000 neutrinos muónicos disparados por el Súper Sincrotrón de Protones del CERN. Los físicos calcularon que si los neutrinos alcanzan la velocidad de la luz, deberían tardar 2.43 milisegundos en atravesar los 730Km que separan a estos dos centros de investigación. Sin embargo, en promedio, los neutrinos alcanzaban al detector del OPERA 60ns antes de lo esperado, con una incertidumbre de 10ns.

Si bien no soy físico nuclear experto en neutrinos, el comunicado de prensa del estudio me ha generado ciertas preguntas. En primer lugar, para calcular estas pequeñas cantidades de tiempo de manera precisa se necesitan de relojes sumamente sofisticados y exactos. Los investigadores dicen haber usado el Sistema de Posicionamiento Global (GPS) para calcular la distancia y los tiempos, gracias a que estos cuentan con relojes atómicos —los más precisos desarrollados hasta ahora. Sin embargo, según la Teoría de la Relatividad (que irónicamente, el estudio estaría por desmoronar), los relojes atómicos se retrasan debido a la gran velocidad a la que orbitan los satélites que los transportan. Si bien este atraso es insignificante, puede ser significativo cuando se trata de medir tiempos en nanosegundos, así que los 10ns de incertidumbre podrían estar subestimados.

Otra observación que hago es referente a la tecnología empleada. Nuestra tecnología esta restringida por las propiedades físicas de los materiales que usamos en los dispositivos electrónicos. Esto quiere decir que la información que se transmite por los cables de fibra óptica y vía satelital, o los que viajan por los circuitos integrados y materiales semiconductores de los dispositivos electrónicos, no supera nunca la velocidad de la luz, así que sería muy difícil detectar algo que viaje más rápido que ella, y la incertidumbre puede ser mucho mayor. No se si mi lógica este bien planteada.

¿Cómo se sabe en qué momento partió un determinado neutrino desde el CERN y cómo se tiene la seguridad de que ese mismo neutrino fue el detectado en OPERA?. En el mundo de la física nuclear y la física de partículas todo se maneja por estadísticas y probabilidades, y no de manera individual. Además, ¿cómo se puede diferenciar a los neutrinos del CERN de los neutrinos que vienen del espacio?. Me imagino que es en base a su energía o al tipo de neutrino que son generados por el CERN.

Si los neutrinos viajaran más rápido que la luz, tal vez nos hubiéramos dado cuenta de ello hace algunos años atrás. Cuando una estrella colapsa y estalla convirtiéndose en una gran supernova, desprende una gran cantidad de partículas subatómicas (rayos cósmicos), generando una gran cantidad de neutrinos. Entonces, pongamos el caso del la Supernova 1987A, la cual estaba —en el año 1987— a unos 168,000 años luz de distancia de la Tierra. Si en 730Km, el neutrino arribó 60ns antes de lo que lo hubiera hecho la luz; entonces, a una distancia de 168,000 años luz (1,5 x 1015Km), los neutrinos hubieran arribado a la Tierra casi 4 años antes de haber observado la explosión de la estrella. Sin embargo, ambos llegaron casi al mismo tiempo.

Finalmente, si los neutrinos viajan más rápido que la luz, se debería observar evidencias de algún tipo de efecto Cherenkov, el cual es un tipo de onda de choque que se genera cuando una partícula viaja más rápido que la luz. 

En fin, solo queda esperar que el artículo se publique, pero ayudarían de mucho los comentarios de los físicos, quienes son más conocedores del tema, para poder resolver algunas de estas interrogantes.

…(Bonus Track)…

Para terminar me voy a permitir “plantear una teoría” un poco loca [bueno, dentro del mundo de la física de partículas, cualquier cosa es posible]. Partículas que viajen más rápido que la luz existen, pero sólo bajo cierto tipo de condiciones. Por ejemplo, tal vez no todos han tenido la posibilidad de observar el núcleo de un reactor nuclear trabajando a máxima potencia. Si no lo han visto se ve más o menos así:

cherenkov

Es de color azul intenso, muy bonito. A esto se le conoce como el efecto Cherenkov. Este fenómeno se da porque el material combustible de los reactores nucleares (las varillas portando el Uranio) se encuentran sumergidos en una gran piscina de agua, de unos 10 a 15 metros de profundidad. Resulta que en el agua, la luz reduce su velocidad hasta en un 25%. Sin embargo, las partículas cargadas liberadas por la fisión nuclear se desprenden a una velocidad que logra superar a la de la luz, formándose una onda de choque. Por ejemplo, cuando un avión supersónico rompe la barrera del sonido, la onda de choque genera un fuerte estruendo. De la misma forma, cuando una partícula cargada viaja más rápido que la luz, la onda de choque genera una hermosa radiación luminosa azul.

Ahora veamos el espacio, no como un lugar vacío [que no podamos ver nada no significa que no haya nada]. El espacio interestelar está lleno de partículas conocidas como rayos cósmicos, por ejemplo, protones, neutrones, núcleos de helio, electrones, etc.; así como también, puede estar llena de la hipotética materia oscura, todas ellas con masa. En otras palabras, el espacio interestelar es un medio lleno de partículas, al igual que el agua o el aire.

Entonces, tal vez la velocidad de la luz “en el completo vacío” sea mucho mayor a los 299,792,458m/s que hoy se establece. Pero, debido a la presencia de estas partículas, la velocidad de la luz se reduce, haciéndonos creer que ésta es la velocidad máxima que puede alcanzar, cuando en realidad no lo es. Sin embargo, como los neutrinos prácticamente no interactúan con la materia, no se ven afectados por la presencia de estas partículas, ya sea en el espacio o en la Tierra, así que su velocidad podría ser mayor a la velocidad de la luz en el espacio (el cual se cree que es vacío), pero no será mayor que en el vacío real (cuyo valor desconocemos por ahora).

Bueno, creo que se me han quemado los chicotes, eso me pasa por entrometerme en temas que no me incumben. Así que los físicos que hayan leído hasta este punto, perdonen el atrevimiento de este biólogo.

21 septiembre, 2011

, ,

Controversia sobre la proteína que prolonga la vida

Uno de los grandes anhelos de la humanidad desde tiempos muy remotos es encontrar la forma de prolongar su esperanza de vida. En el pasado se creía en el “agua de la eterna juventud”, ahora los científicos buscan los “genes de la eterna juventud”.  Las sirtuinas fueron los candidatos más fuertes por muchos años ya que se demostró que prolongaban la vida de levaduras, moscas de la fruta y nemátodos hasta en un 50%. Sin embargo, muchos investigadores creen que este tipo de estudios tienden a confundir el efecto de un gen con el efecto de muchos genes que actúan de forma coordinada dentro de un organismo. El día de hoy, han aparecido dos estudios en Nature que ahondan más la controversia sobre este tema. Por un lado, se demuestra un efecto significativo en condiciones especiales mientras que por el otro se descarta cualquier tipo de relación entre las sirtuinas y la esperanza de vida.

sirtuin

Muchos investigadores han dedicado gran parte de su carrera a encontrar genes y mecanismos biológicos relacionados con la vejez para modificarlos y prolongar la esperanza de vida de las personas. Uno de estos mecanismos se basa en la restricción calórica, la cual ha demostrado prolongar la vida de muchos organismos diferentes. Otros ven la clave en los telómeros y en el estrés oxidativo de las mitocondrias. Y desde hace 10 años, en las sirtuinas.

Toda esta historia de las sirtuinas empezó en el año 2001, cuando dos investigadores del Instituto Tecnológico de Massachusetts (MIT) descubrieron que la sobreexpresión del gen que codifica para las sirtuinas (SIR2) prolongaban la vida de las levaduras (Saccharomyces cerevisiae), nemátodos (Caenorhabditis elegans) y moscas de la fruta (Drosophila melanogaster) hasta en un 50%. Se especulaba por ese entonces que la restricción calórica promovía la expresión del gen Sir2 y que moléculas como el resveratrol también tenían este mismo efecto. Y como era de esperarse, de este descubrimiento se anclaron varias empresas farmacéuticas para promocionar productos a base de activadores de las sirtuinas para el rejuvenecimiento de la piel.

Sin embargo, estudios más recientes han puesto en jaque el efecto de la restricción calórica y el resveratrol sobre las sirtuinas. Es más, otros estudios no han encontrado relación significativa entre la sobreexpresión de las sirtuinas y la esperanza de vida, porque en este tipo de estudios se suele confundir el efecto de un gen con el efecto de la dotación genética de un organismo sobre la vejez. En otras palabras, puede ser que haya otros genes involucrados con la prolongación de la esperanza de vida, pero sus efectos se ven enmascarados por la sobreexpresión de un gen, el cual podría no tener nada que ver con el efecto observado.

Con el fin de dar una respuesta definitiva a esta interrogante, un grupo de investigadores liderados por Camilla Burnett y el Dr. David Gems de la Escuela Universitaria de Londres, analizaron el efecto de las sirtuinas sobre la vejez en el nemátodo y la mosca de la fruta usando líneas transgénicas.

En el primer experimento, desarrollaron un nemátodo transgénico que sobreexpresaba el gen Sir-2.1 —gen homólogo a Sir2 de las levaduras— al cual llamaron LG100. Como era de esperarse, este nemátodo vivió mucho más que el nemátodo silvestre (WT). Pero cuando Burnett et al. cruzaron 5 veces consecutivas al nemátodo LG100 con el WT, su esperanza de vida se redujo sin afectar sus niveles de sirtuinas. Por otro lado, los investigadores observaron que en los nemátodos LG100, un gen llamado Dyf se encontraba mutado. Ellos creían que tal vez Dyf mutante era el responsable de la mayor longevidad de estos nemátodos. Los resultados mostraron que los nemátodos con el gen Dyf mutante vivían más a pesar de que los niveles de sirtuinas eran similares al de los nemátodos WT. Lo mismo ocurrió con los nemátodos LG100 a los que le inactivaron el gen Sir-2.1 usando un ARN silenciador.

Este mismo experimento fue repetido en la mosca de la fruta. En este caso desarrollaron moscas transgénicas que sobreexpresaban el gen dSir2 —homólogo al Sir2 de levaduras y al Sir-2.1 de nemátodos. Esta mosca transgénica vivía más que las moscas silvestres. Sin embargo, tal como en el experimento anterior, cuando las cruzaron con otras moscas normales, la esperanza de vida se reducía manteniendo los niveles de sirtuinas similares a las del grupo control.

Todos estos resultados han tomado en cuenta la constitución genética de los organismos en estudio e indicarían que la sobreexpresión del gen Sir2 no es suficiente para prolongar la esperanza de vida de los nemátodos. [Curiosidad: Esta es una de las pocas veces que Nature publica un artículo con resultados negativos].

Sin embargo, los mismos investigadores que empezaron con esta historia en el 2001, han publicado una comunicación breve donde explican el por qué de sus resultados de aquel entonces. Resulta que durante el procedimiento de desarrollo del nemátodo transgénico se generó una mutación en el gen Dyf (el que acabamos de ver un par de párrafos atrás). Debido a esta mutación, la esperanza de vida se prolongaba hasta en un 50% en los nemátodos. Cuando Tissenbaum y Guarente quitaron esta mutación a los nemátodos LG100, la esperanza de vida aún se prolongaba pero sólo en un 10 a 14%, mucho menos a lo reportado en el 2001.

Sin embargo, como vimos en el experimento de Burnett et al. la prolongación de la esperanza de vida por efecto del Dyf mutante no está relacionado con Sir2, pero cuando se analiza al revés, o sea, Sir2 con Dyf normal como lo hicieron Viswanathan y Guarente sí parece haber una cierta correlación. Estos datos contradictorios pero válidos generan más controversia, pero de lo que se puede estar seguro es que ni la restricción calórica ni el resveratrol influyen en la prolongación de la esperanza de vida a través de las sirtuinas.


Referencias:

ResearchBlogging.orgTissenbaum, H., & Guarente, L. (2001). Increased dosage of a sir-2 gene extends lifespan in Caenorhabditis elegans Nature, 410 (6825), 227-230 DOI: 10.1038/35065638

Viswanathan, M., & Guarente, L. (2011). Regulation of Caenorhabditis elegans lifespan by sir-2.1 transgenes Nature, 477 (7365) DOI: 10.1038/nature10440

Burnett, C., Valentini, S., Cabreiro, F., Goss, M., Somogyvári, M., Piper, M., Hoddinott, M., Sutphin, G., Leko, V., McElwee, J., Vazquez-Manrique, R., Orfila, A., Ackerman, D., Au, C., Vinti, G., Riesen, M., Howard, K., Neri, C., Bedalov, A., Kaeberlein, M., Sőti, C., Partridge, L., & Gems, D. (2011). Absence of effects of Sir2 overexpression on lifespan in C. elegans and Drosophila Nature, 477 (7365), 482-485 DOI: 10.1038/nature10296

20 septiembre, 2011

, ,

Se identifican las señales que activan el desarrollo de las conexiones nerviosas

Las dendritas son como los tentáculos de las neuronas, encargadas de establecer las conexiones con otras neuronas a fin recibir y transmitir las señales y estímulos desde los tejidos hacia el cerebro, y viceversa. Sin embargo, a pesar de su importancia para el desarrollo del sistema nervioso, se sabe muy poco o nada sobre los mecanismos fisiológicos y moleculares implicados en su formación. En un artículo publicado hoy en PLoS Biology, un grupo de investigadores del Instituto Cerebral de Queensland han revelado el rol que cumplen dos moléculas complementarias —LIN-44 y LIN-17— en el desarrollo de las dendritas.

dendritic_formation

Las dendritas son estructuras celulares complejas que se proyectan y ramifican desde la ‘cabeza’ una neurona hacia los ‘pies’ de otra. Su principal función es recibir los estímulos del ambiente o del entorno celular y transmitirlos a otras neuronas a través del axón. En otras palabras, son las encargadas de establecer las conexiones nerviosas (sinapsis). Sin embargo, debido a su complejidad y a la variedad de sus formas, los científicos no han podido entender de qué manera se desarrollan y qué factores están involucrados en ello.

Los primeros trabajos se enfocaron en los factores de desarrollo de los axones, los cuales son más conocidos. Estos factores demostraron tener un efecto opuesto en el desarrollo de las dendritas. Recientemente, se han encontrado unas moléculas altamente conservadas y que están muy relacionadas con el desarrollo del sistema nervioso, tales como: las moléculas señalizadoras Wnt y los receptores Frizzled.

En las ratas, las moléculas Wnt promueven la arborización de las dendritas, mientras que en la mosca de la fruta promueven el reordenamiento de las ramas de las dendritas. En los nemátodos, la proteína LIN-44 (miembro de la familia de las Wnt) regula la polaridad neuronal, la formación de las conexiones neuronales, la orientación y desarrollo de los terminales del axón; es por esta razón que es muy probable que también estén involucrados en las primeras etapas del desarrollo de las dendritas. El efecto de LIN-44 se da a través de su receptor LIN-17 (miembro de los receptores Frizzled).

Para estudiar el efecto de este ligando y su receptor en el desarrollo de las dendritas, la Dra. Leonie Kirszenblat y sus colaboradores del Instituto Cerebral de Queensland usaron las neuronas sensoriales de oxígeno conocidas como PQR. Estas neuronas se caracterizan por ser únicas en cada nemátodo, desarrollarse una vez que eclosionan de los huevos y se convierten en larvas y tener sólo un axón y una dendrita, facilitando así el trabajo.

Cuando los investigadores mutaron el gen lin-44, la dendrita de las neuronas PQR tuvieron serios problemas de desarrollo, siendo más pequeña de lo normal, muchas veces estaba ausente y en otras se extraviaba en su camino hacia el axón de otra neurona. Sin embargo, la LIN-44 no se expresaba propiamente en las neuronas PQR.

Kirszenblat et al. observaron que este factor se expresaba en las células de la cola de los nemátodos, cerca a la localización final de la dendrita. Esto sugería que LIN-44 actúa como una señal atractiva que dirige el crecimiento de la dendrita hacia esa región. Para demostrar esta hipótesis, los investigadores expresaron el LIN-44 en otras regiones diferentes del nemátodo (Fig. A, verde) y observaron que la dendrita siempre crecía hacia la dirección donde se encontraba el factor (Fig. B).

LIN-44

Los investigadores también demostraron que para un correcto desarrollo de la dendrita, LIN-44 debía expresarse durante el desarrollo embrionario. Cuando Kirszenblat y sus colegas extirparon las células de la cola de la larva del nemátodo (productoras de LIN-44), la dendrita de la neurona PQR no se vio afectada, mientras que cuando se inactivaba el gen lin-44 durante el desarrollo embrionario del nemátodo, la dendrita tenía el mismo problema de desarrollo que el observado en los mutantes. Por otro lado, cuando a las larvas mutantes se les reactivaba el gen lin-44 antes de que salgan del huevo, la dendrita se desarrollaba correctamente.

neuron_conectionFinalmente quedaba por analizar la forma cómo las neurona PQR detectaba la presencia de LIN-44. Los investigadores sabían que LIN-17 era la molécula receptora de LIN-44, así que la mutaron para ver que ocurría. Como era de esperarse, los nemátodos con el gen lin-17 mutante mostraban los mismos defectos que los mutantes para el gen lin-44. Además, Kirszenblat y sus colaboradores observaron que LIN-44 se expresaba en la membrana de la neurona PQR, lo que indicaría que la interacción de ligando LIN-44 y su receptor LIN-17, guía la formación de la dendrita. También encontraron que el factor EGL-20 (miembro de la familia de las Wnt) tenía un efecto similar a LIN-44.

Este trabajo es muy importante ya que nos permite conocer una parte del intrincado mecanismo de formación de las redes neuronales. Sus implicancias dentro de las neurociencias son muchas, sobre todo si se pretende restaurar aquellas conexiones nerviosas que fallan en las personas con problemas de vista, oído o habla, o en aquellas personas con lesiones en la columna vertebral como producto de un accidente, a través del uso de las células madre.


Referencia:

ResearchBlogging.org Kirszenblat, L., Pattabiraman, D., & Hilliard, M. (2011). LIN-44/Wnt Directs Dendrite Outgrowth through LIN-17/Frizzled in C. elegans Neurons PLoS Biology, 9 (9) DOI: 10.1371/journal.pbio.1001157

Mapa interactivo de los cables de fibra óptica submarinos

interactive-map

TeleGeography es un servicio interactivo gratuito que nos muestra todos los cables de telecomunicaciones que pasan bajo los océanos del mundo —del cual depende el internet que nos llega a casa— que fue desarrollado por el Servicio de Investigación de Banda Ancha Global. Seleccionando cada uno de los 188 cables de fibra óptica submarinos que aparecen en el menú podemos obtener información relevante sobre éste, por ejemplo: su nombre, su ruta, sus puertas de entrada, su longitud, sus dueños, su página web, etc.

Para el Perú, la puerta de entrada para las telecomunicaciones está en Lurín, donde confluyen tres cables de fibra óptica: PAN-AM (de 7,050Km perteneciente a las principales empresas telefónicas de cada país como Telefónica del Perú, Entel Chile, Telecom, AT&T, entre otras); Sam-1 (de 25,000Km cuyo dueño es la Telefónica) y SAC/LAN (de 20,000Km y cuyo dueño es Global Crossing).

Estos cables llevan toda la información al mundo con una velocidad de al menos 5Gbps (unas 5,000 veces más rápido que el internet común que tenemos en casa). Este mapa interactivo se actualiza regularmente, así que si te gustan las telecomunicaciones, es una bonita herramienta para investigar.

Link | http://www.submarinecablemap.com/

19 septiembre, 2011

¿Qué tan bien distingues los colores?

see-colors

Una interesante aplicación en línea que te permite saber qué tan bien distingues los colores. La paleta te presenta dos colores, uno en cada extremo, y en el medio, una degradación de 20 tonalidades diferentes que van desde un color hacia el otro. La idea de ejercicio es que arrastres los colores del centro y los ordenes de la manera correcta.

Al final, calculas tu puntuación, siendo 0 una visión perfecta y 99 una sumamente problemática. El hecho es que 1 de cada 255 mujeres y 1 de cada 12 varones tienen algún tipo de problemas para diferenciar los colores. Yo obtuve 16 puntos, ¿tú cuantos obtuviste?

Link | http://www.xrite.com/custom_page.aspx?PageID=77&lang=es

18 septiembre, 2011

, ,

Volviendo las células cancerosas luminosas para poder extraerlas

Cuando a una mujer se le diagnostica un cáncer de ovario en etapas avanzadas, el pronóstico no es muy bueno. La única forma de prolongar su esperanza de vida es removiendo los tumores mediante una cirugía (citorreducción) y sometiéndolas a una quimioterapia agresiva. Sin embargo, remover el tejido canceroso es una tarea complicada porque es muy difícil diferenciarlo del tejido sano. Ahora, un grupo de investigadores holandeses han usado una molécula fluorescente para evidenciar la presencia del tejido canceroso facilitando así su eliminación. El artículo aparece publicado hoy en Nature Medicine.

De todas las neoplasias que afectan a las mujeres, el cáncer epitelial de ovario es la causa más frecuente de muerte en EEUU y Europa. Este cáncer no muestra manifestaciones clínicas claras en los primeras etapas de desarrollo y la falta de pruebas discriminatorias hacen que el diagnóstico se de cuando ya es demasiado tarde. Por esta razón, sólo el 45% de las mujeres con cáncer de ovario llega a vivir más de 5 años, y este porcentaje se reduce considerablemente en etapas avanzadas.

En la actualidad, el tratamiento más efectivo es la cirugía citorreductiva (remoción del tejido canceroso) combinada con la quimioterapia. Sin embargo, es muy difícil remover todas las células cancerosas y muchas veces éstas pueden ser bastante resistentes a los agentes terapéuticos. Este es un factor importante a tomar en cuenta en el pronóstico de la paciente ya que las células cancerosas que queden pueden volver a crecer y proliferarse rápidamente.

Los cirujanos cuentan con la ayuda de los rayos X, la tomografía computarizada (CT), las imágenes de resonancia magnética (MRI) y el ultrasonido para visualizar los ovarios y remover los tumores, pero estas técnicas no permiten diferenciar claramente al tejido canceroso del tejido sano. Entonces, si se quiere mejorar la eficacia de la citorreducción se debe desarrollar algún tipo de estrategia que permita marcarlos selectivamente.

Un grupo de científicos holandeses liderados por el Dr. Gooitzen van Dam de la Universidad de Groningen, han usado moléculas fluorescentes por primera vez en humanos para evidenciar la presencia de células cancerosas en tiempo real, y han facilitado el proceso de la cirugía citorreductiva [ver el video].

En el año 2008, Kalli et al. demostraron que la expresión del receptor α de folato (FR-α) se incrementa entre un 90 a 95% en las células cancerosas del ovario, siendo un blanco ideal para marcadores fluorescentes y agentes terapéuticos. Este receptor es ampliamente usado en el radiodiagnóstico del cáncer de ovario, donde el folato (vitamina B9) es conjugado con el DTPA —una molécula que captura metales— para ser marcado con elementos metálicos radiactivos.

van Dam y sus colaboradores unieron una molécula fluorescente llamada fluoresceína al DTPA conjugado con el folato (Fig. a) y lo administraron vía intravenosa a diez pacientes de 60 años de las cuales cuatro presentaban tumores de ovario malignos. El folato viaja por el torrente sanguíneo hasta llegar a los ovarios donde es capturado por los FR-α, metiéndose al citoplasma de las células cancerosas y focalizando la fluorescencia sólo en los tejidos tumorales (Fig. b). Luego la fluoresceína es excitada con un láser a una longitud de onda 495nm, emitiendo fluorescencia verde a 520nm.

folate

Los cirujanos lograron diferenciar fácilmente al tejido canceroso de tejido sano y tuvieron una mayor facilidad para extirpar los pequeños tumores. La técnica demostró ser sumamente específica y tener una gran resolución, permitiendo localizar tejidos cancerosos tan pequeños como el punto final de esta oración.

Sin embargo, aún falta investigar que factores afectan la expresión del receptor de folato ya que uno de los pacientes con cáncer de ovario maligno no expresó este receptor. Por suerte, los investigadores demostraron que la expresión de este receptor no se ve afectada a causa de la quimioterapia. Además, lo más resaltante de este trabajo fue que el tejido canceroso fue eliminado con mayor facilidad, mejorando así la eficiencia de la citorreducción. Ahora quedaría esperar y ver si hay una mejora significativa en la esperanza y calidad de vida de los pacientes sometidos a esta prueba experimental.

Para que esta técnica sea más prometedora, deben identificarse moléculas que se expresen de manera específica en las células cancerosas de otros órganos como el útero, próstata, huesos, etc., para así desarrollar ligandos específicos que transporten la fluorescencia a las zonas afectadas. Por otro lado deben desarrollarse nuevas moléculas fluorescentes con longitudes de onda más largas —dentro del espectro infrarrojo cercano (>700nm)— para poder identificar tumores que se encuentran en tejidos más profundos y en órganos más internos.


Referencia:

ResearchBlogging.orgvan Dam, G., Themelis, G., Crane, L., Harlaar, N., Pleijhuis, R., Kelder, W., Sarantopoulos, A., de Jong, J., Arts, H., van der Zee, A., Bart, J., Low, P., & Ntziachristos, V. (2011). Intraoperative tumor-specific fluorescence imaging in ovarian cancer by folate receptor-α targeting: first in-human results Nature Medicine DOI: 10.1038/nm.2472

, , ,

Jugadores de Foldit resuelven la estructura de una proteína viral

[Antes de leer esta entrada, pueden leer acerca de Foldit en el artículo que escribí en el blog el año pasado]

En tan solo tres semanas, los jugadores de Foldit han resuelto la estructura tridimensional de una enzima de un retrovirus llamada proteasa, cuya configuración ha sido esquiva a los científicos por más de una década. Según el artículo publicado hoy en Nature Structural & Molecular Biology, este logro provee una excelente oportunidad para diseñar fármacos más eficientes para tratar diferentes enfermedades virales como el VIH.

foldit

Las proteínas están formadas por una determinada secuencia de aminoácidos. Cada aminoácido tiene propiedades químicas diferentes que influyen en la forma y función de la proteína. Como simple analogía, imagínense alambre metálico que adquiere una determinada forma en función a la fuerza que le apliques. En una proteína, las fuerzas son de atracción o repulsión en base a la naturaleza química de cada uno de los 20 aminoácidos diferentes que pueden conformarla.

Para determinar la estructura de una proteína no basta con conocer su secuencia de aminoácidos, ya que las formas como éstos pueden interactuar son infinitas. Los científicos deben purificarlas, cristalizarlas y someterlas a los rayos X o a la resonancia magnética (RMN) para analizar la forma como dispersan o absorben la radiación electromagnética, y mediante programas de computación, analizar los datos para obtener la estructura final. Este proceso es sumamente largo y costoso, y muchas veces las proteínas no pueden purificarse o cristalizarse ya que se desnaturalizan (pierden su forma) en el proceso.

Foldit es un juego de computadora en línea creado por investigadores de la Universidad de Washington, donde los jugadores manipulan las estructuras de proteínas cuyas configuraciones espaciales aún son desconocidas. Usando una serie de herramientas de modelamiento dispuestas en una interfaz gráfica amigable —algo así como el AutoCAD® que usan los ingenieros—, los jugadores doblan, giran, abren y cierran las cadenas de aminoácidos a fin de encontrar la disposición más estable.

En Foldit, los jugadores no parten desde cero, o sea, no parten desde una cadena estirada de aminoácidos, sino parten desde una estructura predicha por una herramienta bioinformática llamada Rosetta. Este programa usa el siguiente algoritmo para encontrar la mejor estructura proteica: i) comienza con una cadena de aminoácidos completamente estirada; ii) mueve una parte de la cadena para obtener una nueva forma; iii) calcula la energía libre de la nueva forma; iv) acepta o rechaza el cambio de energía obtenido (diferencia entre la energía antes y después del movimiento); y v) repite los pasos ii, iii y iv hasta obtener una estructura final predicha. A todos estos pasos se llama “trayectoria” y el programa analiza aquella estructura que tuvo la trayectoria con la cantidad de energía más baja. Finalmente, se hace los ajustes de cada estructura mediante ligeros cambios en las interacciones químicas. Sin embargo, no siempre se obtiene la misma forma de baja energía porque las posibilidades son infinitas.

Debido a la cantidad de cálculos que hace Rosetta, los desarrolladores usan los recursos de las computadoras de personas que voluntariamente las ofrecen al proyecto a través de una simple aplicación llamada Rosetta@home. Mientras no usas tu computadora, Rosetta@home entra en actividad y ejecuta el algoritmo el cual tu puedes observarlo, en tiempo real, como protector de pantalla.

Entonces, a partir de la estructura proteica predicha por Rosetta, lo jugadores de Foldit empiezan a realizar pequeños movimientos a fin de encontrar las formas con menores cantidades de energía libre (termodinámicamente más estables). Además, al ser un juego multijugador, existe una participación colaborativa que acelera el proceso, ya que los jugadores se encuentran agrupados en “clanes” que trabajan de manera conjunta a fin de obtener más puntos y subir en el ranking. Aunque no lo crean, la competencia es muy fuerte ya que, si bien puede ser tomado como un prejuicio, los científicos y la gente que gusta de la ciencia son bastante geeks.

Para el presente trabajo, el equipo del Dr. Firas Khatib puso un puzle a dos de los grupos más renqueados de Foldit —Contenders y Void Crushers. El puzle era la proteasa retroviral del Virus Mason-Pfizer del mono (M-PMV), el cual causa el SIDA en los simios. Estas enzimas cumplen un rol importante en la maduración y proliferación de los virus como el VIH y son usados como blancos de los retrovirales modernos, así que saber su estructura molecular precisa sería de gran ayuda para diseñar fármacos más específicos y eficientes.

Los científicos han tratado de encontrar la forma de esta proteasa usando el reemplazamiento molecular (MR) por más de una década. Esta técnica se basa en determinar la estructura de una proteína comparándola con otras proteína similares con estructuras ya resueltas o a partir de otras formas cristalinas de la misma proteína mucho más fáciles de obtener.

Durante las tres semanas que duró la competencia, los jugadores de Foldit lograron obtener la estructura de la proteasa —partiendo desde los modelos parciales obtenidos mediante RMN—, la cual fue bastante aproximada a la versión original determinada posteriormente mediante cristalografía de rayos X. Además, los modelos obtenidos por los jugadores (Fig. a) fue mejor que los obtenidos por la predicción de Rosetta (Fig. b, c y d).

foldit-1Las estructuras originales fueron determinadas posteriormente y se presentan de color azul en las cuatro figuras. a. Comparación con la estructura predicha por el jugador de Foldit (verde). b. Comparación con la estructura inicial predicha por Rosetta (amarillo). c y d. Comparación con las estructuras optimizadas predichas por Rosetta (rojo y celeste).

Para que esta proteasa sea funcional, debe estar formada por dos de estas proteínas conocidas como monómeros. Entonces, la importancia de este trabajo es que al conocer la estructura más precisa de la proteína se pueden diseñar fármacos que actúen a nivel de su superficie y eviten que los monómeros se unan par formar la proteasa funcional. De esta manera, el virus perderá su capacidad de proliferación y la infección puede ser controlada.

Por otro lado, predecir las estructuras usando Foldit y Rosetta@home reduce considerablemente los costos económicos y laborales que acarrea la purificación y cristalización de proteínas, a través de la interacción de los videojuegos y la investigación científica.


Referencia:

ResearchBlogging.orgKhatib, F., DiMaio, F., Cooper, S., Kazmierczyk, M., Gilski, M., Krzywda, S., Zabranska, H., Pichova, I., Thompson, J., Popović, Z., Jaskolski, M., & Baker, D. (2011). Crystal structure of a monomeric retroviral protease solved by protein folding game players Nature Structural & Molecular Biology DOI: 10.1038/nsmb.2119

,

“Por favor, discúlpame que no te envíe esta carta —Pero, no sé tu nueva dirección”

Quien no ha oído hablar de Richard Feynman, remarcable físico estadounidense, ganador del Premio Nobel de Física en 1965 por sus estudios de las propiedades e interacciones de las partículas sub-atómicas, miembro importante del Proyecto Manhattan y extraordinario profesor y divulgador científico. A parte de eso, fue un músico y pintor amateur.

Si bien Feynman participó de uno de los proyectos más atroces de la humanidad, ni él ni ninguno de los investigadores que participaron en el Proyecto Manhattan tienen responsabilidad alguna por lo que pasó después, simplemente, muchas veces los esfuerzos de los científicos no son aplicados en la dirección correcta. Sin embargo, lo que motivó a Feynman seguir trabajando en la bomba atómica era el miedo que sentía si Alemania lograba conseguirlo primero.

En ese entonces, obviamente, no existía el correo electrónico, toda la comunicación más formal y cercana se daba a través de cartas, las cuales tardaban entre días y semanas para llegar a su destinatario y otros días y semanas más hasta recibir la respuesta. Feynman se caracterizaba por enviar muchas cartas, todas ellas recopiladas en un libro llamado Perfectly Reasonable Deviations from the Beaten Track: The Letters of Richard P. Feynman. Entre todas esas cartas hay una realmente emotiva y es la que escribió a su primera esposa, Arline, con quien contrajo matrimonio sabiendo que ella sufría de tuberculosis, una enfermedad terminal por ese entonces.

Arline murió en junio de 1945 —casi al mismo tiempo en que Feynman y su equipo lograron obtener y probar la primera bomba atómica— pero la fecha a la cual está firmada la presente carta es de octubre de 1946, bastante extraño ¿cierto?. Esta carta la tuvo por mucho tiempo en su bolsillo, constantemente abierta y doblada, y esta es una reproducción de lo que decía [está en inglés, pero no creo que tengan problemas en entenderlo, aquí una traducción libre].

feynman

Leer esta carta te deja una extraña sensación, creo que hasta un poco escalofriante. En primer lugar porque es difícil pesar que una persona como Feynman, gran científico, que todo lo analiza desde un punto lógico y apegado siempre a la realidad, escriba de esta forma, tal como lo haría uno de esos cursis pseudo-poetas que abundan en la actualidad. Y en segundo lugar, porque leer una carta de esta forma te transporta imaginariamente hasta la fecha a la cual fue escrita, te hace pensar que se le pasaba a a Rich por la cabeza para tener guardada en su bolsillo una carta enviada para una persona muerta. Creo que esta es una de las cosas que demuestra que un ilustre científico es también un ser humano, con sentimientos y pasiones, con conflictos de intereses personales, pero que logró superar ya que después de un par de años contrajo matrimonio un par de veces más.

Vía | Culture of Science.

17 septiembre, 2011

, ,

¿Y si no existiera la luna?

Tanto el Observatorio Austral Europeo (ESO) y el Telescopio Espacial Kepler, han permitido, en los últimos meses, descubrir mundos fascinantes en otros sistemas solares muy alejados de nuestro planeta, especulando si serían capaces o no de albergar alguna forma de vida como la conocemos.

Son muchos los factores que influyen sobre las condiciones de un planeta y, por lo tanto, en las formas de vida si es que la hubiera. Por ejemplo, su distancia a su sol, donde un planeta puede ser tan caliente como Venus o tan frío como Marte si están unos millones de kilómetros más cerca o más lejos de él; la elipticidad de sus órbitas, que genera periodos cálidos y periodos fríos ya que la distancia a su sol no será la misma durante toda su órbita; hasta el mismo tamaño del planeta y su composición química es un factor muy importante a tomar en cuenta, planetas más grandes ejercerán una mayor fuerza gravitacional y tendrán atmósferas más densas.

nasa-tatooine-galaxiaIlustración de Kepler-16b, exoplaneta recientemente descubierto que circula en un sistema solar binario.

Sin embargo, aunque parezca difícil de creer, fue la luna la que tuvo una mayor influencia en la formación de nuestro planeta. Pónganse por un momento en el lugar de un extraterrestre que vive en un planeta idéntico al nuestro pero en otro sistema solar, a cientos de años luz de distancia de nuestro planeta, y que en este preciso momento se encuentre escudriñando el universo en busca de planetas similares al suyo para que las probabilidades de encontrar formas de vida similares a la suya sean mayores. Después de muchos años de observación, encuentran un planeta que parece estar ubicado a una distancia adecuada de su sol y, según sus análisis espectrométricos, el planeta parece tener agua y una atmósfera protectora. Sin embargo, lo que les parece extraño es que este planeta tiene un “pequeño planetoide” circulando alrededor de él. Les parece extraño porque en su planeta no hay una luna…

¿Cómo sería este planeta, idéntico al nuestro, pero sin luna? ¿Sería realmente idéntico?. Gracias a lo que sabemos en la actualidad sobre las propiedades de la Tierra y la Luna, podemos deducir cómo sería este planeta. Esta deducción lo hizo Neil Comins, astrofísico y escritor estadounidense que entre 1991 y 1993 escribió una serie de artículos para la revista Astronomy explicando los diferentes cambios que hubiera sufrido la Tierra si la Luna nunca hubiera existido.

Para entender esto, primero debemos tomar conciencia que la Luna ha acompañado a la Tierra durante los últimos 4,500 millones de años, casi desde el momento en que nuestro planeta empezó a formarse. Sin embargo, la Luna no siempre ha estado ubicada a la distancia que se encuentra actualmente —aproximadamente unos 384,000Km.

En el año 1897, el astrónomo Sir George Darwin, hijo del célebre biólogo Charles Darwin, dedujo que la Luna se alejaba de nuestro planeta siguiendo una trayectoria espiral debido al efecto de las mareas que ella misma generaba. Esta hipótesis no fue confirmada hasta después del año 1969, cuando el Apollo 11 transportó a los primeros humanos hacia la Luna. Durante esta misión, los astronautas instalaron un reflector en su superficie para que un rayo láser enviado desde la Tierra, lo apunte y mida el tiempo que tarda en reflejarse para así calcular su distancia cada vez que lo deseen.

laser-beam

Con esta ingeniosa técnica, los astrónomos calcularon que la Luna se aleja de la Tierra a una tasa de 3.82cm al año. Entonces, si hacemos un pequeño cálculo matemático y regresamos en el tiempo, la Luna se encontraba mucho más cerca de la Tierra en el pasado. Entonces, para que la Luna se aleje de nuestro planeta debe ganar energía, ¿de donde proviene?.

mareasLa Luna ejerce una fuerte fuerza gravitacional (fuerza de atracción) sobre nuestro planeta. Esta fuerza es tan fuerte que atrae el agua de los océanos generando las mareas. Sin embargo, debido a la velocidad de rotación del planeta, se genera una fuerza centrífuga que hace que las aguas del lado opuesto de la Tierra también se eleven (Fig. a). Por otro lado, la Tierra gira en la misma dirección a la que la Luna orbita, pero la Tierra lo hace mucho más rápido, esto provoca que las mareas y la Luna no estén alineadas todo el tiempo. Entonces, la fuerza gravitacional neta (flecha negra) cambiará ligeramente haciendo que la luna entre en una espiral hacia afuera y gane energía. Por otro lado, las mareas altas crean una fuerza de fricción en el planeta, reduciendo su velocidad de rotación. Esto quiere decir que hace millones de años, la Tierra giraba mucho más rápido, o sea, los días eran mucho más cortos.

Entonces, si queremos saber a qué velocidad giraba la Tierra primitiva debemos saber a que distancia se encontraba la Luna cuando ésta se formó, algo que por desgracia desconocemos. Pero Comins no se quedó con los brazos cruzados y haciendo un par de asunciones sobre la distancia entre la Luna y la Tierra hace más 4,000 millones de años, calculó el tiempo que le tomaba a la Tierra girar sobre su propio eje, un valor que va entre las 5 y 10 horas.

Para llegar a este valor, Comins se basó en una de las leyes más importantes de la física: La ley de la conservación del momento angular. Esta ley dice que el momento angular del sistema Tierra-Luna, la cual está relacionada con la energía total almacenada tanto en la rotación de la Tierra como en la revolución de la Luna sobre ella, es siempre la misma. Entonces, si la Luna gana momento angular al hacer en una espiral hacia afuera, la Tierra debe perder la misma cantidad de momento angular, así que su velocidad de rotación se reducirá. El cambio es casi imperceptible, los días se prolongan tan solo 0.002 segundos cada 100 años; pero si lo multiplicamos por los miles de millones de años de existencia de la Tierra, el cambio sí que es significativo. Los astrónomos Jihad Touma y Jack Wisdom en 1995 hicieron el cálculo, el cual se representa en el siguiente gráfico:

Moon-Graph

Entonces, si la luna no hubiera existido, ¿la Tierra giraría tan rápido que el día duraría tan sólo  6 horas? ¿y qué hay del sol o de los otros planetas que conforman el sistema solar?, ellos también ejercen una fuerza gravitacional sobre nuestro planeta.

Bueno, los planetas ejercen una fuerza de atracción prácticamente insignificante sobre la Tierra, incapaz de producir algún tipo de mareas. Sin embargo, el sol, si tiene un poder de atracción sumamente fuerte, tanto así que es responsable de la tercera parte de las mareas. Entonces, la velocidad de la Tierra y la duración de los días se hubieran reducido en una tercera parte. De todas maneras, es la Luna la que ha tenido un mayor efecto sobre la “fisiología” de nuestro planeta.

Como hace miles millones de años la Luna se encontraba mucho más cerca de la Tierra, su efecto gravitacional era más fuerte, así que la mayor pérdida del momento angular de nuestro planeta se dio cuando la Luna era muy joven. Se cree que, originalmente, la Luna se encontraba 10 veces más cerca de lo que se encuentra en la actualidad y, según los cálculos de los físicos, las mareas fueron 1,000 veces más altas de las que son ahora, así que la velocidad de rotación de la Tierra se reducía mucho más rápido. Entonces, sin el efecto gravitacional de la Luna, los días en la Tierra durarían entre 7 y 12 horas en la actualidad.

De esto podemos de deducir que si la Tierra gira más rápido, entonces la fuerza centrípeta es más fuerte y las mareas cerca al ecuador serían mucho más altas. Sin dudas, esto hubiera afectado la evolución de la vida en la Tierra. La tierra firme en las zonas ecuatoriales serían más pequeñas de lo que son en la actualidad. Por otro lado, los vientos serían mucho más intensos, tal como se observan en planetas con rotaciones rápidas como Júpiter o Urano, haciendo prácticamente imposible la vida como la conocemos en la superficie terrestre —los océanos serían los lugares más seguros para vivir. Además, los días más cortos afectarían el fotoperiodo de las plantas y algas y el ritmo circadiano de los animales. La tierra firme sería tan enigmática como son los océanos y las zonas abisales en la actualidad. En otras palabras, la Tierra no hubiera sido la misma.

Entonces, ahora pensemos por un momento en otra posibilidad… ¿y si la Tierra tuviera dos lunas?. Comins responde a esta pregunta con otro interesante libro: What If the Earth Had Two Moons?: And Nine Other Thought-Provoking Speculations on the Solar System. Sólo queda imaginar, cualquier posibilidad puede ser explicada por la ciencia.


Fuente | http://www.astrosociety.org/education/publications/tnl/33/33.html

Esta entrada participa en la XXIII Edición del Carnaval de la Física celebrado ahora en el blog Astronomía y Física.

logo_espanol1