31 octubre, 2010

, ,

Un mototaxi que funciona con energía solar

Si hay calculadoras, relojes, autos y, hasta sondas espaciales que funcionan con energía solar, ¿por qué no un humilde mototaxi? Un investigador sanmarquino desarrolló un prototipo que funciona con esta energía limpia, el cual ya está patentado ante la Indecopi y, actualemente, y se encuentra en proceso de perfeccionamiento.

El Ing. Walter Pachecho, empezó su aventura con un carrito que funcionaba con energía solar, así que pensó ¿por qué no extrapolarlo y hacerlo con este famoso medio de transporte nacional?. Sin dudas ha sido una de las noticias más citadas durante la semana (pueden leerla aquí, aquí, aquí, y aquí).

Sin dudas, las repercusiones que tiene su trabajo no son sólo a nivel nacional ya que el mototaxi es ampliamente usado en países como Ecuador, Bolivia, China, India y otros países asiáticos y africanos. Sin dudas, gracias a este avance, el mototaxi podría pasar a formar parte de los medios de transporte que funcione con úna fuente de energía limpia. Claro, que un mototaxi no elimina tanto CO2 como un automóvil, pero tampoco carga la misma capacidad de pasajeros que éste último.

Sería bueno hacer un estudio de cuanto CO2 se libera por pasajero transportado por kilómetro en función a distintos medios de transporte: buses grandes (Consorcio Vía, Metropolitano, Chinos), cústers, combis, taxis y mototaxis; sin dudas sería un bonito trabajo de tesis para un ingeniero ambiental. A partir de estos resultados, se podría determinar cuanto CO2 menos se está liberando al ambiente a través del uso de los mototaxis y poder determinar, en función al número de mototaxis que hay en una determinada ciudad, cuanto CO2 menos potencialmente sería liberado al ambiente si todos los mototaxis fueran propulsados por energía solar.

Otra importante ventaja de estos mototaxis a energía solar es que reduciría también la contaminación acústica, gracias a tener motores más silenciosos, por el mismo hecho de ser eléctricos. Sin embargo, hay una pregunta que siempre viene al caso cuando se habla de energía solar: ¿que pasaría en los días nublados (que es preponderante en nuestra capital) o en las noches? Para esto, el Ing. Pacheco explica que, el mototaxi contaría con un motor que funcionaría con baterías recargables.

Entre las especificaciones técnicas de este prototipo, el mototaxi podría alcanzar una velocidad de 50Km/h y una independencia energética de 120Km. Sin embargo, aún falta acoplarle un pequeño motor de 48V, y buscar la forma de recuperar la energía de los frenos para que el funcionamiento sea mucho más eficiente.

Sin embargo, como es común en nuestro país, el Ing. Pacheco no cuenta con un apoyo sustancial público o privado ya que nadie cree en la puesta al mercado de este prototipo. Yo pienso que los mototaxis son los medios de transporte más usados en los distritos más populosos de Lima, donde está asentada la mayor parte de la población, y que cambiar los mototaxis tradicionales por esta nueva propuesta, reduciría sustancialmente las emisiones de CO2 al ambiente. No sólo eso, en muchas ciudades del Perú, es el único medio de transporte que existe, sobre todo en ciudades de la selva. Así que sería un mercado sumamente atractivo.

Otro inconveniente que tiene el Ing. Pacheco es que la empresa sueca que le colaboraba con los paneles solares ha quebrado debido a la crisis económica mundial, y junto a la Universidad de San marcos, están en búsqueda de nuevos socios para llegar a poner al mercado este prototipo y generar una innovación en los medios de transporte energéticamente limpios.

Sin dudas, es una idea brillante y de seguro, con mucho potencial. Además, se podría desarrollar otros tipos de motores en base a la combustión del Hidrógeno que podría ser derivado de la hidrólisis del agua o tal vez, un mototaxi que funcione a base de energía nuclear! Se imaginan un mototaxi con su pequeño reactor nuclear de Uranio enriquecido!

30 octubre, 2010

Young Scientist Journal, envía tus artículos…

Young Scientist Journal es una revista de acceso libre para jóvenes científicos, de 12 a 20 años. Además, son estos mismos jóvenes quienes manejan y administran la revista y han abierto una convocatoria para los jóvenes periodistas científicos o investigadores de 12 a 20 años a mandar sus artículos para el siguiente número de la revista.

young

Este número especial abordará el tema del origen de la vida, así que no se desaprovechen la oportunidad de participar en este evento. Estoy seguro que muchos jóvenes, así no sean pequeños científicos o investigadores, tienen buenas cualidades para la redacción, y tal vez, se animen por seguir una carrera de periodismo científico, algo que el Perú no tiene.

El origen de la vida es, sin dudas, un tema muy amplio y fascinante, son muchas las teorías que tratan de explicarla, muchas de ellas suenan a ciencia ficción, pero sin dejar de lado la base científica. En el blog hemos escrito varios artículos abordando el tema, pueden usarlos si es que quieren elaborar un artículo y si no dominan inglés, pueden pedir la colaboración de su “ticher” o un amigo que sepa para hacer la respectiva traducción.

Para mas información:

http://www.butrousfoundation.com/ysjournal/?q=node/347

29 octubre, 2010

,

Primer avance del proyecto “1000 genomas”

Casi 10 años después de la presentación del primer borrador del genoma humano, y siete años después de su versión final, aún parece que no ha podido ser aprovechado ni ha podido responder muchas preguntas que se plantearon al momento de elaborar el proyecto: que características nos hacen susceptibles a determinadas enfermedades o de que depende nuestra respuesta a determinadas drogas. Para poder saber esto, se necesita más que conocer el genoma humano, se deben secuenciar muchos más, de individuos con características especiales que nos permitan observar las diferencias entre ellos a nivel genético.

Fue por esta necesidad que nació el proyecto “Estudio de Asociacmiento Genómico Amplio (GWAS: Genomic Wide Association Studies) que busca secuenciar los genomas de miles de personas para identificar las variaciones genéticas y relacionarlos con características específicas. El proyecto “1000 genomes” es parte de GWAS, tiene el objetivo de buscar aquellas variantes genéticas que se presentan al menos en el 1% de los individuos estudiados. En otras palabras, si tenemos 1000 genomas, el proyecto busca las mismas diferencias genéticas que se presentan al menos en 10 individuos diferentes.

Secuenciar un genoma humano aún sigue siendo muy costoso, a pesar que las tecnologías de secuenciamiento han avanzado un montón. Es lógico pensar que cuanto más largo es un genoma mayor es el costo. Como el genoma humano es tan largo, debe ser cortado en pequeños fragmentos y leerlos uno por uno, para luego ensamblarlos usando computadoras. Pero, no basta con secuenciar una vez el genoma ya que pueden haber fragmentos que se pierdan en el proceso, otros que sean mal secuenciados y otros que se secuencien repetidas veces. Estos problemas pueden generar vacíos al momento de ensamblar el genoma. Así que para tener un genoma completo, sin errores y espacios en blanco, la profundidad del secuenciamiento debe ser mayor. Para esto, con los secuenciadores con los que hoy contamos, debemos secuenciar el ADN de una persona unas 28 veces (28X) para obtener un genoma sin espacios vacíos o errores. Además, se debe contar con genomas patrones para poder hacer el ensamblaje de los pequeños fragmentos generados.

1000genomesPara solucionar este problema, 1000 genomes ha desarrollado una novedosa estrategia que permite reducir la profundidad del secuenciamiento a 4X. La idea se basa en caracterizar las variantes más extrañas y las más comunes en los genomas de algunos pocos individuos, y usarlas luego como referencia para llenar los espacios que quedan como consecuencia de la baja cobertura del secuenciamiento (4X). Aunque hay escépticos que critican este método porque es como “inventar” los datos.

Así que el día de ayer se publicó en Nature (el artículo está bajo una licencia de Creative Commons, así que pueden descargarlo libremente) el piloto del proyecto 1000 genomes, el cual analizó todo el genoma de 179 individuos, con una cobertura de 3.6X en promedio, generando un catálogo de más de 8 millones de variantes genéticas de un nucleótido, conocidos como los famosos SNPs. También catalogaron más de 1 millón de variantes estructurales debido a inserciones o deleciones (indels) de secuencias de ADN.

Además, hay que recordar que sólo el 1.5% de todo nuestro genoma es expresado en proteínas, así que los genes estarán dentro de este 1.5%. Los genes dentro del genoma están conformados por exones (regiones que se llegarán a expresar) e intrones (regiones que serán procesadas y removidas del ARN mensajero). Debido a que muchas de las variaciones genéticas se encuentran en los exones y están envueltas directamente con determinadas características de importancia biomédica (resistencia o susceptibilidad a enfermedades, preponderancia a cáncer, diabetes, Alzheimer, etc.), los investigadores secuenciaron, en promedio, 1.4Mb  de exones en 697 individuos, con una cobertura de 56X. Aproximadamente, 1.4Mb de exones corresponde a un poco más de 1000 genes, donde encontraron casi 13000 SNPs y 100 indels.

Secuenciar sólo los exones, es sin dudas, muy efectivo si hablamos de costos, ya que la información que proveen es sumamente importante; pero, tampoco hay que subestimar al ADN no codificante ya que en él se encuentran muchos factores que regulan la expresión de los genes.

Una gran desventaja del secuenciamiento con baja cobertura es que se generan una gran cantidad de errores y espacios vacíos, si bien se ha desarrollado una metodología que permite “llenar” los espacios en blanco. Esta metodología, según los investigadores, permite tener una tasa de error baja, la cual varía entre el 1 y 3%. Aún así, el número de variantes podría estar sobre-estimado, ya que este 1 a 3% de errores podrían ser consideradas como variantes genéticas cuando en realidad no las son.

Además, otra observación importante es que estos datos son tomados en base ha haplotipos, sin embargo, sabemos que nuestro genoma es diploide, así que caracterizar variantes genéticas en sitios heterocigotos es mucho más complicado y la tasa de error aumenta considerablemente de 5 al 30% según el presente estudio. Aún así, la propuesta de combinar un secuenciamiento completo de baja cobertura con un secuenciamiento de exones de alta cobertura, parece ser una muy buena estrategia, mucho mejor que las técnicas tradicionales. Aún falta mejorar su metodología de corrección de errores, pero, este proyecto recién se inicia, así que con el paso del tiempo se irá mejorando y el conocimiento del genoma humano pasará a un nuevo nivel.

Referencias:

ResearchBlogging.orgThe 1000 Genomes Project Consortium (2010). A map of human genome variation from population-scale sequencing Nature, 467 (7319), 1061-1073 DOI: 10.1038/nature09534

Nielsen, R. Genomics: In search of rare human variants. doi: 10.1038/4671050a

28 octubre, 2010

Cuál es el sucesor del Hubble?

Sin dudas, el Telescopio Espacial Hubble nos ha dado valiosa información sobre el universo, imágenes espectaculares de cuerpos celestes que sólo cabrían en nuestra imaginación y fotos que nos llevan millones de años hacia atrás, hasta unos 500 millones de años después del Big Bang. Sin embargo, el Hubble ya está viejito y necesita urgentemente un sucesor, más aún que la tecnología ha avanzado tanto en estos últimos 20 años.

Su sucesor se llama el Telescopio Espacial James Webb (JWST), el cual está programado para lanzarse en el 2014. Su principal misión es observar hacia el pasado, más que el Hubble, gracias a las mejoras tecnológicas con las que contará; sin embargo, este proyecto es uno de los más costosos de la historia de la humanidad. Cuando fue diseñado, se calculaba que costaría de 500 a 1000 millones de dólares, pero hoy, ya ha pasado grandemente esa proyección inicial, costando ahora unos $5000 millones. Aún así, es casi el mismo costo que supuso poner al Hubble en órbita. Los costos son altos porque ha quedado de mostrado con las misiones con bajos presupuestos y tiempos de preparación apresurados no han tenido éxito, claros ejemplos son el Explorador Infrarrojo de Campo Amplio (WISE), el Orbitador Climático Marciano y el Mars Polar Lander.

Cuáles son las principales innovaciones del telescopio?

Cuando fue diseñado el proyecto en el año 1993, lo primero que se le vino a la mente a los investigadores fue alargar el diámetro del espejo principal. Fue así que el JWST inicialmente iba a tener un espejo de 8 metros diámetro, pero, para reducir costos se decidió reducirlo a 6.5m, aún así es unas 3 veces más grande que del Hubble. Para que los espejos soporten las bajas temperaturas a las que estarán sometidos, han sido hechos de Berilio, un metal con características especiales que le permiten soportar las deformaciones debido a las bajas temperaturas. Pero, como su diámetro es tan grande, no podrá entrar en la nave espacial que lo transportará, así que será dividido en 18 pequeños hexágonos que serán ensamblados una vez puesto en órbita.

Para evitar que el mismo calor del telescopio manche las tomas de radiación infrarroja (calor emitido por los cuerpos) del espacio exterior, estará criogenizado a unos 50°K (-223°C). Los espejos de Berilio podrán soportar esta temperatura extrema sin deformarse.

Otro inconveniente que debe ser superado es la misma radiación infrarroja que emite la Tierra, la cual brilla como un “potente foco” que opaca la luz de los objetos más distantes. Para esto, se sugirió que el JWST debe orbitar a 1.5 millones de kilómetros de la Tierra, más de 3 veces la distancia que la separa de la Luna, justo en el límite donde la gravedad del Sol y de la Tierra se equilibran y crean una región de estabilidad (punto de Lagrange).

image

El telescopio será ensamblado en 4 diferentes misiones espaciales, la cual requiere de un gran presupuesto. Además, es necesario que este telescopio se ponga en órbita para poder continuar con los otros proyectos espaciales prioritarios de la NASA como el WISE, el cual fallo en primera instancia. El WISE es el encargado de buscar la misteriosa materia oscura en el Universo y está puesta como una de las principales prioridades de la Astrofísica, pero deberá esperar hasta que se ponga a punto el JWST.

Así que sólo nos queda esperar hasta el 2014 para empezar a ver más atrás de lo que habíamos visto antes.

Vía Nature. doi:10.1038/4671028a

27 octubre, 2010

,

Poner :) o no poner :) cuando aplicas a un trabajo

Un extraño estudio fue presentado en la 25va reunión de la Sociedad para Psicólogos Industriales y Organizacionales que examina si existe alguna ventaja poner :) en un correo que envías para postular a algún puesto de trabajo. La verdad, no creo que alguien ponga una :) cuando escribe una correo a un posible empleador, pero, en estos días, donde los emoticones son tan comunes en nuestra escritura cotidiana, ya que con la internet y las redes sociales, la interacción con las personas se ha vuelto vía una PC y ya no de manera directa, es necesario valernos de estas expresiones para mostrar nuestro estado de ánimo sin vernos a la cara.

Según este estudio [“E-Screening: The Consequences of Using ‘Smileys’ when E-Mailing Prospective Employers”], poner una :) no es tan malo, siempre y cuando seas mujer o estas postulando a un trabajo donde se busque a una persona con cierta calidez y amabilidad.

Para el estudio se tomaron a un grupo de jóvenes universitarios entre 18 y 20 años, tanto varones como mujeres y se los dividió en dos grupos. Ambos grupos debían aplicar a una estancia en una empresa, pero, a un grupo se le dijo que la carta sea escrita con el famoso :) y al otro no. La percepción de los empleadores fue que cuando se ponía :) percibían que la carta era escrita por una mujer. Según los resultados, poner :) hacía que la persona se vea menos competente y sus atributos instrumentales de hombre se perdieran. Además, si eras contratado, poner :) hacía que tu sueldo inicial sea menor comparado a los que no pusieron :).

Así que como conclusiones, si eres varón, ni se te ocurra poner :) cuando apliques a un puesto de trabajo vía correo electrónico. Si eres mujer y estas postulando a un trabajo, donde se requiere independencia, firmeza y liderazgo, tampoco lo hagas porque el empleador te percibirá como una persona menos competente. Y si quieres empezar con un buen sueldo, tampoco lo hagas. Sin embargo, si estás postulando a un trabajo donde se requiere de una persona cálida y amable, es muy recomendable hacerlo, por ejemplo, de nana o profesora de inicial.

Bueno, para los que quieren seguir con esta línea de investigación, aquí hay algunas propuestas: Probar el efecto que tienen las variantes de :), como son:  :-)    =)    :-D  y 

Vía Improbable Research.

Artículo completo: http://bit.ly/bxGb9T

26 octubre, 2010

, ,

Un protector molecular del transcriptoma

El genoma comprende todo el material genético de un organismo, pero, bien se sabe que no todo el ADN es transcrito a ARN y no todo el ARN es traducido a proteínas. Es así que nacieron dos nuevas líneas de investigación importantes en el campo de la biología molecular: la transcriptómica, que comprende todo el ARN mensajero que ha sido transcrito a partir del ADN; y la proteómica, que comprende a todas las proteínas que han sido traducidas a partir del ARN mensajero.

Sin embargo, el proceso de expresión genética no es simplemente pasar el ADN a ARN y luego traducirlo a proteína. Hay mucho ARN que nunca llega a ser proteína, y aún así, cumple funciones importantes en la regulación de la expresión genética. Ejemplos: el ARN de interferencia o los microARNs. No sólo eso, en eucariotas – como los animales y las plantas – el ADN es transcrito primero a un pre-ARN mensajero, el cual posee muchas secuencias que no llegarán a traducirse a proteínas y tendrán que ser eliminadas. Una vez que el ARN mensajero elimina estas secuencias no codificantes (intrones) se convierte en un ARN mensajero maduro, conformado sólo por secuencias que sí llegarán a traducirse a proteína (exones). Tanto el pre-ARN y el ARN mensajero maduro conservan dos elementos protectores contra el ataque de enzimas que degradan el ARN (RNAsa), en el extremo 5’ tienen una capucha de 7-metilguanosina y en el extremo 3’ una cola de muchas Adeninas (polyA).

splicing

La imagen es más que explícita. El proceso mediante el cual el pre-ARN mensajero es procesado se llama Splicing. El Splicing se lleva a capo gracias a un complejo  formado por cinco ribonucleoproteínas (proteínas unidas a pequeñas moléculas de ADN): U1, U2, U4/U6 y U5. Como estas ribonucleoproteínas son pequeñas y están ubicadas en el núcleo se llaman ribonucleoproteínas pequeñas nucleares (snRNPs, por sus siglas en inglés). A todo este complejo que procesa el pre-ARN mensajero se le llama spliceosoma.

¿Como funciona el spliceosoma? De manera sencilla, las snRNPs – específicamente U1 – reconocen sitios específicos al inicio y al final de cada exón, se unen a ellos, doblan el pre-ARN mensajero y mediante unas modificaciones químicas logran sacar los intrones y unir los exones para formar el ARN mensajero maduro. Pero, si una de las snRNPs falla o está mutada, este proceso se ve afectado, el ARN mensajero no madura y se generan muchos problemas funcionales. Por ejemplo, cuando una proteína llamada SMN, que ayuda a que los snRNPs se ensamblen para formar el spliceosoma, es deficiente, el individuo sufre de una enfermedad neurodegenerativa muy común llamada Atrofia Muscular Espinal (AME).

Así que investigadores de la Universidad de Pennsylvania, liderados por el Dr. Gideon Dreyfuss se preguntaron que pasaba si se perdía la función de alguna de las snRNPs. Así que para averiguarlo, inactivaron una por una cada una de las snRNPs, empezando por la U1. Ellos creían que al inactivar las snRNPs, el splicing se vería afectado y habría un aumento sustancial en la cantidad de ARN mensajero sin madurar.

Sin embargo, para su sorpresa, los resultados obtenidos no fueron los esperados. A diferencia de encontrar ARN mensajeros más largos (sin procesar), encontraron ARN mensajeros mucho más pequeños de los normales, truncados a pocos nucleótidos del punto de inicio de la transcripción. Cuando los investigadores secuenciaron estos pequeños fragmentos observaron que todos ellos poseían la cola poly(A), que normalmente debe aparecer al final de la transcripción de un gen.

De estos resultados pudieron sacar una importante conclusión: La carencia de U1 produce un corte y poliadenilación prematura del ARN mensajero. Los genes tienen secuencias específicas que activan la maquinaria de corte y poliadenilación cuando todo el gen ya ha sido transcrito, sin embargo, esta maquinaria puede reconocer otras secuencias en medio de los genes, lo cual, en ausencia de la U1, podría terminar de manera prematura la transcripción del gen.

Y, como todos los genes se transcriben de la misma forma, usando las mismas maquinarias, la carencia de U1 podría afectar la transcripción de todos los genes, así que los ARN mensajeros serían defectuosos y sería imposible hacer un estudio transcriptómico y mucho menos proteómico. Es por esta razón, que la snRNP U1, no sólo cumple una función importante en el procesamiento del pre-ARN mensajero, sino también, en la expresión de todos los genes, protegiendo al ARN que se va transcribiendo, de un corte y poliadenilación prematuro.

Vía Penn Medicine.

Imagen: © The Dreyfuss Laboratory; Penn Medicine

,

Una plataforma Wiki para modelar biorefinerías

Vamos por partes… Una plataforma Wiki es un sitio web donde el contenido puede ser editado por cualquier voluntario que tenga conocimientos sobre el tema, es de esta forma como funciona la enciclopedia Wikipedia. Actualmente, estos sitios Wiki están siendo explotados por la comunidad científica para crear contenidos que son de fácil actualización por especialistas en el tema. Sin dudas, una de las principales Wiki científicas es WikiPathways, la cual es una de las principales bases de datos de rutas metabólicas que es actualizada constantemente por investigadores de todo el mundo. Otro sitio Wiki importante es MicrobeWiki, un sitio donde podrán encontrar bastante información sobre la taxonomía microbiana. Y uno interesante para los ecólogos, zoólogos o botánicos es WikiSpecies.

Ahora, una biorefinería es – como cualquier refinería – una estructura que integra varios procesos industriales para producir combustibles, nutracéuticos, y a su vez, generar energía que le permite ser auto-sostenible, todo usando como materia prima la biomasa.

En nuestros días, la principal materia prima para la producción de biocombustibles es el azúcar. Por ejemplo, Brasil usa el azúcar de caña como el principal insumo en la producción del bioetanol.

Pero, si se quiere reemplazar una fracción substancial del petróleo que consumimos por los biocombustibles, se deben  buscar nuevas fuentes de materias primas que puedan crecer en suelos pobres y que no sean usados en la agricultura, para evitar así que compitan con las fuentes de alimento del mundo. Un ejemplo importante es que, una gran proporción del maíz que se produce en USA es destinado a la producción de biocombustibles, quedando desabastecidos muchos mercados.

Una buena alternativa es el uso de los residuos lignocelulósicos de la industria agrícola (pastos y rastrojo), la cual es abundante; y en vez de ser eliminados, pueden ser usados como materia prima para la producción de combustibles y otros productos derivados basándose en el modelo de las biorefinerías. Sin embargo, usar los residuos lignocelulósicos como materia prima en un proceso sumamente caro e ineficiente.

La lignocelulosa – como su nombre lo dice, está formado por celulosa y lignina – es la responsable de dar firmeza y rigidez a la pared celular de las plantas. Pero, la lignina tiene una estructura sumamente compleja, amorfa y heterogénea, que la hace muy difícil de ser degradada por procesos enzimáticos. Así que para ser usada como materia prima en la producción de biocombustibles se le debe hacer un pre-tratamiento con calor y/o ácidos fuertes la cual es perjudicial para el funcionamiento de las enzimas hidrolíticas que participan en el proceso. Además, los metabolitos secundarios que aparecen subproducto de la degradación de la lignina, son sumamente tóxicos para los organismos fermentadores que harán el proceso de conversión de los azúcares en etanol, siendo los altos niveles de acetato uno de los más perjudiciales.

Entonces, ¿como podemos mejorar el desarrollo de las biorefinerías? La forma tradicional es mediante la búsqueda de organismos capaces de degradar la lignina para aislar el gen que la codifica e insertarlo en un organismo más fácil de cultivar, buscar nuevos tratamientos para separar la lignina de la celulosa, desarrollar mejores organismos fermentadores que soporten altas concentraciones de etanol usando la ingeniería genética y la evolución dirigida, aislar nuevos organismos con la capacidad de sintetizar nuevos compuestos con alto valor agregado. Sin dudas, es un sector donde se puede investigar bastante y generar nuevos conocimientos.

Pero, ¿como podemos monitorear las mejoras?, ¿cómo saber si se está mejorando el proceso?. Los mejores indicadores son los costos, rendimientos, y balances de energía. Klein-Marcuschamer et al. del Laboratorio de Ingeniería Metabólica y Bioinformática del MIT, desarrolló un modelo que permite simular en una computadora todos los indicadores mejorados, antes de aplicarlos experimentalmente. Las condiciones iniciales de su modelo incluyen desde el transporte del rastrojo hacia las refinerías, pasando por el pre-tratamiento ácido, la sacarificación enzimática, la fermentación de los azúcares, y la combustión de la lignina asociada para la generación de energía. El investigador podrá variar los valores iniciales de costos o eficiencia química y hasta podrá calcular los niveles de gases de efecto invernadero liberados.

image

Para los interesados en usar esta buena herramienta visiten: http://econ.jbei.org/ Cada investigador puede modelar su propio escenario y compartirlo con los demás ya que este programa está desarrollado para investigación y no para fines comerciales.

Antes de terminar, debemos recordar que, si bien los biocombustibles son un tipo de energía renovable, no solucionan el problema de la liberación de gases de efecto invernadero como el CO2. Por si no lo recuerdan, la combustión completa de una mol de etanol (C2H5OH) da como resultado 2 moles de CO2 y 3 de H2O. Además, si contamos todo el CO2 eliminado al ambiente en la producción de energía en la biorefinería, el CO2 liberado en el transporte de los residuos lignocelulósicos desde los campos de cultivo hasta las refinerías, no habría mucha diferencia con los combustibles fósiles.

Referencia:

Klein-Marcuschamer, D; et al. 2010. Technoeconomic analysis of biofuels: A wiki-based platform for lignocellulosic biorefineries. Biomass and Bioenergy. doi:10.1016/j.physletb.2003.10.071

Pueden descargar el artículo completo en: http://bit.ly/9pN5aZ

25 octubre, 2010

,

Una buena forma de matar plagas…

Si tienes un problema de plagas en tu casa, arañas en los rincones de las paredes, moscas en el comedor, abejas en el jardín; aquí una manera “inteligente” de combatirlas sin usar dañinos insecticidas, sólo necesitas tener un buen tino para la repostería y una pequeña catapulta…

Y si tu problema son las ratas, por qué no usar el poder de la religión para aniquilarlas…

Así empezamos la semana con un poco de humor.

23 octubre, 2010

Por qué los eucariotas se volvieron tan complejos y los procariotas no?

Le voy a comentar una interesante hipótesis que salió el jueves en Nature. Antes de empezar deben tener muy en claro que los procariotas son aquellos organismos simples, sin organelos especializados como mitocondrias, cloroplastos, lisosomas, retículo endoplasmático, etc. El grupo de las procariotas están formado por las bacterias y las arqueas (microorganismos que suelen vivir en ambientes extremos). Los eucariotas, son organismos más complejos y altamente estructurados, con la capacidad de agregarse para formar tejidos y órganos con funciones complejas. Al grupo de las eucariotas pertenecen desde las levaduras y hongos hasta las plantas y animales. Los eucariotas más sencillos, después de las levaduras, son los protozoos (Ej. amebas y paramecios).

Si pensamos por un momento cómo se originó la vida, los primeros en formarse de seguro fueron los procariotas, por ser más sencillos. ¿Donde? En los océanos primitivos. ¿Cuando? Posiblemente, hace unos 3500 millones de años. Los eucariotas aparecieron posiblemente hace 2000 millones de años. Entonces, ¿por qué los procariotas no se han vuelto más complejos que los eucariotas, si tienen más de 1500 millones de años de ventaja en tiempo evolutivo? Si bien muchos procariotas tienen, virtualmente, varias características de las eucariotas como: cromosomas lineares, membranas internas, sistemas de señalización (quorum sensing), poliploidía (repetición del material genético), tamaños gigantes, hasta endosimbiontes. Entonces, ¿por qué no se volvieron tan complejos como los eucariotas?

A todos salta a la vista que la diferencia más importante entre las eucariotas y las procariotas fue la adquisición de mitocondrias. Hay muchas teorías que explican el origen de las eucariotas. La más aceptada es la endosimbiosis, donde una bacteria primitiva con la capacidad de producir energía fue engullida por otra más grande, y al final, la más pequeña pudo vivir dentro de la grande (se pudo dividir, producir energía, etc.) y formar la mitocondria. Así que el origen de las mitocondrias y de las células eucariotas pudo haber sido el mismo evento.

Entonces, ¿fue la adquisición de las mitocondrias un evento clave en la complejidad de las eucariotas? Y si fuera así… ¿Que ventaja le daba tener mitocondrias con respecto a las procariotas? No fue la respiración aeróbica, ya que las mitocondrias no incrementaron la tasa respiratoria de las eucariotas. Gramo por gramo, las procariotas respiran más rápido que las eucariotas. Entonces, ¿fue la compartamelización de la respiración dentro de la célula? Tampoco, ya que las procariotas pueden invaginar su membrana celular y también formar compartimentos. Entonces, las procariotas, con mayor tasa de respiración y compartamelización, parecieran tener una ventaja energética con respecto a las eucariotas, aún así, ¿por qué no se volvieron más complejas? Lane & Martin hipotetizan que la clave de todo fue la energía por gen expresado.

Un organismo es más complejo cuando su genoma es más complejo. Un genoma más complejo no quiere decir un genoma grande. Por ejemplo, las amebas tienen genomas más grandes que el genoma humano, pero no son tan complejos como nosotros.

Ahora vamos con un poco de matemáticas… (Usaremos como un eucariota modelo a un protozoo).

En procariotas, el 75% de la energía del organismo es invertida en la síntesis de proteínas y solo 2% en la replicación del ADN. Una bacteria promedio tiene unas 4400 proteínas diferentes, así que, invertirá 0.017% de su energía por cada proteína. Si queremos que nuestra bacteria sea más compleja, le aumentamos unas 10 veces su número de proteínas, así que ahora tendrá 44000. Pero, como la cantidad de energía de la bacteria sigue siendo la misma, debe redistribuir el 75% de energía que usa, en las nuevas proteínas (35% para las pre-existentes y 35% para las nuevas). Entonces, la bacteria producirá la mitad de las proteínas pre-existentes y sólo invertirá el 0.0009% de energía por cada una de las 40000 nuevas proteínas (la 1/20 parte). Si queremos más proteínas, la energía invertida por la bacteria debe ser mayor. Ya vemos que hay un pequeño problema energético.

imageLas eucariotas, por ser más grandes, poseen cientos de proteínas estructurales. Pero, ser más grandes no significa ser más complejas. Por ejemplo. La bacteria Thiomargarita namibiensis – la más grande de todas – mide casi 1 milímetro de diámetro (de 5 a 20 veces más grande que una eucariota!), sin embargo, sigue careciendo de complejidad, pero, es altamente poliploide (su genoma esta altamente repetido). Como las bacterias no tienen núcleo, su genoma se organiza en unas estructuras denominadas nucleoides. Los nucleoides (puntitos azules en la imagen) están asociados a la membrana celular de la bacteria que es ahí donde se produce la energía. Aquí una clave importante en esta hipótesis. La complejidad del genoma tiene que ver directamente con la producción de energía. En eucariotas, la producción de energía se da principalmente en las mitocondrias, las cuales tiene su propio genoma, el ADN mitocondrial. Las cuales también están asociadas a sus membranas mitocondriales que es donde se produce la energía.

Más matemáticas…

La tasa metabólica promedio de las bacterias es 0.19±0.5 Watts por gramo de bacterias (W/g), pero cada bacteria pesa sólo 2.6x10-12g, entonces, la tasa metabólica por cada bacteria será de 0.49pW (…)

 

1W=1000mW; 1mW=1000uW; 1uW=1000nW; 1nW=1000pW y 1pW=1000fW; entonces…
1W=1’000,000’000,000pW ó 1pW=0.000000000001W (sumamente pequeña).

 

(…)

y la tasa metabólica promedio de las eucariotas (un protozoo) es 0.06±0.1W/g, pero su masa es 40100x10-12g (casi 20 mil veces más que las bacterias), entonces, la tasa metabólica por cada célula eucariota será 2286pW. Las eucariotas tienen 5000 veces más poder metabólico que las procariotas, o sea, más energía para mantener un genoma más complejo.

Ahora vamos a hacer los cálculos en función del tamaño del genoma. Más matemáticas… (la tasa metabólica lo expresaremos, simplemente, como la energía del organismo)

Una bacteria promedio tiene un genoma de un tamaño promedio de 6Mb (6000000 pares de base). Entonces, si dividimos su tasa metabólica (0.49pW) por el tamaño de su genoma, obtendremos  una tasa metabólica por genoma de 0.08pw/Mb. Un protozoo promedio tiene un genoma de 3000Mb, así que su tasa metabólica por genoma será 0.76pW/Mb. Claramente vemos que los eucariotas tienen más energía por Mb de ADN. Así la bacteria tenga un genoma más pequeño y el eucariota uno más grande, la energía por MB de ADN siempre será mayor en el eucariota.

Pero, no nos olvidemos del ADN mitocondrial…

En promedio, el ADN mitocondrial (ADNmit) mide 30Kb (30000 pares de base) y en promedio un protozoo tiene 200 mil copias por célula. Así que el contenido de ADNmit será de 6000Mb por célula! (Más del doble del tamaño del ADN nuclear). En total, un protozoo tendrá 9000Mb por célula. Así que la energía por genoma será ahora 0.25pW/Mb. Aún así superior a la tasa de las bacterias (0.08pW/Mb).

Que pasaría para aumentar la complejidad genómica de la bacteria aumentamos el tamaño de su genoma a 3000Mb – como el de un eucariota; pero, manteniendo constante su tasa metabólica?

Simplemente, la energía por genoma caería a 0.16fW/Mb (0.00016pW/Mb), unas 4600 veces menor al de un protozoo!.

Ahora, para que no se cansen con tantos cálculos – que no son más que simples divisiones – calcularemos la energía por gen, que es lo que realmente interesa.

Una bacteria tiene en promedio 5000 genes y su tasa metabólica por célula era 0.49pW, así que la energía será de 0.0001pW/gen. Los protozoos tiene en promedio 20000 genes y su tasa metabólica era 2268pW, así que su energía será de 0.115pW/gen (1200 veces superior al de las bacterias!). Si la bacteria tendría el mismo número que los protozoos, su energía caería a 0.00003pW/gen, unas 4600 veces menos que en las eucariotas.

Ya vemos, que la clave de todo es la energía por gen! Pero, aún así no podemos descartar el tamaño superior de las células eucariotas. ¿Por qué las favorecen más y no lo hacen con las procariotas?. Las células producen energía a través de sus membranas plasmáticas, para producir más energía se debe aumentar el área superficial de la membrana, pero para aumentar el área de la membrana, también debe aumentar el volumen, y cuanto mayor es el volumen, mayor será el requerimiento de proteínas, ¿me dejo entender?. Si una bacteria la llevamos al mismo volumen, forma y tamaño de genoma que un protozoo, su energía por genoma caerá estrepitosamente a 0.003fW/Mb, unas 250 mil veces menor al de los protozoos! Y si lo llevamos a energía por gen, esta caerá a 0.0005fW/gen, 230 mil veces menor al de los protozoos!.

En resumen, un gen de un eucariota tendrá disponible 200 mil veces más energía que un gen procariota, así que podrá soportar un genoma 200 mil veces más grande. Esta gran energía requerida por un genoma eucariota es provista por las mitocondrias. En otras palabras, las mitocondrias permitieron superar la barrera energética a los eucariotas primitivos, les permitió explorar, evolucionar y expresar 200 mil genes más, sin una penalidad energética a la que están sometidas las procariotas. Pero, otra clave fue que los genes innecesarios no fueron expresados y fueron eliminados, es por esta razón que las eucariotas cargan sólo 12 genes por cada millón de pares de base (Mb), a diferencia de las bacterias que cargan 1000 genes por cada Mb.

Si la densidad genética de las bacterias fuera como la de los eucariotas (12genes/Mb), un genoma bacteriano promedio de 6Mb sólo cargaría a lo mucho 100 genes. Además, con solo una energía de 0.08pW/Mb, no podría mantener el ADN regulador (siARN, miARN) ni el ADN no codificante. Por esta razón, las bacterias tienen una alta densidad genética, además han eliminado las regiones inter e intragenéticas y han organizado sus genes en operones, para que una sola proteína pueda regular la expresión de muchos genes. En cambio, con 0.76pW/Mb y 12genes/Mb de las eucariotas, en principio podrían sostener 350 mil genes, permitiéndoles evolucionar, expresar y explorar nuevas familias genéticas, que expresarán nuevas proteínas, así como también, ADN no codificantes y reguladores.

Finalmente, las mitocondrias, al tener su propio genoma, le permiten responder de manera independiente a los cambios en el potencial de las membranas, de manera rápida y directa. Así que la cantidad de ADNmit esta relacionada con la capacidad respiratoria y la disponibilidad de ATP. En procariotas, la manera de hacer esto es tener muchas copias de su genoma y varios nucleosomas asociados a la membrana plasmática, pero este no es especializado en generar energía a diferencia del ADNmit. El ADN mitocondrial permitió redistribuir la relación bioenergética del ADN, permitiendo que el genoma nuclear se especialice en nuevas funciones.

image

Así que sin las mitocondrias, las eucariotas no hubieran podido pagar la penalidad energética de tener un genoma tan complejo y es también esta una posible explicación de por qué no se puede encontrar un intermediario evolutivo entre los procariotas y eucariotas. Las mitocondrias permitieron incrementar la superficie de las membranas bioenergéticamente importantes. Así que las células eucariotas empezaron evolucionar a partir de la adquisición de las mitocondrias y no fue la complejidad un pre-requisito para la evolución de las mitocondrias, como normalmente se cree.

Referencia:

ResearchBlogging.orgLane, N., & Martin, W. (2010). The energetics of genome complexity Nature, 467 (7318), 929-934 DOI: 10.1038/nature09486

22 octubre, 2010

, ,

Explicación física de por qué se sacuden los perros para secarse

Un interesante artículo en la revista ArXiv explica el por qué los perros – y otros mamíferos peludos – agitan sus cuerpos húmedos para secarse. Bueno, la importancia de este estudio no es muy relevante, sin dudas será un nominado para el Ig Nobel de Física del próximo año; pero, creo que este artículo demuestra la esencia de la ciencia (bonita rima)…

¿Cuál es la esencia de la ciencia? Simplemente investigar algo por curiosidad. Les aseguro que más del 70% de las investigaciones científicas son hechas por mera curiosidad; sin embargo, los científicos se pasan horas tratando de encontrarle alguna utilidad y relevancia a su trabajo, cuando en realidad no la tiene.

 

Buscarle una justificación a un trabajo de investigación es lo más difícil que hay al momento de redactar el perfil del proyecto o el informe final, ya que si pones… “el presente trabajo se realiza porque me dio curiosidad saber el mosquito tiene mayor preferencia por picar a las personas despiertas que a las personas dormidas”, ninguna entidad te financiará la investigación, así que para conseguir ese financiamiento cambias la justificación por… “el presente trabajo se realiza para saber las preferencias de Anopheles spp. (vector de la malaria) por las personas según su actividad fisiológica (actividad o reposo) para desarrollar nuevas estrategias de prevención de picaduras y reducir la incidencia de malaria en la selva

Continuando con el artículo de ArXiv, Dickerson et al. del Instituto Tecnológico de Georgia, ellos intentaron calcular la velocidad óptima para que el mamífero, especialmente el perro, se seque de manera más eficiente. Su justificación fue… “secarse el pelo húmedo es un factor crítico en la regulación de la temperatura de los mamíferos”.

Ahora vamos con un poco de física básica…

Para eliminar el agua del pelo debemos tomar en cuenta los siguientes factores: el número de veces que el perro agita su cuerpo en un segundo, o sea, el periodo de oscilación. Además, para que la humedad sea expulsada del pelo del animal debe haber una fuerza que la empuje hacia afuera, esta será la fuerza centrípeta. Esta fuerza dependerá del radio del cuerpo del animal. Y no olvidemos que la fuerza centrípeta debe ser lo suficientemente fuerte como para vencer la tensión superficial del agua, la cual la mantiene la humedad adherida al pelo del animal.

labrador2

Para determinar todos estos valores, los perros fueron filmados con cámaras de alta velocidad para calcular sus periodos de oscilación. Como era de esperarse, el periodo de oscilación o frecuencia (T) era mayor cuanto menor era el radio del cuerpo del animal (Figura). Por ejemplo, un labrador retriever tenía en un T= 4.3Hz.

labrador

Cuando la frecuencia es lo suficientemente alta, se forman gotas de agua en la punta de los pelos, las cuales, por acción de la fuerza centrípeta, son expulsadas. Ahora hacemos nuestro diagrama de cuerpo libre (DCL) de la gota para ver las fuerzas que actúan…

DCL gota

Las fuerzas son: la tensión superficial, la presión sobre la gota de agua y la fuerza centrípeta, así que igualando fuerzas obtenemos:

ecuacion

Pero, para que la gota sea expulsada del pelo del animal, la fuerza centrípeta debe superar a la fuerza de la tensión superficial del agua en contacto con el pelo. En base a la ecuación y los datos experimentales obtenidos con los perros, se pudo hacer un modelo matemático para predecir la frecuencia a la que el cuerpo del animal debe oscilar (ω) para que sea capaz de secarse y esta es igual a: R-0.5 (siendo R es el radio del cuerpo del perro).

Sin embargo, cuando se determinó las velocidades de oscilación de otros animales más pequeños o más grandes, vieron que la ecuación no tenía un comportamiento lineal. O sea, el radio y la frecuencia de oscilación no tenían una proporción lineal. En los ratones la frecuencia era de 27Hz, en las ratas 18Hz y en los osos 4Hz, o sea, el comportamiento era tipo logarítmico. Haciendo estos ajustes determinaron que la frecuencia de oscilación mínima para un secado óptimo en la naturaleza es igual a R-075; aún así, consistente con lo que se determinó teóricamente con la ecuación.

shake

Pueden descargar el video en: http://bit.ly/aHXGsU (Baja resolución) o en http://bit.ly/b4TYxX (Alta resolución), o lo pueden ver en YouTube gracias a WiredScience.

21 octubre, 2010

,

¿Qué es la homeopatía?

Muchos sabrán de que se tratan las medicinas alternativas, muchos dirán que han sido curados de sus males gracias a ellas, también dirán que son la forma más natural de hacerlo ya que no produce efectos secundarios. La homeopatía es un tipo de medicina alternativa, tal como la acupuntura o la reflexología.
Si bien hay mucha gente que cree en sus efectos benignos para la salud, aún no han podido ser demostrados científicamente, a pesar de haberse hecho muchos estudios importantes para tratar de encontrarle una explicación científica y así callar las críticas de todos los escépticos. Si vamos a PubMed, podremos ver que hay al menos 4214 estudios científicos que abordan el tema de la homeopatía!.

Pero, ¿qué es la homeopatía?. La homeopatía se basa en la premisa de que “lo semejante se cura con lo semejante”. Aun que este principio es el usado por las vacunas, las cuales usan virus inactivados o algunas de sus proteínas de las cápsides del virus o de la membrana celular de las bacterias para generar una respuesta inmunológica, la cual será recordada por células especializadas de nuestro organismo, para protegernos de futuras infecciones.

La homeopatía lo que hace es diluir progresivamente una sustancia tantas veces (potenciación) que al final ya no habrá ni una sola molécula inicial en la solución. O sea, cuanto más diluida está la sustancia más potente será su efecto. Si tomamos 1 ml de la solución y lo diluimos en 99 ml de agua (1:100) y la agitamos vigorosamente, la concentración del remedio será 1X; si de esa solución tomamos 1ml y la diluimos otra vez con 99 ml de agua y lo agitamos nuevamente, estaremos potenciando en 100 veces su efecto (2X). Si seguimos diluyendo más y más, al final ya no habrá ni una sola molécula de la sustancia inicial. Cuanto más asentada esté la enfermedad, más potente debe ser el remedio, o sea, más diluido.

Una de las explicaciones lógicas sería el efecto placebo. Aún así mucha gente, sobre todo en Europa, confía en la homeopatía. Muchos comparan la homeopatía con el efecto de las plantas medicinales, que también es medicina alternativa. Sin embargo, las plantas medicinales tienen su efecto gracias a los principios activos que poseen (alcaloides, taninos, antocianinas, etc.). Es a partir de estos principios activos de donde han salido los principales medicamentos que hoy conocemos.

Pero, la homeopatía no tiene un fundamento científico válido. Supongo que como hay gente que cree en lo que le dice el horóscopo, y cualquier cosa que les pase durante el día lo asocian a él, lo mismo pasa con la homeopatía. Puede ser que por el estrés del trabajo o la sugestión de creer tener una enfermedad, hace que uno padezca los síntomas, pero no es más que algo psicológico; y creen que al tomar un remedio homeopático están curándose, cuando en realidad lo que necesitaban era descansar o rehidratarse.

Aquí les pongo una genial parodia de la homeopatía que encontré en GenCiencia


Sin dudas, la homeopatía tiene mucha fuerza en Europa, y creen que juega un rol importante en el futuro de la medicina que cada año organizan un congreso mundial… Bueno, si hasta hay una Conferencia Anual de Geocentristas, y una sociedad que cree que la Tierra es Plana, ¿por qué no sobre la homeopatía? Creo que ellos hacen más divertida la vida científica…

Ahora, una receta homeopática para tener un hijo… Obviamente, creer en la homeopatía no nos hace más evolucionados, ¿o si?

,

No durante mi turno

Me acabo de enterar que estamos en plena Semana Internacional de Prevención de Infecciones, que arrancó el pasado domingo 17 y se prolonga hasta el sábado 23. Pero, ¿por qué es importante mencionar esto? Si bien uno va a los hospitales o clínicas para ser atendido por algún mal que le aqueja, muchas veces podemos terminar contagiándonos con enfermedades como la Neumonía Asociada a la Ventilación Mecánica (NAVM) y el peligroso Staphylococcus Aureus resistente a la meticilina (SARM); y en vez de salir sanos de los hospitales, quedamos más enfermos.

Obviamente, los más propensos a contagiarse de estas enfermedades son los pacientes que tienen el sistema inmune comprometido como los infectados con VIH, los que reciben inmunosupresores después de un trasplante de órgano o porque están bajo un tratamiento para alguna enfermedad autoinmune, y también las madres que van a dar a luz y los recién nacidos.

Este problema es conocido como las Infecciones Intrahospitalarias o Infecciones Asociadas a la Asistencia Médica (IAMM). Estas infecciones son un grave problema para la salud pública mundial. Por ejemplo, según el Centro para el Control y la Prevención de Enfermedades (CDC en inglés) de los Estados Unidos, en el 2002 murieron alrededor de 100000 personas a causa de las IAMM. Según reportes de la OMS, 1400 millones de personas en el mundo sufren de enfermedades contraídas en centros hospitalarios y el riesgo de adquirir estas enfermedades en países en vías de desarrollo es entre 2 y 20 veces superior al de los países desarrollados. Si bien son un problema que aqueja a todos los centros de salud del mundo, con buenos programas de higiene y capacitaciones constantes al personal médico, el número de infectados podría reducirse considerablemente.

Por estas razones, la corporación Kimberly-Clark Health Care ha lanzado una campaña denominada “NO DURANTE MI TURNO” que busca reducir la incidencia de infecciones asociadas a la asistencia médica y así proteger a los pacientes, para esto, los profesionales de la salud deben actualizar constantemente sus conocimientos en la prevención y tratamiento de infecciones. Esta campaña ofrece un kit que contiene folletos para el personal de la salud y pacientes, así como instrucciones y afiches.

En la página de la campaña, HAI Watch, podrán encontrar información relevante y actualizada sobre el tema, con referencias y suministros útiles para concientizar a su compañía respecto a la importancia de la prevención de infecciones asociadas a la asistencia médica, cursos y recursos de capacitación sobre el control de infecciones, así como eventos.

Link: http://es.haiwatch.com y http://prevenciondeinfecciones.com/

20 octubre, 2010

,

Los libros de ciencia ya son cosa del pasado?

Es necesario comprar libros para mantenerse actualizados e informados? Es una pregunta algo difícil de responder. Tal vez, para uno que tenga acceso a internet las 24 horas del día, un libro de ciencia, ya no es necesario. Sin embargo, para un estudiante de una zona rural sigue siendo la principal fuente de información que tengan a la mano. A nivel escolar los libros siguen siendo parte importante de la formación académica, pero, ¿lo es a nivel universitario?

La ciencia avanza a pasos agigantados, cada día se hacen nuevos descubrimientos que ponen en tela de juicio los conceptos que pensábamos eran universales y no cambiarían con el tiempo. Como la ciencia avanza tan rápido, los libros deben sacar nuevas versiones cada año; tal como cada año se deben sacar nuevas vacunas para prevenir la gripe. Mantener actualizado un libro es sumamente difícil ya que el tiempo que toma elaborar uno, es tan largo (Por ejemplo, de 1 a 2 años), que al momento de salir a la luz ya se encuentra desactualizado; además, la inversión que se hace es tan alta que por lo menos el libro debería estar vigente unos 4 años. Estos motivos han hecho que las editoriales ya no vean muy rentable el publicar libros de ciencia.

Sin embargo, los libros nos dan la base del conocimiento en cualquier rama de la ciencia, mas no, los últimos descubrimientos y las nuevas teorías que se formulan. En nuestra vida de estudiantes universitarios, los libros aún son la base fundamental del conocimiento, por esta razón los usamos más en nuestros primeros años universitarios como Física Universitaria (FW Sears), Qímica: la ciencia central (TL Brown) o Biología: la vida en la Tierra (T & G Audesirk). Pero, se han dado cuenta que, cuanto más avanzan en la carrera, esos libros son tomados menos en cuenta y se opta por libros más especializados? y, aún así, en los libros especializados no encontramos todas las respuestas que debemos recurrir a artículos científicos publicados en los últimos 3 años.

Una solución sería los libros en línea (Ojo, no los e-books). Estos libros serían sumamente fáciles de actualizar, se ahorraría tiempo y dinero en las impresiones y el papel, y nos permitirían cambiar la forma en como los estudiantes aprenden la ciencia. Sería mucho más didáctico poner una animación o un video que un diagrama, mejoraría la forma de enseñar para los profesores. No sólo eso, con las redes sociales se podría generar grandes comunidades para intercambiar información y experiencias. Se podrían poner ejercicios en línea y ver las formas diferentes de resolverlos, según la escuela o país. Así como los videojuegos han aprovechado de las comunidades virtuales para generar adicción, ¿por qué no extrapolarlo a la enseñanza?

Un interesante proyecto sin fines de lucro viene siendo desarrollado por la Fundación Biodiversidad EO Wilson que revolucionará la forma como se presentan los libros digitales. Dentro de dos años y medio, cuando el PhD. EO Wilson, naturalista de 81 años, espera culminar con los 59 capítulos con los que contará su libro digital llamado Life on Earth – curiosamente, el mismo nombre del libro de Audesirk) – el cual será de acceso libre para que cualquier persona en el mundo pueda aprovecharlo.

Sin embargo, este proyecto es sumamente costoso. Completar todos los capítulos de este libro digital costará algo de $10 millones! Les aseguro que ninguna editorial ni empresa publicitaria financiaría algo que al final se distribuirá de manera gratuita. Así que EO Wilson contó con un pequeño financiamiento de un millón de dólares por parte de Neil Patterson, director de Life on Earth, y la fundación Life Technologies. Los otros $9 millones faltantes serán obtenidos mediante donaciones del sector público y privado.

Además, una vez salga el libro digital, se planea venderlo a las universidades a 10% del costo de cualquier libro que suelen comprar las bibliotecas. Este precio ayudará a solventar la actualización del libro, ya que para un nivel universitario, el nivel debe ser mayor. La versión para los colegios será gratuita.

Nuestro país podría aprovechar de esta herramienta, bastaría con una reformulación del sistema educativo el cual ya es obsoleto. Nuestro sistema educativo no ha cambiado, sin exagerar, en más de 100 años. La mismo tipo de enseñanza que recibieron nuestros padres y abuelos, nosotros la recibimos. El Perú tiene un par de años para adecuarse a un nuevo sistema de enseñanza, aprovechando todas las herramientas que nos da la internet. Muchos colegios particulares ya lo usan, pero, si hubiera más inversión en educación se podría equipar con computadoras y proyectores a los colegios nacionales; sin dejar de lado la capacitación que requerirían los maestros.

Hace unos años se impulsó el Proyecto Huascarán el cual ha sido un rotundo fracaso, aunque la idea fue muy buena. ¿Por qué fracasó? Creo yo por falta de capacitación de los maestros. No sólo eso, también por seguir contratando a profesores con más de 60 años de edad que, así se los capacite, nunca podrán usar estas herramientas, sus cerebros ya no les permiten actualizarse en tecnología. ¿Cuántos profesores egresan cada año de las universidades del país? Estos nuevos profesionales que andan pateando latas, porque sindicatos corruptos no quieren que sus ancianos pedagogos sean cambiados por gente más capaces, frustran el desarrollo educativo del país. Puede haber inversión en capacitaciones, pero, debe ser capacitada gente con nueva visión de enseñanza y no los “nombrados” intocables que ya no sirven para este nuevo modelo educativo.

En fin, es un poco idealista lo que pienso (como muchas cosas que pienso), pero, ojalá que la mayor cantidad de colegios y universidades puedan aprovechar estas nuevas herramientas de aprendizaje que salen cada día.

Vía WiredScience.

17 octubre, 2010

,

División celular sin microtúbulos

Hace un mes habíamos visto que la mitosis podía generar más de dos células hijas cuando la célula tenía más de dos centrosomas, lo cual generaba una división celular multipolar. Sin dudas, los centrosomas son parte fundamental de la mitosis ya que son los centros de organización de los microtúbulos que forman el huso mitótico (también conocido como huso acromático), los cuales jalan hacia cada uno de los polos a las cromátides hermanas que se han ordenado en el centro de la célula durante la metafase. La forma como lo hacen es cuando los microtúbulos del huso mitótico (de color verde en la figura) se unen al cinetocoro – estructura proteica que se forma en los centrómeros (color rojo) – y empiezan a jalar las cromátides hermanas (color azul) hacia los extremos opuestos de la célula para finalmente dividirse en dos células hijas.

Sin  dudas los microtúbulos tienen un papel importantísimo en la segregación equitativa del material genético. Pero, ¿que pasaría si no hay microtúbulos? ¿la división celular se detendría? ¿la célula moriría? ¿la división celular se daría pero las cromátides hermanas no serían separadas de manera equitativa?

Castagnetti et al. hizo una observación inesperada en la levadura Schizosaccharomyces pombe, donde en la división celular, la membrana nuclear permanece intacta y la segregación del material genético se lleva a cabo dentro del núcleo, el cual se estira en sentidos opuestos por acción del huso mitótico incrustado en él y luego se estrangula formando dos núcleos hijos y para luego formar dos células hijas después de la citocinesis. A este mecanismo de división celular se conoce como mitosis cerrada.

Pero lo más extraño ocurrió cuando agregaron un compuesto que degrada la tubulina (proteína que conforma los microtúbulos) para evitar la formación del huso mitótico y observaron que la división celular igual se llevaba a cabo, pero, de una manera alternativa llamada fisión nuclear, donde las cromátides hermanas se agrupaban en dos envolturas nucleares separadas, para luego segregarse a cada célula hija.

mitosis

En la fisión nuclear, los centrómeros se ubican a cada extremo de la célula pero no no se forma el huso mitótico, pero, aún así, los dos núcleos migran hacia los polos. ¿Quién es el responsable de esta segregación?. Los investigadores usaron otra droga que degradaba la actina, principal componente del citoesqueleto. Sin los filamentos de actina, los dos núcleos no podían redistribuirse en cada célula hija.

Entonces, la división celular en ausencia de microtúbulos se da de la siguiente manera: los cuerpos polares del huso se ubican en los polos del núcleo, las cromátides hermanas que están unidas por el centrómero pierden su cohesión y se separan y son jaladas hacia los polos del núcleo por medio de los husos polares, luego el núcleo se estira y divide para formar dos núcleos que se van separando. Finalmente la célula termina dividiéndose.

Si bien este tipo de división no es tan eficiente como la mitosis pero si tiene importantes implicancias evolutivas. Los que no necesitan de un huso mitótico para segregar su material genético son los procariotas y las arqueas, sólo una proteína tipo actina y una estructura tipo cinetocoro (Ver más en un artículo pasado), así que este proceso de fisión nuclear podría ser un vestigio de la transición de la fisión binaria y la mitosis. Sería interesante ver si la fisión nuclear se da en otras células eucariotas distintas a las levaduras y ver si es que aún se mantiene latente ese mecanismo de división celular primitivo.

Referencia:

ResearchBlogging.orgCastagnetti, S., Oliferenko, S., & Nurse, P. (2010). Fission Yeast Cells Undergo Nuclear Division in the Absence of Spindle Microtubules PLoS Biology, 8 (10) DOI: 10.1371/journal.pbio.1000512

Heller, K. (2010). Nuclear Fission without Microtubules—a Return to the Past? PLoS Biology, 8 (10) DOI: 10.1371/journal.pbio.1000515

, ,

¿Cuál es el genoma más grande de todos?

Hace un par de días llegó esta pregunta a mi correo electrónico, pero como no sabía la respuesta me puse a buscar información al respecto.
Para recordar: El tamaño de un genoma se mide en función al número de pares de base que tiene. Como el ADN se presenta en una doble hebra (una complementaria con a otra) el tamaño de un genoma no se mide en número de nucleótidos, como el caso del ARN, si no, en un nucleótido con su base complementaria.
En cuanto al tamaño de los genomas, el humano tiene 3.2 mil millones de pares de base (3.200.000.000 pb) en su versión haploide, mientras que de Carsonella ruddi —una bacteria parásita estricta de algunos insectos— tiene sólo 160.000 pb. Uno podría pensar que cuanto más grande es un genoma más complejo es el organismo, pero esto no es necesariamente así.

En cuanto a los genomas de eucariotas, hasta hace unos años se creía que el genoma más grande era de la ameba Amoeba dubia con unos 670 mil millones de pares de bases (!unas 200 veces más grande que el genoma humano!). El tamaño de este genoma fue reportado por Friz (1978), quien usó métodos bioquímicos para determinar el peso del genoma de esta ameba y, a partir de ahí, calcular su tamaño. 

Sin embargo, este método calculaba el peso del contenido total de ADN, el cual también incluye el ADN mitocondrial, que si bien es pequeño, se encuentra repetido cientos de veces en cada célula dentro de las mitocondrias. Además, este método no permite saber si un genoma es haploide o es poliploides, por lo que no pueden ser usados para compararlos con genomas haploides, que es a partir de donde se saca el tamaño de un genoma. Por ejemplo, el genoma humano es diploide (2n), o sea, el genoma está repetido dos veces, uno por parte de la madre y la otra por parte del padre. Llas papas que comemos normalmente son tetraploides (4n), y los camotes, hexaploides (6n). Así que si extraemos el contenido de ADN total, sus genomas pesarán cuatro o seis veces más de lo que realmente pesan, y lo tanto su tamaño será más grande de lo que realmente es. En el caso de las amebas, sus células pueden ser extremadamente poliploides (40n, 100n, etc.), por eso se creía que sus genomas eran extremadamente grandes.

El mes pasado se reportó en la revista Botanical Journal of the Linnean Society el genoma eucariota más grande de todos, el cual corresponde a una rara planta japonesa, Paris japonica (Melanthiaceae), que tiene nada menos que 149 mil millones de pares de base (unas 50 veces el tamaño del genoma humano). La determinación del tamaño también se hizo en función al peso del ADN, pero, esta vez sólo del ADN nuclear haploide (n), a través de la citometría de flujo. Para ser precisos, el peso del genoma de P. japonica fue de 152,23 picogramos.


Los investigadores creen que al tener un genoma más grande los hace más lábiles, con muchos problemas para soportar la contaminación ambiental y las condiciones climáticas cambiantes. Además, crece más lento que las plantas con menor tamaño de genoma (es lógico, porque a mayor longitud de genoma, más tiempo tomará replicarlo).

Vía | ScienceNow.

14 octubre, 2010

Pregúntale al biólogo

Antes de la popularización de la Internet (años 90’s), hacer los trabajos del colegio eran bastante laboriosos. Si uno era responsable, tenía dos formas para hacerlos: La primera era agarrar tu libro “Escuela Nueva” o los libros o fascículos que venían en los periódicos (Por ejemplo: El mundo natural de “OJO”, El reino animal de “EL POPULAR” o El cuerpo humano de “EXPRESO”) y la segunda era usar tu enciclopedia Encarta, claro, si es que tenías una computadora en casa. Pocos tenían internet y en las cabinas públicas la hora costaba unos S/.5 y, para un muchacho escolar, S/.5 era un montón de plata. En cambio, ahora los jóvenes escolares la tienen fácil, basta con digitar en Google lo que andan buscando y automáticamente les aparecerá una infinidad de páginas con información sobre el tema que están buscando, con imágenes y hasta con animaciones para un mejor entendimiento.

La internet había modificado la forma de buscar información, así que los que presentaban dicha información también debían adecuarse a este nuevo formato. A fines de los 90’s aparecieron unas páginas donde uno hacía una pregunta y después de unos días, algún experto en el tema te las respondía. Este intermediario entre los expertos y el público era una página web con el nombre de “Ask a…” (Pregúntale al…). Sin darse cuenta, habían creado una forma de conectar a los científicos y expertos con los estudiantes, profesores y público lleno de curiosidades.

El éxito de este tipo de páginas fue que se ofrecía un servicio las 24 horas del día sin la necesidad de trabajar las 24 horas del día. El que más aprovechó esta nueva forma de presentar la información fue Ask a biologist (http://askabiologist.asu.edu/) [Artículo pasado en BioUnalm] que empezó como una simple página web de la Universidad Estatal de Arizona y ahora es un sitio web con más de 2500 páginas de contenidos y más de un millón de visitas al año. La forma como funciona Ask a biologist es muy sencilla, uno hace una pregunta la cual es derivada a uno de los más de 150 colaboradores entre los que hay estudiantes de posgrado e investigadores, quienes en unos pocos días, o hasta en unas horas te dan la respuesta a tu inquietud.

askabiologist

Además, Ask a biologist no se conforma sólo con responder tus inquietudes, también tiene audios de entrevistas a importantes científicos, videos didácticos, herramientas para mejorar la enseñanza de los profesores, galería de fotos y juegos desarrollados según tu nivel académico. Ask a biologist está hecho tanto para estudiantes de pregrado como para niños de primaria.

Ahora Ask a biologist ha sufrido una transición ya que los visitantes ya no entran a la página por falta de información, sino, porque en ella encuentran un montón de información. Además, no sólo esta página sirve para responder a una curiosidad que siempre has tenido sino que te puede orientar en tu desarrollo profesional, más de la cuarta parte de las preguntas son de estudiantes de biología que quieren saber en que especializarse, en que investigar, etc.

Una herramienta importante es que Ask a biologist tiene un archivo de imágenes para que uno pueda desarrollar su propia tira cómica científica, de esta manera se pretende mejorar la comunicación científica y la enseñanza escolar.

Y además aprovecha de todas las herramientas disponibles en la Internet para llegar a más personas, tiene una página de Facebook, un canal en YouTube y en TeacherTube. También te ofrece experimentos que puedes realizarlo tanto en la computadora como en la vida real! Este experimento acerca a los estudiantes, de manera virtual, a un trabajo de investigación realizado en algún laboratorio, usando diferentes tratamientos y en tiempo real (el ensayo puede durar 10 días), además, como lo puedes hacer en la vida real, puedes comparar tus resultados con los obtenidos en la computadora. Con herramientas como estas se incentiva más el interés por la ciencia en los niños.

Esta iniciativa de Ask a biologist les ha permitido ganar varios financiamientos (grants) para que puedan contratar los servicios de ilustradores, diseñadores gráficos, redactores científicos, traductores para tener un mayor alcance. Sin dudas, la comunicación científica se ha visto muy favorecida con el desarrollo de la internet y de seguro incentivará para que más jóvenes tengan ánimos de algún día volverse científicos.

Referencia:

ResearchBlogging.orgKazilek, C. (2010). Ask A Biologist: Bringing Science to the Public PLoS Biology, 8 (10) DOI: 10.1371/journal.pbio.1000458