sábado, 20 de julio de 2019

Purificación el agua por antigravedad con nano-árboles.

Mover eficientemente el agua hacia arriba contra la gravedad es una gran hazaña de la ingeniería humana, pero una que los árboles han dominado durante cientos de millones de años. Las plantas contienen muchos pequeños vasos de xilema que extraen agua del suelo a través de sus ramas y hojas. Una vez que el agua llega a las hojas, la radiación solar hace que el agua se evapore a través de pequeños poros en las hojas. En un nuevo estudio que investigadores de la  Universidad de Zhejiang de China publicaron en la revista ACS Nano (Efficient Water Transport and Solar Steam Generation via Radially, Hierarchically Structured Aerogels), explican cómo han diseñado un sistema de transporte de agua inspirado en árboles que utiliza fuerzas capilares para impulsar el agua sucia hacia arriba a través de un aerogel estructurado jerárquicamente, donde la energía solar puede convertirlo en vapor para producir agua fresca y limpia. 
Crédito: Xu y col.© 2019 American Chemical Society
Los aerogeles se han convertido en uno de los materiales más interesantes del siglo XXI. La estrategia de procesamiento única produce materiales con porosidades extremadamente altas y densidades bajas, áreas de superficie específicas altas, resistencias dieléctricas altas y conductividades térmicas bajas. Estas propiedades han hecho de los erogeles nuevos e intrigantes materiales para aplicaciones aeroespaciales, generación y almacenamiento de energía, dispositivos biomédicos e implantes y sensores. Recientemente, los aerogeles han entrado en el campo de la nano, incorporando una variedad de nanomateriales en la matriz del aerogel y utilizando dichos materiales para crear aerogeles compuestos mejorado aún más sus propiedades funcionales. Con el avance de la nanotecnología el desarrollo de estructuras de aerogel de alto rendimiento ha crecido de manera exponencial. Por ejemplo, los nanomateriales de carbono como los nanotubos de carbono, el grafeno y las nanofibras de carbono se han incorporado a los aerogeles para mejorar la conductividad eléctrica y el rendimiento de aplicaciones como supercondensadores, sensores y baterías.  La preparación de los aerogeles implica típicamente tres pasos distintos. Una vez que los materiales deseados se seleccionan para la fabricación del aerogel, los materiales precursores se dispersan en un líquido (es decir, dispersión coloidal) y se dejan gelificar, formando así una red continua de partículas sólidas en todo el líquido constituyendo la primera etapa: la transición sol-gel (gelificación), la segunda es la perfección de la red (envejecimiento) y la tercera transición gel-aerogel (secado).  El nuevo sistema presentado en el citado artículo consta de dos componentes principales: un aerogel largo, poroso y ultraligero para transportar agua, y una capa de nanotubos de carbono en su parte superior para absorber la luz solar y convertir el agua en vapor. El sistema está encerrado en un recipiente de vidrio. El agua viaja hacia arriba a través de los poros en el aerogel debido a las fuerzas capilares causadas por la adhesión entre las moléculas de agua y la superficie interna de los poros. Una vez que el agua llega a la cima, la capa de nanotubos de carbono calentada por el sol trasforma el agua en vapor, dejando atrás cualquier contaminante. El sistema también funciona igual de bien con agua limpia, agua de mar, aguas residuales y aguas subterráneas arenosas. Además, el colector de calor de carbono logra una alta eficiencia de conversión de energía de hasta el 85%. El secreto del buen rendimiento reside en el logro de un aerogel con una estructura jerárquica con canales alineados radialmente, poros de tamaño pequeño, superficies internas arrugadas y mallas moleculares. 

Información complementaria:

sábado, 13 de julio de 2019

Vaca Muerta, agricultura, contaminación del agua y justicia

En el año 2018 se perforaron 336 pozos no convencionales en  Vaca Muerta y según el plan quinquenal previsto si se cumplen las proyecciones de perforación para el año 2023 (650 pozos perforados por año) la demanda de agua se duplicará y alcanzará casi 30 millones de metros cúbicos anuales, un volumen récord para la Cuenca Neuquina.  En el shale se realizan ramas laterales que atraviesan la roca generadora con poco más de 30 etapas de fractura, por lo que se podría estimar que el consumo promedio de agua por pozo es aproximadamente entre 45.000 y 60.000 metros cúbicos. El consumo de agua en el año 2018 representó solo el 0,13% del caudal mínimo que pueden erogar los ríos Neuquén, Limay y Colorado en conjunto. Si se  cumplen las proyecciones el consumo de agua por Vaca Muerta en 2023 representará el 0,26% de la capacidad de los ríos. Por lo tanto la explotación de los hidrocarburos no convencionales no constituye un riesgo al recurso hídrico provincial (Fuente: Revista Petroquímica. Petróleo, Gas, Química & Energía).
Resulta lógico tratar de reutilizar el agua. En tal sentido empre-sas como Nalco-Champion y Falmet en su planta Nalflow II ha logrado recuperar el 78.44% de agua de reflujo para su reutilización  en una nueva fractura. El resto del agua se someter a procesos de puri-ficación en cumplimiento con las normativas vigentes para el vertido posterior. Cabe recordar que el agua dulce se solo 1% de la totalidad de los aprox. 1900 millones de Km3 del agua total del planeta y que el 70% se destina a agricultura, el 12% a distintas industrias y el 17% a consumos municipales. En un estudio mundial sobre la contaminación del  agua por la agricultura, realizado por la FAO y el Instituto Internacional para el Manejo del Agua (IVMI) la califica como la responsable del vertido de grandes cantidades de agroquímicos, entre otros contaminantes, en los cuerpos de agua. Desde 1960, el uso de fertilizantes minerales se ha multiplicado por diez, mientras que desde 1970 las ventas mundiales de plaguicidas pasaron de cerca de 1 000 millones de dólares anuales a 35 000 millones de dólares al año. En el reciente artículo  Nanoparticle Size and Coating Chemistry Control Foliar Uptake Pathways, Translocation, and Leaf-to-Rhizosphere Transport in Wheat, publicado en la revista ACS Nano, los investigadores resaltan la notoria ineficiencia en la aplicación de los agroquímicos ya que hasta el 95% de los fertilizantes y el 99.9% de los pesticidas aplicados nunca alcanzan sus objetivos, se desperdician y contaminan el agua utilizada en la agricultura. Agua que por ingresar al suelo no puede ser tratada para su purificación ni puede ser reutilizada. 
Recientemente la Fundación Ambiente y Recursos Naturales (FARN) envío a la petrolera YPF dos pedidos de acceso a la información pública respecto de los impactos ambientales provocados por la explotación de hidrocarburos en el yacimiento de Vaca Muerta y ante la falta de respuesta logró que el  Juzgado de primera instancia en lo Contencioso Administrativo Federal N°8 de Capital Federal fallara a su favor al considerar que se debe permitir a la población el acceso a la información pública referente a actividades desarrolladas por las industrias y sus posibles impactos en la salud y el ambiente; originando que por primera vez YPF deba responder legalmente sobre el impacto ambiental de Vaca Muerta. 
¿Habrá una primera vez para la agricultura que utiliza-contamina el 70% del agua dulce utilizada anualmente en el planeta?

sábado, 6 de julio de 2019

Investigación básica, aplicada y orientada a la innovación.

En muchos países todavía se discute sobre la prioridad de asignación de recursos a la investigación básica  o a la investigación aplicada. No podemos dejar de reconocer que el producto de la secuencia educación, investigación básica-investigación aplicada debe concluir  en productos y/o servicios innovadores capaces de dar respuesta a las crecientes necesidades socioeconómicas originadas por el alarmante crecimiento de la población del planeta (5000 millones de habitantes en los últimos 69 años). Para completar el camino hacia la innovación tecnológica ya no basta con la investigación básica y la investigación aplicada hay que agregar los conocimientos necesarios para investigar en lo financiero, económico y comercial las posibilidades de generar empresas de base científico-tecnológicas, generalmente pymes con una alta dependencia del conocimiento de avanzada. Lo expuesto conlleva a un cambio en la formación de los profesionales: pasar de la adquisición de solo las capacidades específicas científico-tecnológicas vinculadas a su profesión a lograr un espectro más amplio integrando ciencia, tecnología y gestión. 
Profesionales de avanzada en lo científico-tecnológico y también con los conocimientos de gestión necesarios para  implementar las empresas destinadas a cerrar el ciclo hacia la innovación con crecimiento. En la práctica implica carreras centradas en el saber-saber hacer y la incor-poración al currículo de materias de gestión. Por otra parte, se necesita un organismo oficial para  coordinar educación, ciencia, tecnología y gestión empresarial. No como compartimentos estancos, sino integrando complejidades y potenciando resultados. Las respuestas esperadas y necesarias a las problemáticas de un país, de una región y del planeta requiere de acciones centradas en la ciencia básica, en la ciencia aplicada y en la integración de ciencias conducentes a la concreción y funcionamiento de las empresas capaces de realizar el proceso innovador.  En realidad la asignación de recursos debe establecer un racional e inteligente equilibrio, en función del contexto socioeconómico, de los recursos asignados a la investigación básica, la aplicada y la innovativa para orientar el crecimiento a través de la innovación.    

viernes, 28 de junio de 2019

Desde Aristóteles nunca nadie se atrevió a tanto.

Aristóteles (384 a.C. – 322 a.C.) de Estagira, en Tracia, ha influido profundamente en la historia de Occidente a través de sus estudios y observaciones científicas. El introduce los cuatro elementos esenciales para la vida: el fuego a la vez caliente y seco, la tierra seca y fría, el agua fría y húmeda y el aire húmedo y caliente. Las propiedades que los vinculan se oponen entre sí (seco-húmedo y frío-caliente).
Para Aristóteles, cada humano estaba formado por una proporción única de los cuatro elementos, diferente de cualquier otro ser humano. 
La concepción de Aristóteles perduró durante cientos de años, aproximadamente dos milenios y constituyó la primera teoría física especulativa conocida. Hoy sabemos de su escasa validez científica. Sin embargo, teniendo en cuenta los recursos de la época y basándose apenas en la observación, Aristóteles intentó e inició un camino hacia la compresión de la naturaleza humana.  Mucho avanzó la ciencia y la tecnología desde entonces. La vida en la actualidad, si bien sigue vinculada a factores de la naturaleza como la tierra, el aire, el fuego y el agua, avanza hacia complejas disciplinas científicas-tecnológicas centradas en la trasformación de la naturaleza, como la nanotecnología y la biotecnología, las cuales  integradas a la gran capacidad de acción de la infotecnología, conforman un grupo de disciplinas con crecimiento exponencial con posibilidad de interactuar ente sí mediante una simbiosis innovadora para dar respuestas a las acuciantes problemáticas socioeconómicas del planeta.
Es el siglo de las tecnologías convergentes NBIC (Nano. Bio, Info y Cognotecnología). 
En el nuevo contexto los “elementos” de Aristóteles responsables de la formación en una proporción única del ser humano se podrían reemplazar por “elementos” relacionados a complejidades crecientes como ser: la vida humana, la inteligencia humana, la vida robotizada y la inteligencia artificial. Las cuatro vinculadas a través de las propiedades inherentes a las NBIC. Tal vez un encuadre interesante, producto de la experiencia milenaria, es que ahora no aparecen como opuestas, parecieran complementase en función de ambiciosos objetivos como el logro de un cerebro artificial y el de poder trasferir el software-mente de un humano a un robot. No obstante podemos vislumbrar cierta oposición entre la biotecnología y la nanotecnología en el intento de pasar de una vida humana mortal a una vida robotizada inmortal, sin necesidad de genes ni de ingeniería genética. Sí surgen  opuestos definidos en los "elementos": inteligencia humana-inteligencia artificial y  vida humana-vida robotizada. 
Finalmente con relación a la presentación de los cuatro “elementos” para el siglo XXI, cabe reflexionar que desde Aristóteles nunca nadie se atrevió a tanto. Seguramente, su validez científica, tampoco perdure dos milenios.

Lectura sugerida: La Convergencia de las Tecnologías Exponenciales y la Singularidad Tecnológica. Editorial Temas. 2017.

sábado, 22 de junio de 2019

Rociar nanopartículas en las hojas para entregar con eficiencia agroquímicos en las raíces.

La agricultura en todo el mundo requiere nuevas soluciones para la sostenibilidad de los alimentos y el agua. Debido a los cambios climáticos frecuentes, el aumento de la población, la mayor demanda de alimentos y las amenazas globales a los cultivos, se están buscando soluciones para administrar la producción de alimentos para el futuro. La cantidad de recursos utilizado por la agricultura es asombrosa. Se producen más de 3.000 millones de toneladas métricas de cultivos cada año en el planeta, lo cual requiere 187 millones de toneladas métricas de fertilizantes, 4 millones de toneladas de pesticidas, 2,7 billones de metros cúbicos de agua (el 70% de todo el consumo de agua dulce a nivel mundial) y más de 504 millones de kilocalorías de energía. Con las prácticas actuales nunca llegan a destino y se desperdicia hasta el 95 por ciento de los micronutrientes y el 99.9 por ciento de los pesticidas aplicados. Se acumulan en la tierra o se escurren en el agua subterránea y causan daños ambientales colaterales, degradan el suelo, se desperdicia el agua y la energía utilizada en su producción y aplicación. 
En el artículo Nanoparticle Size and Coating Chemistry Control Foliar Uptake Pathways, Translocation, and Leaf-to-Rhizosphere Transport in Wheat, publicado en la revista ACS Nano, el Dr. Gregory V. Lowry y colaboradores de la Carnegie Mellon University, Pittsburgh, Pennsylvania, han descubierto con éxito una forma de aplicar nanopartículas (con el agroquímico adsorbido)  a las hojas de la planta para que viajen hasta la raíz con lo que se podría lograr una entrega de nutrientes, antibióticos y psticidas con una eficiencia de casi 100%.
Crédito: Gregory V. Lowry y col. Carnegie Mellon University
Una agricultura eficiente en la cual cada átomo colocado en los cultivos se utilice y no se desperdicie, todo un cambio en la forma de entregar los agroquímicos a las plantas. Por primera vez han estudiado sistemáticamente
cómo las nanopartículas se mueven a través de la hoja, a la planta, a la raíz y exudan al suelo. Los investigadores rociaron nanopartículas de oro, con un recubrimiento del polímero PVP (polivinilpirrolidona) y con un recubrimiento de citrato, sobre las hojas de las plantas de trigo jóvenes. Las plantas no necesitan oro, pero como el oro no existe en ninguna parte de la planta, pudieron identificar fácilmente a dónde viajaba. Usaron plantas de trigo porque es un cultivo importante y susceptible a la deficiencia de nutrientes. Una vez  rociadas sobre la hoja se mueven a través de la cutícula (capa externa cerosa que cubre la hoja) y luego atraviesan la epidermis.  Las nanopartículas se abren camino hacia el tejido interno de la hoja o mesófila. Finalmente, se mueven hacia la vasculatura, las “venas” de la planta. Desde allí puede viajar por todo el tallo hasta la raíz. Al llegar a las raíces son  exudadas al suelo, a la rizosfera. La rizosfera es donde la planta interactúa con el suelo, absorbe nutrientes, libera pequeños ácidos, dióxido de carbono, proteínas y donde las bacterias y los hongos pueden ingresar a ella. El seguimiento de las nanopartículas en el cultivo se realizo mediante mapeos de fluorescencia de rayos X. 

Los métodos disponibles actualmente para llegar a la rizosfera consisten en mezclar agroquímicos en el suelo o aplicarlos en solución. En ambos casos se pierde una gran cantidad de los productos químicos. La utilización de nanopartículas con tamaño menor a 50 nm  podría ser una clave muy importante para alimentar de manera sostenible a los 7.500 mil millones de habitantes del planeta. Las posibilidades son infinitas, y esta investigación tal vez se constituya en el inicio de un camino para la utilización eficiente de los agroquímicos.

Información complementaria: 

viernes, 14 de junio de 2019

Organismos nano-biohíbridos para fábricas ecológicas.

Investigadores de la Universidad del Colorado Boulder han desarrollado organismos nano-biohíbridos capaces de usar el dióxido de carbono y el nitrógeno del aire en la producción de una importante variedad de sustancias, plásticos y biocombustibles; un paso prometedor hacia el consumo de los citados gases atmosféricos en la fabricación ecológica de productos químicos. El artículo Nanorg microbial factories: Light-driven renewable biochemical synthesis using quantum dot-bacteria nano-biohybrids se publicó el 7 de julio del 2019 en la revista Journal of American Chemical Society.
Crédito: P. Nagpal y colaboradores. J. Am. Chem. Soc.
Los científicos utilizaron puntos cuánticos (semicon- ductores con diámetros entre 2 y 10 nanómetros con capa- cidad para emitir fluorescencia de distintos colores, según su diámetro, al ser iluminados)
diseñados para unirse y autoensamblarse a enzimas (sistema dot-bacteria) a las cuales se las puede activar haciendo incidir sobre la bacteria radiación de lon-gitudes de onda específicas. La activación selectiva de enzimas permite crear fábricas vivientes que utilizan como materia prima dióxido de carbono  y lo convierten en productos útiles como plástico biodegradable, nafta y biodiésel o nitrógeno del aire para obtener amoniaco. 
Crédito: Suspensiones de puntos cuánticos-P. Nagpal y col. J.A.C.S.

La técnica permite superar el rendimiento natural de las bacterias (Azotobacter vinelan-dii y Cupriavidus necator) en un 200 por ciento.  Las dife-rentes combinaciones de los siete puntos cuánticos utilizados, enzimas y luz producen distintos productos: longitudes de onda verdes causan que las bacterias consuman nitrógeno y produzcan amoniaco mientras que las longitudes de onda rojas utilizan el  CO2 para producir plástico. El proceso también muestra signos prometedores para operar a gran escala. Incluso cuando las fábricas microbianas se activan constantemente durante horas muestran pocos signos de agotamiento, lo que indica que las células pueden regenerarse y, por lo tanto, limitar la necesidad de rotación. Lo ideal sería que hogares y empresas familiares canalicen las emisiones de CO2 directamente a un estanque cercano donde los microbios las convertirían en biocombustibles: isopropanol, 2,3-butanodiol, C11C15 metil-cetonas  e hidrógeno; químicos simples: ácido fórmico, amoniaco, etileno, propanol y plásticos biodegradables como el polihidroxibutirato (PHB), permitiendo a los propietarios vender el producto resultante con alguna ganancia. Activar enzimas gracias a su unión con distintos puntos cuánticos permite  lograr en forma selectiva productos de interés utilizando como materia prima gases conducentes al evento invernadero.
Información complementaria:

sábado, 8 de junio de 2019

Localización a nanoescala del inicio de la corrosión.

Crédito: Nature's Materials Degradation
La mitigación de la corrosión sigue siendo un desafío abrumador debido a que eventos de corrosión iniciados y localizados a escala nanométrica, aún poco conocidos,  causan variaciones impredecibles en la longevidad del material. La corrosión localizada es diferente de la corrosión uniforme. La uniforme ocurre en forma masiva y es altamente predecible. La localizada es “invisible”, con una ruta observable solo en su punto final cuando los tubos de acero se oxidan y  fallan. Para anticipar  los desastres, las compañías petroleras y otros han creado modelos informáticos para predecir cuándo se necesita un reemplazo. No obstante estos modelos requieren mayor conocimiento fisicoquímico del proceso para no fallar y originar costosos inconvenientes. Recientemente, 13 investigadores de los Laboratorios Nacionales Sandia, del Centro de Nanotecnologías Integradas del Departamento de Energía (Albuquerque) y del Centro de Investigación Aramco en Boston, entre otros, han descubierto que una forma particular de corrosión a nanoescala es responsable de disminuir de manera impredecible la vida útil de las tuberías de acero con bajo carbono,  según se comenta en la reciente e interesante publicación  Localized corrosion of low-carbon steel at the nanoscale  publicada en la revista Nature 's Materials Degradation
Utilizando microscopía electrónica de transmisión en celdas líquidas capturaron el advenimiento de la corrosión acuosa localizada en acero al carbono a escala nano y en tiempo real. La corrosión localizada se inicia en una unión triple formada por un  grano de cementita (carburo de hierro C3Fe), dos granos de ferrita (a-Fe). Esta unión se forma frecuentemente durante la mayoría de los métodos de modelado de tuberías de acero. En los experimentos, el proceso corrosivo se detuvo cuando la unión triple se consumió  por la corrosión, pero la grieta dejada permitió a la solución corrosiva continuar atacando el interior del acero. El hecho constituye la primera observación en el mundo en tiempo real de la corrosión a nanoescala en un material de aplicación real, el acero al carbono, el tipo de acero más utilizado en infraestructura en todo el mundo. Toda una mejora en la  comprensión de los mecanismos por los cuales la corrosión se inicia y progresa a partir de estos tipos de interfaces. El trabajo ya se está incorporando en modelos utilizados para evitar catástrofes relacionadas con la corrosión, como el colapso de la infraestructura y las costosas roturas de tuberías.

Lectura complementaria:                                                                                                    Localized corrosion of low-carbon steel at thenanoscale.

sábado, 1 de junio de 2019

Respuesta contraintuitiva al cambio climático.

En el reciente artículo Methane removal and atmospheric restoration publicado en la revista Nature Sustainability se presenta un proceso relativamente simple que podría ayudar a cambiar el rumbo del cambio climático. La solución propuesta es aparentemente contraintuitiva: convertir un gas de efecto invernadero en otro; concretamente, metano en dióxido de carbono. 
Crédito: Stan Coffman-Nature Sustainability 
Aunque la cantidad del dióxido de carbono en la atmósfera es mucho mayor, el metano es 84 veces más potente en términos de calentamiento. Las emisiones del metano provenientes del cultivo de arroz o del ganado, por ejemplo, pueden ser muy difíciles o costosas de eliminar. Por el método propuesto en el artículo la concentración  ambiental de metano actual de 
1,860 ppb(partes por billón) podría restaurarse a los niveles preindustriales cercanos a de 750 ppb,  mediante la conversión de alrededor de 3.200 millones de toneladas del gas atmosférico en dióxido de carbono equivalente a unos pocos meses de emisiones industriales globales. Por la vía señalada se eliminaría aproximadamente una sexta parte de todas las causas del calentamiento global hasta a la fecha. El metano es difícil de capturar desde el aire porque su concentración es muy baja. Sin embargo, los autores señalan que la zeolita, un material cristalino constituido principalmente por aluminio, silicio y oxígeno, podría actuar esencialmente como una esponja para absorber el metano.  Ventiladores eléctricos fuerzan a pasar el  aire a través de reactores llenos de zeolitas en polvo o peletizadas y otros catalizadores. El metano atrapado podría entonces calentarse para formar y liberar dióxido de carbono. El proceso de conversión de metano a dióxido de carbono podría ser rentable mediante una compensación de “bonos de carbono”. Una matriz de zeolita del tamaño de un campo de fútbol podría generar millones de dólares al año en ingresos al tiempo que eliminaría el metano dañino del aire.  Un enfoque aparentemente contrario a la intuición (producir mas gas generador de efecto invernadero) promete devolver la atmósfera a concentraciones de metano preindustriales, disminuyendo un poderoso protagonista del calentamiento global.

Información complementaria:

sábado, 25 de mayo de 2019

Manipular átomos con un haz de electrones.

La nanotecnología tiene la capacidad de crear y manipular materiales al nivel más básico, fabricando dispositivos átomo a átomo con un control preciso. Científicos del MIT(Estados Unidos), de la Universidad de Viena(Austria), de la Universidad de la Academia China de Cienciasde la Universidad de Aarhus(Dinamarca), de la Universidad de Sichuan(China), de la Escuela Politécnica Nacional(Ecuador), del Instituto de Tecnología de Massachusetts(Estados Unidos) y del Laboratorio Nacional de Oak Ridge (EE. UU) han dado un paso en esa dirección, al desarrollar un método que puede reposicionar los átomos con un haz de electrones altamente enfocado para controlar su ubicación exacta. El hallazgo puede  conducir a nuevas formas de hacer dispositivos de computación cuántica e iniciar una nueva era de innovación a través de la manipulación atómica. 
Átomo de P inserto en grafeno. MIT News(cortesía investigadores) 
El artículo Engineering single-atom dynamics with electron irradiation se publicó en la revista Science Advances el 17 de mayo del 2019. El objetivo de la investigación es controlar uno a uno cientos de átomos, sus posiciones,  su estado de carga y sus estados de giro electrónicos y nucleares. En los artículos precedentes se  manipularon las posiciones de los átomos individuales con la punta “aguja” de un microscopio de efecto túnel para luego dejarlos caer en la posición deseada; un proceso lento. El nuevo manipula los átomos mediante un haz de electrones en un microscopio electrónico de transmisión de barrido(STEM), por lo que puede controlarse de forma totalmente electrónica mediante lentes magnéticas y no requiere partes mecánicas en movimiento. Eso lo hace potencialmente mucho más apto para aplicaciones rápidas. Usando controles electrónicos e inteligencia artificial permite manipular los átomos en escalas de tiempo de microsegundos; menor en muchos órdenes de magnitud con relación a la actual. Además, es posible tener muchos haces de electrones trabajando simultáneamente en la misma pieza de material. Los chips de las computadoras se fabrican mediante el "dopaje" de un cristal de silicio con otros átomos necesarios para conferir propiedades eléctricas específicas, creando así "defectos" en el material y regiones sin la estructura cristalina perfectamente ordenada. En el proceso no podía controlarse con precisión atómica dónde se ubican esos átomos dopantes; en cambio con el nuevo sistema se logra el posicionamiento exacto. La potencia del haz de electrones con un enfoque muy estrecho, casi tan ancho como un átomo, hace que un átomo salga de su posición y, al seleccionar el ángulo exacto del haz, los investigadores pueden determinar su lugar más probable. La inserción de impurezas y generación de defectos en una red cristalina constituyen  el corazón de la industria electrónica. A medida que los dispositivos de estado sólido se hacen más pequeños, hasta el tamaño del nanómetro, se vuelve cada vez más importante saber con precisión dónde se encuentra un solo átomo o el defecto producido por la impureza y cuáles son sus entornos atómicos. La investigación responde al objetivo extremadamente desafiante de disponer de un método escalable para manipular de forma controlada o colocar átomos individuales en las ubicaciones deseadas, así como predecir con precisión qué efecto tendrá esa ubicación en el rendimiento del dispositivo. 

El método desarrollado es mucho más que jugar al fútbol con los átomos, constituye  un nuevo y emocionante paradigma nanotecnológico.

Lectura complementaria:

sábado, 18 de mayo de 2019

Calidad académica: atesorar el saber para saber hacer.

El doctor  Philippe Perrenoud, antropólogo y sociólogo suizo, reconocido por su trabajo en el área de la enseñanza vinculado con el desarrollo de ideas sobre la optimización de la educación en el contexto actual, señala:
Un simple erudito, incapaz de movilizar sus conocimientos de manera apropiada será, frente a una situación compleja, que exige una acción rápida, casi tan inútil como un ignorante”.
La citada frase pone la lupa sobre el abismo entre la metodología ortodoxa de la enseñanza universitaria y la necesaria en la actualidad. Toda una colisión entre el estatus del “como sabe” enciclopedista y el saber hacer inherente al avance tecnológico retroalimentado con la facilidad de obtener en tiempo real la información necesaria para avanzar desde el saber significativo.
En 1950 la población del planeta era de 2500 millones de habitantes, hoy llegó a 7500 millones de habitantes. El fabuloso crecimiento exponencial de 5000 millones de habitantes en sólo 69 años trajo aparejados numerosos problemas: fuerte incremento en la demanda de energía, alimentos y servicios de salud, aumento de la contaminación en general producto de la mayor cantidad de habitantes y de la actividad humana, peligrosa acumulación de gases que conducen al calentamiento global, declive constante de la diversidad biológica ante la apropiación de más espacios físicos por el hombre, aproximación a la “carga máxima de la tierra” (10.000 millones de habitantes), disminución de oportunidades laborales, acenso de lo irracional, etc. Las respuestas tecnológicas fueron apareciendo a través de nuevas disciplinas como la nanotecnología y la biotecnología. Como consecuencia se produce en el último cuarto del siglo XX un cambio en el paradigma educativo, ya no alcanza con las ciencias destinadas a conocer la naturaleza, son necesarias ciencias-tecnologías integradas como la biotecnología y la nanotecnología capaces de transformar la naturaleza “para tratar la restablecer las pautas perdidas y hacer posible la vida en la tierra” (Jeremy Rifkin). Las estructuras universitarias se enfrentan a la disyuntiva de cambiar o conformarse con ser espectadoras del crecimiento exponencial de las respuestas producidas por las tecnologías del nuevo paradigma.
Para la Prof. Dra. Viviana Lázara González Maura “El mayor aporte de los trabajos de Perrenoud a la educación contemporánea está en su concepción dinámica de la competencia, entendida como movilización e integración de saberes (saber, saber hacer, saber estar y saber ser) en la búsqueda de soluciones a problemas diversos en situaciones complejas, heterogéneas y cambiantes". 
La calidad académica hoy implica atesorar el saber necesario “para el saber hacer”, el “como sabe” clásico ya lo tenemos en “la nube”.

sábado, 11 de mayo de 2019

"Nanonaves" para controlar la actividad neuronal.

Investigadores de la Universidad de Trieste(Italia), de la  Universidad de Manchester (Reino Unido) y de la Universidad de Strasbourg(Francia) publicaron en la revista Nano Letters el artículo Graphene Oxide Flakes Tune Excitatory Neurotransmission in Vivo by Targeting Hippocampal Synapses, en el cual presentan un estudio sobre la capacidad de los nano-objetos para llegar a sitios puntuales y afectar la acción de células cerebrales específicas interfiriendo con la transmisión de las señales de una neurona a otra. Esto ocurre en las sinapsis, cruciales para el funcionamiento de nuestro sistema nervioso. Las sinapsis computan y transmiten información para conectar circuitos neuronales y están en la base de las operaciones cerebrales. Las alteraciones en su función contribuyen a una amplia gama de trastornos neuropsiquiátricos y neurodegenerativos, y la intervención terapéutica basada en sinapsis, como la inhibición selectiva de la transmisión sináptica, puede ayudar significativamente contra patologías graves. 
Crédito: Denis Scaini
Como si fuera una novela de ciencia ficción, escamas(hojas) de grafeno(óxido), se comportan como “nanonaves” espaciales capaces de alcanzar un sitio del cerebro para influir en el funcionamiento de ciertas neuronas o administrar  fármacos en forma  selectiva, segura y reversible
(deprimen selectivamente la actividad del glutamato, principal neurotransmisor-excitador en el sistema nervioso). El nano-objeto ha demostrado su capacidad de interferir con la transmisión de la señal en las uniones sinápticas neuronales excitadoras de manera reversible, porque desaparece sin dejar rastro unos días después de haber sido administrado. La investigación podría aplicarse al tratamiento de problemas, como la epilepsia, en la que se registra un exceso de la actividad de las neuronas excitadoras o para estudiar formas innovadoras de transporte de sustancias terapéuticas in situ. Los investigadores analizaron la actividad del hipocampo luego se inyectar las escamas de grafeno en el sitio, observando la interferencia con la actividad de estas células mediante marcadores fluorescentes. Luego de 72 horas los mecanismos fisiológicos de la depuración del cerebro eliminaron por completo todas las escamas. La respuesta inflamatoria y la reacción inmune han sido menor que las registradas al administrar una simple solución salina.  La especificidad de la acción, según explican los investigadores, residiría en el tamaño de las partículas utilizadas(100-200 nanómetros de diámetro). El tamaño es la raíz de la selectividad, si las escamas son demasiado grandes, no pueden penetrar en la sinapsis, áreas muy estrechas entre una neurona y otra. Si son demasiado pequeñas, simplemente son eliminadas. En última instancia, en ambos casos, no se observaron efectos en las sinapsis. El siguiente paso es el estudio de las aplicaciones potenciales de las nanonaves de grafeno en el control de la actividad neuronal.

Información complementaria:
Graphene Oxide Flakes Tune Excitatory Neurotransmission in Vivo by Targeting Hippocampal Synapses

sábado, 4 de mayo de 2019

Supercapacitores nano para dispositivos portátiles.

El avance de la tecnología portátil requiere de fuentes de energía mejoradas.  En el artículo “Highly Stretchable Supercapacitors via Crumpled Vertically Aligned Carbon Nanotube Forests”, publicado en la revista Advanced Energy Materials, investigadores de la Universidad Estatal de Michigan presentan una solución con la  creación de supercapacitores altamente estirables basados en bosques arrugados de nanotubos de carbono (CNT) alineados verticalmente y transferidos a un sustrato de elastómero.  
Crédito: Universidad Estatal de Michigan 
Los nuevos supercapacitores estirables pueden permitir el almacenamiento de energía para la alimentación de dispositivos portátiles y han recibido mucha atención debido a sus importantes aplicaciones en el desarrollo de artefactos electrónicos estirables autoamplificados destinados a  los dispositivos electrónicos portátiles, a los dispositivos      epidérmicos en implantes y a los dispositivos biomédicos con capacidad  de soportar deformaciones y adaptarse a las superficies complicadas. El capacitador desarrollado ha demostrado un sólido rendimiento y estabilidad, incluso cuando se estira hasta el 800% de su tamaño original para miles de ciclos de estiramiento-relajación. Además, los electrodos de CNT-bosque arrugados se pueden complementar fácilmente con nanopartículas de óxido metálico impregnadas para mejorar la capacidad específica y la densidad de energía de los supercapacitores.
En lugar de tener una película delgada plana estrictamente restringida, el diseño permite que el bosque CNT interconectado en tres dimensiones mantenga una buena conductividad eléctrica, resultando mucho más eficiente, confiable y robusto. En términos de su capacidad para recolectar y almacenar energía, los nanobosques arrugados superaron a la mayoría de los supercapacitores basados ​​en CNT existentes.  El enfoque desarrollado en este trabajo ofrece una estrategia alternativa para construir nuevos dispositivos de energía estirables con nanotubos o nanocables alineados verticalmente para aplicaciones avanzadas en sistemas electrónicos estirables, flexibles y portátiles.

Información complementaria:

sábado, 27 de abril de 2019

La identidad de lo indiscernible. Asociarse para crecer.

Dice el Dr. Gabriel Catren de la Universidad Paris Diderot “Con el objetivo es desarrollar la cooperación científica en filosofía de la física y las matemáticas entre equipos de investigación de la  Argentina y equipos de investigación  de Francia, se ha creado el LIA (Laboratoire International Associé), Identities, Forces, Quanta, con la finalidad específica de abordar el estudio filosófico de las fuerzas y los cuantos desde la noción matemática de identidad”. 
La Asociación está realizando su congreso internacional inaugural “Leibniz’s Principle of Identity of Indiscernibles and its Repercussión in Physics and Mathematics” en la Universidad CAECE (Buenos Aires-Argentina) los días 25/26 y 27 de abril del presente año.
David Rabouin (PhD)-Université París Diderot. 
En la organización participan activamente investigadores del Departamento de Matemáticas de la Universidad CAECE y del centro SPHERE-CNRS de la  Université Paris Diderot. El Dr. David Rabouin ha iniciado la temática del Congreso con su conferencia “Leibniz’s principle of identity of indiscernibles and reduction to identities” a la que se le han incorporado paulatinamente, durante los tres días, 10 conferencias más provenientes de ocho universidades de distintos países. 
Las actividades relacionadas con el LIA tienen una
Expositores en el congreso.
duración prevista de cuatro años destinados a intercambiar conocimientos y generar consensos en pos del avance mutuo en el desarrollo de la temática.  El filósofo y matemático alemán Gottfried Wilhelm Leibniz (1646-1716) propuso, en su Discurso de Metafísica, el  principio de la identidad de los indiscernibles, en el cual sostiene “que no hay ni es posible que haya en el universo dos cosas, o sustancias que sean absolutamente iguales en todas sus propiedades”, agregando “No hay en la naturaleza dos seres reales y absolutos indiscernibles entre sí". Tal vez los expositores del Congreso realizado en la Universidad CAECE constituyan un buen ejemplo de ello y, por ende, la necesidad de asociarse para crecer.

sábado, 20 de abril de 2019

Nanotecnología, mucho más que un crecimiento exponencial.

Las denominadas tecnologías con crecimiento exponencial o simplemente tecnologías exponenciales presentan ciertas características comunes: producen un incremento significativo del número de aplicaciones, disminuyen rápidamente su complejidad y costo,  dan respuestas a una enorme cantidad de problemas socioeconómicos y  facilitan la vida de millones de personas. 
Alguna de ellas como la Nanotecnología, cuyo nacimiento estructural como disciplina científico-tecnológica lo podemos ubicar en 1974 con la publicación  “On the Basic Concept on Nano-Technology” realizada por el prof. Norio Tamiguchi de la Tokio Science University, está próxima a cumplir 45 años. No obstante en sus primeros 36 años hubo que lidiar con el nuevo nanomundo desarrollando su base científica y construyendo las vías para el desarrollo exponencial. Un buen ejemplo del camino necesario lo constituye la posibilidad de “ver los átomos” a partir de la implementación en 1981 del microscopio de efecto túnel (STM) y en 1986 del microscopio de fuerza atómica (AFM). 
Desde 1974 hasta el año 2007 el crecimiento de la disciplina, como puede observarse en el gráfico, no fue significativo significativo. Hubo quienes dijeron “se habla mucho de nanotecnología pero no hay aplicaciones concretas…”, apostando, no siempre en forma desinteresada, a su fracaso. 
A partir del año 2010 se observa un punto de inflexión con un crecimiento  exponencial sorprendente, incrementando  la facturación global a un ritmo de 18% anual en los últimos 5 años. Hacia el año 2020 un nuevo punto de inflexión indica la cercanía a una etapa final de maduración,  que se materializará hacia el año 2025 en una la industria nanotecnológica consolidada y con innumerables productos convencionales en áreas vinculadas con los materiales, la medicina, la fotónica, la robótica, la electrónica y el cuidado del ambiente, entre otras. La fase de neta de desarrollo exponencial abarca aproximadamente 10 años con una etapa de propulsión e incubación científica-tecnológica de 36 años. Tiempo en el cual quienes dudaron, ante un crecimiento tan rápido, hoy quedaron al margen. Es muy difícil comenzar mirando hacia atrás. Como dice Amos Oz "Lo que se te perdió en el tiempo no lo busques en el espacio". En tecnología la clave es invertir temprano,  mucho antes de la fase de crecimiento exponencial, para generar el conocimiento necesario de las empresas con futuro. 

sábado, 13 de abril de 2019

Agua líquida nanoconfinada hasta -266 Celsius.

El agua es un líquido ubicuo con propiedades fisicoquímicas únicas cuya naturaleza ha dado forma a nuestro planeta y la vida tal como la conocemos. Un equipo de trabajo liderado por los profesores Raffaele Mezzenga y Ehud Landau de ETH Zurich y la Universidad de Zurich han identificado una forma inusual de evitar que el agua forme cristales de hielo conservando, incluso a temperaturas bajo cero, las características amorfas del líquido. Cuando uno coloca agua en el congelador en relativamente poco tiempo cristaliza y se convierte en hielo. El  análisis de la estructura de los cristales de hielo permite establecer que las moléculas de agua están dispuestas en estructuras de red tridimensionales regulares. 
 Crédito: Peter Rüegg y Livia Salvati Manni / ETH Zurich
En el artículo “Soft biomimetic nanoconfinement promotes amorphous water over ice” publicado en la revista Nature Nanotechnology los investigadores presentan una familia de lípidos sintéticos nanoconfinantes con la finalidad de evitar la cristalización a baja temperatura de las moléculas en una estructura hexagonal y, por lo tanto, mantener el estado de agua amorfa. En un primer paso diseñaron y sintetizaron una nueva clase de lípidos para crear un material biológico "suave" conocido como mesofase lipídica (estado de materia intermedio entre líquido y sólido). En este material los lípidos se autoensamblan espontáneamente y se agregan para formar membranas similares a las naturales. Estas membranas adoptan una disposición uniforme en forma de una red de canales conectados de menos de un nanómetro de diámetro. La temperatura y el contenido de agua, así como la estructura novedosa de las moléculas lipídicas diseñadas determinan la estructura de la mesofase. El factor clave es la proporción de lípidos y agua. En consecuencia, el contenido de agua en la mezcla determina las temperaturas a las que cambia la geometría de la mesofase pudiéndose lograr agua líquida-amorfa hasta - 263 grados Celsius, apenas 10 grados por encima de la temperatura del cero absoluto, sin aparición de cristales de hielo. Una forma de comprender como dos de los componentes de la vida, es decir, el aguay los lípidos, interactúan en condiciones extremas de temperatura y confinamiento geométrico.

Información complementaria:

sábado, 6 de abril de 2019

Las nuevas tecnologías y la ética social.

La biotecnología y la nanotecnología, con su capacidad para transformar la naturaleza, generan permanentemente controvertidos dilemas éticos. En tal sentido se considera necesario realizar algunas reflexiones sobre la inmutabilidad de la ética y sobre quién tiene la potestad para definir lo que se puede y no se puede hacer. Las nuevas tecnologías están sometidas a una ética preexistente pero a su vez pueden generarle importantes cambios. 
En nuestra historia reciente tal vez la modificación más significativa esté vinculada al primer trasplante cardíaco y al inicio de la era de los trasplantes en general. Hace casi 52 años, un 3 de diciembre de 1967, en un hospital de Ciudad del Cabo, el desconocido cardiocirujano Christian Barnard asistido por un equipo de treinta ayudantes, sustituyó el corazón enfermo de Louis Washkansky, de 55 años de edad, por el de una joven mujer muerta en un accidente. La operación se realizó a corazón abierto y aunque el trasplante en sí resultó un éxito, el paciente contrajo una neumonía y murió 18 días después. En enero de 1968, Christian Barnard efectuó su segundo trasplante: el dentista Philip Blaiberg recibió el corazón de Clive Haupt, mulato de 24 años que había muerto de un derrame cerebral. El paciente sobrevivió 19 meses. El Dr. Barnard abría un nuevo camino, la era de los trasplantes había nacido. La operación provocó desde juicios hasta muchas discusiones bioéticas, no sólo acerca de los límites de la vida y la muerte, también relacionadas con el hecho de implantar corazones de mujeres a hombres, de mulatos a blancos, de jóvenes a viejos. El hecho llegó hasta cambiar la definición de muerte reemplazando la cardiaca por una nueva: la eléctrica del cerebro. En una publicación trascendental realizada en 1968 en el Jornal Of the American Medical Association, referida al informe “Ad Hoc Comité of the Harvard Medical School” se hace referencia a una nueva definición de coma irreversible, la cual fue conocida como el “Criterio Harvard”. Con ello se perseguía “...delinear el criterio de muerte cerebral para el pronunciamiento de la muerte en pacientes que estaban mantenidos con respiradores, así los órganos podían ser usados para…”.
La dificultad en los primeros trasplantes no era la técnica quirúrgica, relativamente sencilla, sino evitar el rechazo del órgano extraño. Esto sólo se logró de manera consistente a partir de 1972, con el descubrimiento de la droga “ciclosporina”, capaz de evitar el rechazo sin reducir a niveles peligrosos las defensas inmunológicas y posteriormente con la ayuda de los anticuerpos monoclonales. En la actualidad la sobrevida un año después de la operación llega al 96 por ciento de los pacientes y al 80 por ciento luego de diez años. 
Ante los resultados, las críticas éticas realizadas por colocar un corazón humano de un ser a otro, no sólo fueron disminuyendo con el tiempo, hoy la mayoría de los países avalan los trasplantes con leyes y acciones que incitan a donar órganos, y los medios de difusión no cesan de solicitar órganos para gente angustiada con esperanza salvar a un ser querido. De negro a blanco ha sido la evolución en casi 52 años de la ética relacionada con el trasplante de corazón en particular y de los trasplantes en general originando un hito trascendente en la ética imperante en los años 50: cambió la definición de muerte. 
Estudios recientes demuestran la existencia de tres grandes sectores con distinta percepción de los problemas éticos relacionados con las nuevas tecnologías. Uno de ellos pro científico-tecnológico, el 25% del total de los encuestados, piensa que las tecnologías ofrecen a la sociedad muchos beneficios y pocos riesgos. Este grupo manifiesta confianza en la capacidad de la ciencia y la tecnología para resolver todos problemas. El otro 25% se muestra poco proclive a pensar que la ciencia-tecnología sea el camino hacia la “verdad” y desconfían de la tecnología y quienes la dirigen. Este grupo anti científico-tecnológico responde a una concepción religiosa y/o naturalista del mundo. Ambos se neutralizan entre sí. Al sector restante (50%), participativo-social–ciudadano lo denominaremos “grupo social”; es el responsable en el tiempo histórico de aceptar los cambios éticos. Nunca tira los dados ni da un “cheque en blanco”, toma decisiones luego de considerar en forma individual cada avance que va surgiendo y puede modificar su opinión según los pro y contra de los distintos logros.
En definitiva la ética no es inmutable en el tiempo, las nuevas tecnologías desplazan sus límites con el consentimiento de un grupo social mayoritario, no necesariamente especialista en cada tema, pero doctorado en sentido común. 

Lectura similar:
Las nuevas tecnologías y la ética social (Investigación y Ciencia).

viernes, 29 de marzo de 2019

El saber y la tecnología conveniente.

La adquisición de una tecnología presupone la solución más simple a una diversidad de problemas técnicos, un ahorro de tiempo en la concreción de la mejora y el acceso a una forma de producción con el potencial para elevar el rendimiento de la empresa en general. No obstante, en algunos casos existen aspectos negativos, fundamentalmente cuando genera dependencia debido a su costo y mantenimiento elevado, cuando la adquisición de la tecnología no resulta efectiva en un contexto distinto y, a que la falta de desarrollo propio resta competitividad en los mercados globalizados. De hecho, la adquisición de tecnología es en algunos casos inevitable y no afecta demasiado a los países desarrollados, en cambio, aquellos en su etapa inicial de desarrollo les resultará más conveniente buscar vías alternativas más accesibles y novedosas para minimizar las diferencias tecnológicas existentes.  
Un desarrollo eficiente, incluido en una planificación a largo plazo, con etapas secuenciales de comercialización en el mercado interno y que concluya con posibilidades reales de exportación y competitividad en los mercados externos, resulta una vía interesante para la pequeña-mediana empresa y puede constituir  la opción más adecuada en los países con buenos recursos humanos y bajo poder financiero y económico. El desarrollo conveniente permite aprovechar en forma eficiente los recursos locales buscando las formas de producción menos costosas y de igual o mayor calidad en relación con los productos del mercado internacional o crea otros distintos para la misma finalidad sin competencia alguna. Necesitamos  pymes de base científico-tecnológica con dominio intensivo del conocimiento del siglo XXI, capaces de hacer nuevos productos a partir de la investigación y el desarrollo, generando la tecnología adecuada para poner en valor el conocimiento, irradiarlo y transferirlo al entorno. Es necesario el saber en informática, pero también en las tecnologías con capacidad de trasformar la naturaleza y dar respuestas a las restantes necesidades humanas primarias: la biotecnología y la nanotecnología. 
El 10 de junio se cumplen 28 años de la creación de la carrera de Técnico en Informática en la Argentina. Todavía, tal vez por la falta de la presión comercial de los países centrales inherente a la informática, no existen las carreras de Técnico en Biotecnología y de Técnico en Nanotecnología. En la educación superior recién en el año 2017, siete años después del inicio del crecimiento exponencial de la disciplina, por la iniciativa solitaria de una universidad privada, comenzó la primera Licenciatura en Nanotecnología… 
La pobreza está estrechamente relacionada la posibilidad de acceso al conocimiento de avanzada. Las nuevas tecnologías y la erradicación de la pobreza van de la mano para el desarrollo de un país y una mejor calidad de vida de sus habitantes. El acceso a estas nuevas tecnologías puede ayudar a reducir la pobreza. Las poblaciones con acceso a las tecnologías de avanzada tendrán más oportunidades de lograr un armónico desarrollo económico y social. Es la hora del saber hacer innovador en lo científico-tecnológico de punta, es la hora de generar los recursos humanos necesarios…
Por lo expuesto el desarrollo de la tecnología conveniente en las pequeñas y medianas empresas no es, no debe, ni puede ser una utopía. Solo los países, en los cuales sus habitantes han perdido la voluntad, iniciativa y creatividad, carecen de la capacidad de emerger del tiempo y encontrar su destino.   

Lecturas complementarias: