sábado, 18 de enero de 2020

El MIT, los memristores y los chips neuromórficos.

 David Trejo. Prof. de Nanoelectrónica. CAECE
En el artículo publicado el 3 de septiembre del 2016 (Biotecnología & Nanotecnología al Instante) decíamos sobre la posibilidad de fabricar cerebros cuasi similares: “Los nanochips neurosinápticos fueron desarro-llados por IBM (TrueNorth). Cada nanochip equivale a 1 millón de neuronas y 256 millones de sinapsis programables a través de 4.096 núcleos neurosinápticos individuales. Estos nanochips cuentan con una cifra record de 5.400 millones de transistores por centímetro cuadrado. El nanochip neurosináptico integra a la capacidad de procesamiento matemático de las computadoras clásicas, equivalente al lado izquierdo del cerebro, con la capacidad adicional de imitar el lado derecho dónde impacta la información percibida por los sentidos, pudiendo procesar imágenes y la información recibida por una cantidad casi ilimitada nanosensores para responder y resolver con inteligencia complejas situaciones”…”No obstante el cerebro humano tiene una parte de ordenador analógico extremadamente compleja. Su evolución se basa en sus experiencias previas y hasta ahora esta funcionalidad no se pudo reproducir de manera adecuada con la tecnología digital. El desarrollo de nanomemorias tipo memristor (resistencias de memoria) constituye un requisito previo para la construcción de redes de neuronas artificiales capaces de igualar el rendimiento y la funcionalidad de sus homólogos biológicos.  A partir del año 2008 comenzó a confirmarse la posibilidad de un nuevo componente, el memristor, capaz de comportarse  de una manera similar a las sinapsis de las neuronas dentro del cerebro humano. La resistencia a la corriente dentro de un memristor es el producto de las corrientes que han fluido previamente a través de él. La corriente fluye cada vez más fácil cuanto más fluye una corriente previa. Debido a estas propiedades los memristores tienen a constituir una memoria no volátil y permiten producir computadoras mejoradas en la comprensión del habla, las imágenes y el mundo que les rodea”. Esta semana el MIT (Massachusetts Institute of Technologydistingue al Ingeniero David Trejo, profesor de electrónica y Nanoelectrónica de la Licenciatura en Nanotecnología (Universidad CAECE) por sus “chips neuromórficos que prometen potenciar las capacidades de la informática”. El informe del MIT señala “La informática ha evolucionado desde ordenadores que ocupaban habitaciones enteras con capacidades ínfimas hasta computadoras tipo smartphone que caben en un bolsillo y cuya potencia supera a la nave espacial de la misión Apolo 11. Y, dado que la electrónica y la informática siguen avanzando, puede que dentro de un puñado de años la potencia computacional de los aparatos que usamos actualmente nos parezca ridícula. Este es precisamente el objetivo del trabajo del Ing. David Trejo, centrado en buscar nuevas formas de utilizar los memristores. Se trata de unos exóticos dispositivos electrónicos cuya existencia se confirmó en 2008. Estos aparatos almacenan información cuando reciben corriente eléctrica y se están posicionando en chips específicos para inteligencia artificial. Mientras la informática actual almacena la información en forma de unos y ceros (binario), los memristores de Trejo pueden grabar múltiples niveles de información”… “Con miles de memristores, en una placa se pueden emular las redes neuronales de nuestro cerebro. El ingeniero ha creado una placa que le permite hacer una red neuronal de ocho neuronas y trabaja en otra de hasta 64.000. Es una escala de integración más grande que nunca se había hecho antes", explica Trejo. Además, afirma que sus memristores también podrían servir como chips especializados en computación cuántica. La memoria RAM típica de la mayoría de los aparatos electrónicos permite almacenar ceros y unos. Por el contrario, la innovación de Trejo permitirá almacenar al menos ocho valores. "Esto es muy importante para la computación neuromórfica", cuenta Trejo, es decir, para los sistemas que emulan las sinapsis de las neuronas que forman nuestro sistema nervioso. Esto supondrá la cuarta revolución de la electrónica: los procesadores que vienen preparados para la inteligencia artificial. La aplicación de estos avances hará más rápidos los procesos informáticos y aumentará la potencia de la computación actual. Los chips de inteligencia artificial son algo que vamos a necesitar porque todas las apps usan big data e inteligencia artificial, y por esos nuestros smartphones son lentos. Con chips de inteligencia artificial el procesamiento será mucho más rápido y eficiente", añade Trejo. La directora de Telecomunicaciones en la Universidad Nacional Autónoma de México, María de Lourdes Velázquez, miembro del jurado de Innovadores 2019, cree que el proyecto de Trejo "podría ayudar a acelerar el desarrollo de hardware para aplicaciones de inteligencia artificial e internet de las cosas, y que podría lograr grandes impactos en la constante evolución de la industria de la computación".

Lectura complementaria:

viernes, 10 de enero de 2020

El cambio climático, un laberinto sin salida.

La posibilidad de bajar el consumo de combustible fósil está en riesgo si no se establecen parámetros para garantizar una minería sustentable. La cantidad necesaria de cobalto, cobre, litio, cadmio, selenio y elementos de tierras raras, entre otros, necesarios para los paneles solares, baterías, motores de vehículos eléctricos, turbinas eólicas y celdas de combustible, crecerá exponencialmente en los próximos años ante la necesidad de obtener y utilizar energía no contaminante. 
El hecho se agrava debido a que el consumo diario de petróleo a nivel mundial sigue aumentando. Datos de la OPEP (Organización de Países Exportadores de Petróleo) indican un crecimiento del consumo global de petróleo para el año 2020 de un 1,14%, hasta los 101,01 millones de barriles diarios, superando así por primera vez la barrera de los 100 millones (99,87 en el año 2019). En tal contexto la  existencia mundial de vehículos eléctricos debería pasar de 1,2 millones a 965 millones a más tardar en el año 2050 y la minería debería generar, entre los años 2015 y 2060,  aumentos en la producción de materiales de 87.000% para baterías, de 1000% para energía eólica y de 3000% para células solares y fotovoltaicas. Los conflictos sociales y ambientales inherentes a la minería vislumbran la posibilidad real de que la escasez de los metales necesarios pueda frenar el avance hacia las energías no contaminantes. La extracción minera actual puede ser sucia, peligrosa y dañina para el ambiente. Sus impactos alarman legítimamente a muchos activistas ambientales no dispuestos a pagar ese precio para salvaguardar un futuro con bajo en carbono. Al intentar cambiar el panorama energético global, se aumenta la necesidad de explotación intensiva de yacimientos para la obtención de minerales y metales en forma segura y sostenible. Resumiendo, disminuir la utilización del combustible fósil para frenar el cambio climático, implica aumentar drásticamente la producción minera asociada también a múltiples problemas ambientales y con escasa aprobación de la población mundial. Una solución sería utilizar las nuevas tecnologías para avanzar hacia una minería sustentable disminuyendo su impacto ambiental. De todos modos estamos en un laberinto dónde la solución posible  implica cambiar una problemática por otra. Tal vez la única solución racional sea disminuir el exagerado consumo energético, tratar de pasar de una sociedad donde se privilegia el consumismo a una dónde se le de prioridad a la vida.

Información complementaria: 

sábado, 4 de enero de 2020

Artículos de opininón top 15 del año 2019.

Los artículos de opinión top 15  del  año 2019 ubicados por fecha para su búsqueda en Biotecnología & Nanotecnología al Instante.


Complejidad, incertidumbre y prospectiva 
(12 de enero).
Nanotecnología y crecimiento: pensar, crear e innovar 
(26 de enero).
Los opuestos son complementarios 
(15 de marzo).
El saber y la tecnología conveniente
(29 de marzo).
Las nuevas tecnologías y la ética social 
(6 de abril). 
Nanotecnología, mucho más que un crecimiento exponencial
(20 de abril).
Calidad académica: atesorar el saber para saber hacer
(18 de mayo).
Desde Aristóteles nunca nadie se atrevió a tanto 
(28 de junio).
Investigación básica, aplicada y orientada a la innovación 
(6 de julio).
La simple inteligencia de la naturaleza
(17 de agosto).
La nanotecnología resuelve el misterio de Tales de Mileto
(13 de septiembre).
Licenciatura en Bioeconomía: otra vez sopa
(28 de septiembre).
Los genes nos impiden desentrañar el origen de la vida y del universo
(19 de octubre).
Cambio climático, urbanización, riqueza y consumo
(9 de noviembre).
El 14 de diciembre de 1900 y la revolución del siglo XXI
(14 de diciembre).


Alberto L. D'Andrea

sábado, 28 de diciembre de 2019

Biodegradación intracelular de nanopartículas de oro.

En el artículo Unexpected intracellular biodegradation and recrystallization of gold nanoparticles, publicado el 16 de diciembre de 2019 en la revista PNAS, investigadores de l'Université de Paris, Sorbonne Université y l'Université de Strasbourg revelan la capacidad de las células para metabolizar el oro no esencial para su funcionamiento abriendo el camino a una mejor comprensión del ciclo de vida de las nanopartículas de oro en los organismos. Si bien las nanopartículas de oro están en el centro de una gama cada vez mayor de aplicaciones médicas, su destino en el organismo apenas se ha estudiado hasta ahora. 
Crédito: Alice Balfourier (CNRS-U. de París) y Christine Péchoux-Longin (MIMA2-INRA)
Debido a su inercia química, la creencia común es que permanecen infi- nitamente intactas en los tejidos. Los investigadores demuestran que las nanopartículas de oro de 4 a 22 nm en realidad son degradadas in vitro por las células. Contrariamente al paradigma actual, los cientí- ficos rastrearon la evolución de las nanopartículas de oro durante seis meses en un entorno celular, y eviden- ciaron transformaciones signi- ficativas después de unas pocas semanas. Al medir la expresión de más de 18,000 genes a lo largo del tiempo, revelaron un 
proceso biológico con mecanismos de desintoxicación y protección celular, presentes también en la degradación de otros nanomateriales. Los estudios de transcriptómica revelan el papel activo del lisosoma celular en esta biodisolución. También observaron la presencia de nanopartículas no degradadas y productos de degradación en forma de nanocapas. El proceso de biotransformación consta de dos pasos. Primero, está la degradación de las nanopartículas de oro, con una desaparición más rápida del tamaño más pequeño. La degradación está mediada por la NADPH oxidasa productora de especies de oxígeno reactivas altamente oxidantes en el lisosoma combinadas con una expresión protectora celular del factor nuclear, el eritroide 2. Segundo,  un proceso de recristalización de oro capaz de generar nanoestructuras biomineralizadas consistente en nanopartículas cristalinas de 2.5 nm autoensambladas en nanocapas. Las metalotioneínas parecieran participar en la biomineralización de los bloques autoensamblables en un proceso tal vez afectado afectado por un agente quelante. Las nanohojas se observaron por primera vez hace casi 50 años en pacientes que padecían poliartritis reumatoide luego de haber sido tratados con otra forma de oro (oro iónico o "sales de oro") para aliviar el dolor en sus articulaciones. En consecuencia, existe un metabolismo compartido de degradación entre las sales de oro y las nanopartículas de oro.
Este resultado inesperado, que generaliza el destino de las nanopartículas de oro en los organismos, podría ayudar en el futuro a evaluar mejor la toxicidad de las nanopartículas de oro y su capacidad para ser eliminadas del organismo. Finalmente se concluye que el oro, cualquiera que sea su forma inicial, puede ser metabolizado por los mamíferos a pesar de no ser esencial para su supervivencia.

Información complementaria:

sábado, 21 de diciembre de 2019

Nanodispositivo con capacidad de aprender, olvidar…

Investigadores del Instituto Nacional de Ciencia de Materiales de Japón, de la Universidad de Sydney y de la Universidad de California han publicado en la revista Scientific Reports el artículo Emergent dynamics of neuromorphic nanowire networks en el cual presentan un dispositivo experimental basado en una red de flujo continuo con características análogas a ciertos comportamientos del cerebro como aprendizaje, memorización, olvido, vigilia y sueño. La forma en que el dispositivo evoluciona y cambia constantemente imita el cerebro humano, pudiendo generar diferentes tipos de patrones de comportamiento irrepetibles.
Crédito: Marc Roseboro-CNSI/Universidad California
El dispositivo está hecho de una maraña de nanocables de plata con un diámetro promedio de 360 nanómetros. Los nanocables se recubren con un polímero aislante de aproximadamente 1 nanóme- tro de espesor. Su tamaño final es muy pequeño, mide 10 milímetros cuadrados. Los nanocables se autoen- samblan aleatoriamente en una oblea de silicio y forman estructuras altamente interconectadas notablemente similares a las de la neocorteza, la parte del cerebro involucrada en funciones superiores como el lenguaje, la percepción y la cognición. Un rasgo diferencial de la red de nanocables con relación a los circuitos electrónicos convencionales es que los electrones cuando fluyen a través de ellos provocan cambios en su configuración física. En el estudio, la corriente eléctrica  hace que los átomos de plata migren desde el interior del recubrimiento polimérico y formen conexiones donde se superponen dos de ellos. El sistema presenta aproximadamente 10 millones de estas uniones, análogas a las sinapsis donde las células cerebrales se conectan y comunican. Cuando se unen dos electrodos a la malla similar al cerebro para observar cómo funcionaba la red, se observan características no atribuibles a las partes individuales (comportamiento emergente). Esto hace que la red se parezca al cerebro y la distingue de las computadoras convencionales. Luego de fluir  la corriente a través de la red, las conexiones entre nanocables persistieron durante un minuto en algunos casos, algo similar al proceso de aprendizaje y memorización en el cerebro. Otras veces, las conexiones se cierran abruptamente al finalizar la carga, imitando el proceso de olvido. El enfoque es útil para generar nuevos tipos de hardware energéticamente eficientes y capaces de procesar conjuntos de datos complejos desafiando los límites de las computadoras modernas. La actividad caótica límite de la red de nanocables se asemeja no solo a la señalización dentro del cerebro sino también a otros sistemas naturales como los patrones climáticos. La investigación tiene un objetivo más amplio que simplemente reprogramar las computadoras existentes, constituye un sistema para manejar tareas de forma más cercana al modo operativo del cerebro humano.

sábado, 14 de diciembre de 2019

El 14 de diciembre de 1900 y la revolución del siglo XXI.

El 14 de diciembre del año 1900, Max Karl Ernst Ludwig Planck,  profesor de Física de la Universidad de Berlín presentó en la Sociedad Alemana de Física la teoría del “quantum” diciendo: “El calor radiante no es un flujo continuo e infinitamente divisible. Hay que definirlo como una masa discontinua formada por unidades semejantes entre sí”.  Estas “masas” son lo que ahora llamamos “quanta” de acción. Cuando estaba dedicado al estudio de la radiación de los cuerpos negros observó los efectos de un chorro de radiación que salía de un hueco o cavidad al calentarlo hasta la incandescencia advirtiendo que la radiación, no fluía del agujero negro de una manera continua, sino como un chisporroteo de diminutas partículas, paquetes o quanta, semejante a las balas  disparadas por un fusil automático. Planck dio un paso más adelante y determinó las medidas de “quantum”  encontrando una constante universal que ahora lleva su nombre y cuyo valor es igual a 6,626.10-34 J.s. 
En 1919 le otorgaron el premio Nobel de Física (1918). Para la ocasión escribió un discurso de 7000 palabras en el cual señala “el quantum tendría que desempeñar en la física un papel fundamental, y anunciar el advenimiento de una nueva era, acaso destinado a transformar por completo nuestros conceptos físicos,…, que han permanecido basados en el supuesto de la continuidad de todas las cadenas causales de acontecimientos”.
El distinguido científico holandés Hendrik Antoon Lorentz escribía en 1925 “La constante de Planck no sólo suministra los fundamentos para explicar la intensidad de la radiación y la longitud de onda, sino también para explicar las relaciones cuantitativas en las órbitas de los electrones en el átomo, los efectos fotoquímicos de la luz, las longitudes de onda del espectro atómico, etc.”
La mecánica cuántica posibilitó el gran despegue científico-tenológico en el siglo XX. Hoy tenemos  una cantidad importante de aplicaciones prácticas en las comunicaciones, los láseres, la fibra óptica, la resonancia magnética nuclear, los  GPS y la física del estado sólido. Toda la informática y todos los chips están basados en principios cuánticos.  Con las innovaciones logradas, ahora el siglo XXI avanza hacia lo que se denomina  "la segunda revolución cuántica" con temas tales como Internet a la velocidad de la luz, inteligencia artificial, el humano robotizado inmortal y la tele-transportación, entre otros.
La palabra “quantum” tiene su origen en un adverbio latino utilizado para preguntar ¿cuánto? y también para responder a ella en ciertos casos. A partir de 14 de diciembre de 1990 se  interpreta como “cuanta energía está contenida en las unidades semejantes entre sí”. Unidades que hacen discontinua a la energía y la cuantifican. Unidades de extraordinaria importancia en el pequeño mundo de la Nanotecnología.

sábado, 7 de diciembre de 2019

Segunda piel.

La compañía japonesa de cosméticos Kao Corporation ha desarrollado una piel sintética en aerosol para humectar y cubrir  imperfecciones como  lunares, cicatrices u otras  marcas no deseadas en la epidermis natural. 
Crédito: video de Kao Corporation  
El producto artificial denominado "est"  constituye una novedosa  máscara facial hidratante al producir una "piel" de nanofibras utilizando un vaporizador (pulverización electrostática) directamente sobre la piel natural, formando así un recubrimiento. Tras la aplicación de una loción absorbente en el rostro, los usuarios utilizan un spray que vaporiza las nanofibras. Esta “tecnología de fibra”, cuya composición se mantiene en reserva,
Crédito:  página de Kao Corporation
forman una capa transparente, capaz de mantener la humedad de la piel y al mismo tiempo permite a la zona respirar. La "segunda piel" puede ser usada durante la noche, o retirada al cabo de un minuto. 
El spray o vaporizador elestrotático,  fue desarrollado en colaboración con Panasonic, requirió diez años de investigación. A pesar de su precio elevado (459 dólares) la empresa considera que las ventas del producto puede alcanzar los 918 millones de dólares. Una interesante innovación en el campo de la cosmética. 

Video:
Japanese cosmetics company unveils spray-on skin care technology.

sábado, 30 de noviembre de 2019

Informática a la velocidad de la luz.

Los científicos del grupo de investigación de Ingeniería Avanzada de Nanoescala de Harish Bhaskaran en la Universidad de Oxford acaban de publicar el artículo Plasmonic nanogap enhanced phase-change devices with dual electrical-optical functionality en la revista Science Advances,  en el cual presentan el primer dispositivo electroóptico a nanoescala capaz de unir los campos de la informática óptica y la electrónica  permitiendo programar con fotones y electrones.
Esto proporciona una solución elegante para lograr memorias y procesadores más rápidos y con mayor eficiencia energética. La informática a la velocidad de la luz  es una perspectiva atractiva pero difícil de alcanzar. El uso de la luz para codificar y transferir información permite que estos procesos ocurran 100 veces más rápido con relación a los electrónicos usuales. La incompatibilidad entre la infor- mática eléctrica y la basada en la luz se debe fundamentalmente a los diferentes volúmenes de interacción en los que operan los electrones y los fotones. Para superar este desafiante problema, los científicos idearon una solución para confinar la luz en dimensiones nanoscópicas.  Lograron una celda de memoria de cambio de fase integrada capaz de actuar eléctrica u ópticamente. El dispositivo comprime la luz en un volumen de tamaño nano a través de lo que se conoce como polaritón de plasmón superficial combinando efectos plasmónicos, fotónicos y electrónicos para construir la celda de memoria de cambio de fase integrada posibilitando el cambio de eléctrico a óptico entre estados binarios o multinivel. También se puede leer simultáneamente tanto óptica como eléctricamente, ofreciendo una nueva estrategia para fusionar tecnologías informáticas y de comunicaciones. La reducción dramática del tamaño junto con la densidad de energía significativamente mayor les ha permitido salvar la aparente incompatibilidad de fotones y electrones para el almacenamiento de datos y la computación.  Además, el estado de este material transformador de fase se leyó mediante luz o electrónica, convirtiendo al dispositivo en la primera celda de memoria electroóptica a nanoescala. Un camino muy prometedor para la computación y especialmente en los campos donde se necesita una alta eficiencia de procesamiento tales como aplicaciones de inteligencia artificial donde, en muchas ocasiones, las necesidades de computación de alto rendimiento y baja potencia supera con creces nuestras capacidades actuales. La computación fotónica basada en la luz de interfaz con su contraparte eléctrica constituye la clave de la próxima revolución informática.

Información complementaria:

sábado, 23 de noviembre de 2019

Ver imágenes en 4-D.

La mayoría de las imágenes capturadas por una lente de cámara son planas y bidimensionales. Cada vez más, las tecnologías de imágenes en 3-D están proporcionando el contexto crucial de profundidad para aplicaciones científicas y médicas. Las imágenes 4-D, que agregan información utilizando luz polarizada (contiene ondas que vibran en un solo plano, mientras la luz no polarizada, como la del sol, contiene ondas en todas las direcciones), podrían abrir aún más posibilidades, pero generalmente los equipos son voluminosos, costosos y complicados. 
Crédito: Yan-qing Lu y col. ACS Nano.
La luz polarizada al reflejarse en los objetos puede revelar información oculta. Ejemplo: las células cancerosas pueden reflejar la luz polarizada de manera diferente a los tejidos sanos.  Ahora,
Investigadores de la Universidad de Nanjing (China) han publicado en la revista ACS Nano el artículo Self-Assembled Asymmetric Microlenses for 4-D Visual Imaging, en el cual explican el desarrollo de microlentes de cristal líquido autoensambla- bles para revelar información 4-D en una instantánea. Los investigadores utilizaron un microscopio óptico polarizado para obtener imágenes de objetos, como una cruz o la letra "E", bajo diferentes direcciones de luz polarizada linealmente. Las microlentes en la matriz tomaron imágenes del objeto de manera diferente, dependiendo de su distancia desde el objeto (profundidad) y la dirección de la luz polarizada, produciendo información 4-D. Al momento se encuentran en una etapa del proyecto destinada a mejorar la resolución con la finalidad de que la técnica a futuro pueda usarse en imágenes médicas, comunicaciones, pantallas, encriptación de información y teledetección.

Información complementaria:

sábado, 16 de noviembre de 2019

Matemáticas a la velocidad de la luz.

En el artículo High-Index Dielectric Metasurfaces Performing Mathematical Operations, publicado en la revista Nano Letters, investigadores del Centro de Nanofotónica (AMOLF) de Holanda y sus colaboradores del Centro de Investigación Científica Avanzada (CUNY) de Nueva York han creado una superficie nanoestructurada capaz de realizar operaciones matemáticas instantáneas en una imagen de entrada. El procesamiento de imágenes es el núcleo de varias tecnologías de rápido crecimiento, como la realidad aumentada, la conducción autónoma y el reconocimiento de objetos más general. Pero, ¿cómo una computadora encuentra y reconoce un objeto? La detección de bordes en una imagen se convierte en el punto de partida para el reconocimiento de imágenes. Generalmente se realiza digitalmente mediante circuitos electrónicos integrados con limitaciones fundamentales de velocidad y alto consumo de energía, o de manera analógica que requiere una óptica voluminosa. 
Crédito: AMOLF / Nano Letters
El enfoque presentado completamente nuevo, crea una  meta-superficie especial, un sustrato transparente con una matriz especialmente diseñada de nanobarras de silicio. Cuando una imagen se proyecta sobre la meta-superficie, la luz transmitida forma una nueva imagen mostrando los bordes del original. La meta-superficie realiza una operación matemática, la derivada de la imagen, capaz de  proporcionar una sonda directa de bordes. En un primer experimento, se proyectó una imagen del logotipo del Centro sobre la meta-superficie. A una longitud de onda especialmente diseñada (726nm), obteniéndose una imagen clara de los bordes. Cada frecuencia espacial componente de la imagen tiene un coeficiente de transmisión a  través de la meta-superficie, resultado de una interferencia compleja de luz durante la propagación a través de ella. Para demostrar la detección de bordes experimentalmente en una imagen, los investigadores crearon una versión en miniatura de la pintura Meisje met de parel (Chica con un arete de perla, J. Vermeer). Si la imagen se proyecta sobre la metasuperficie utilizando iluminación no resonante (λ = 750 nm), la original se reconoce claramente. Por el contrario, si la iluminación tiene la longitud de onda correcta (λ = 726 nm) los bordes se resuelven claramente en la imagen transformada. Esta nueva técnica de computación óptica e imagen funciona a la velocidad de la luz y la operación matemática en sí no consume energía, solo involucra componentes ópticos pasivos. La metasuperficie se puede implementar fácilmente colocándola directamente en un chip detector CCD o CMOS estándar, permitiendo nuevas oportunidades en la computación híbrida óptica y electrónica de bajo costo, baja potencia y pequeñas dimensiones.
El descubrimiento podría aumentar la velocidad de las técnicas de procesamiento de imágenes existentes y reducir el uso de energía permitiendo la detección de objetos ultrarrápidos y aplicaciones de realidad aumentada.

Lectura complementaria:

sábado, 9 de noviembre de 2019

Cambio climático, urbanización, riqueza y consumo.

Una coalición global de 11.000 científicos ha ideado un plan para enfrentar la emergencia climática. El plan incluye: descarbonizar la economía, eliminar contaminantes, restaurar ecosistemas, reforestar, reducir el consumo de carne y estabilizar la población mundial. Sin embargo, el último punto de acción es algo más controvertido debido a que no todos en el mundo tienen la misma culpa de los gases de efecto invernadero conducentes al cambio climático. Mucho más importante que cuántas personas nacen es dónde, ya que son los países más desarrollados los responsables de la gran mayoría de las emisiones mientras es en los países más pobres  donde los habitantes están aumentando. La población mundial ha pasado de 2.500 millones de habitantes en el año 1950 a 7.500 millones en la actualidad. La razón principal de este aumento masivo es debida a que el número de bebés nacidos se mantiene igual, pero como casi todos llegan a la edad adulta, la población se expande rápidamente. 
Crédito: Oxfam.Los más ricos son responsables de la crisis climática. 
La rápida propagación de las vacunas con el suministro ampliado de alimentos creado por la revolución agrícola verde en la década de 1960 condujo al apogeo de la población mundial con un crecimiento de más del 2% por año. En 1950, cada mujer dio a luz en promedio a cinco hijos vivos. Ahora la cifra está por debajo de 2.5 debido a su educación sexual-protección. Si bien la tasa de natalidad promedio está disminuyendo cada año, la población mundial sigue creciendo en 200.000 por día. Las Naciones Unidas predicen un aumento de la población entre 9.400 y 10.100 para el año 2050, y se estabilizará recién en el año 2100 con un incremento entre 1.700 a 2.400 millones de personas más. Es un mito suponer que  la estabilización de la población es una solución clave para el cambio climático. Esto es engañoso e inútil, ya que supone de manera simplista que la contribución de todos es igual. Hasta la fecha, un tercio del carbono bombeado a la atmósfera proviene de los EE. UU., Y otro tercio de la UE. África ha aportado solo el 3%. Entonces, un pequeño porcentaje de la población mundial ha creado la crisis climática. Si se divide las emisiones actuales por los individuos en lugar de países se encontrará que el 10% más rico de la población mundial emite el 50% de las emisiones de gases de efecto invernadero. El 50% más rico emite el 90%, lo que significa que las personas más pobres del mundo emiten solo una décima parte. Si se tratara de los países con mayor desarrollo cuyas poblaciones aumentaran, el control de la población sería una solución a la emergencia climática. Pero no los es, es el más pobre. El consumo excesivo de los ricos está causando el cambio climático, no el aumento de la población. Dicho de otra manera, el estadounidense promedio emite nueve veces más CO
que el indio promedio, por lo que la reducción de la población en los EE. UU. La crisis climática es ahora y el mundo necesita volverse neutral en carbono para 2050. Por lo tanto debemos desarrollar una economía verde sostenible global, totalmente funcional y desprendernos del consumo excesivo; de lo contrario, ya será demasiado tarde. Si bien podría no ser una solución inmediata a la emergencia climática, la estabilización de la población mundial sigue siendo importante. Esto se debe a que los impactos humanos van más allá de solo cambiar la composición de la atmósfera. A nivel mundial, las actividades humanas mueven más tierra, rocas y sedimentos cada año de lo que transportan todos los demás procesos naturales combinados. Hemos cortado 3 billones de alboles, aproximadamente la mitad de los que hay en el planeta, y hemos fabricado suficiente hormigón como para cubrir la superficie de la tierra en una capa de 2 mm de espesor.  Con una economía global que se duplicará en los próximos 25 años y una población que podría llegar a los 10 mil millones, el aumento potencial de nuestro impacto es inmenso. El desafío de este siglo es lograr una población global estable respandada por una economía sostenible capaz de reducir nuestra carga en el planeta. Tener una población estable también es esencial a nivel de país. Permite a los gobiernos garantizar mejor la seguridad de los alimentos, el agua y los recursos para todos sus ciudadanos. También facilita la prestación de mejores servicios de salud y oportunidades económicas para una mayor proporción de ciudadanos. Si bien la educación de las mujeres y el acceso universal a la planificación familiar en todo el mundo ayudarían sin duda a estabilizar a la población y aportar grandes beneficios, no son una solución global a los problemas del cambio climático. Los roles de la urbanización, la distribución de la riqueza y los patrones de consumo son mucho más importantes para comprender y controlar las emisiones de gases de efecto invernadero. No podemos utilizar a la población en general como una forma de culpar a los pobres del mundo por la crisis climática.

Lectura complementaria:

sábado, 2 de noviembre de 2019

Secuenciación masiva: ADN polimerasa bioelectrónica.

El primer genoma humano completo fue un hito para la ciencia y la medicina. El esfuerzo hercúleo del Proyecto Genoma Humano consumió 13 años de trabajo a un costo de mil millones de dólares.  Ahora la nueva era de la bioelectrónica de proteínas nos puede permitir lograr el anhelo de la secuenciación masiva. La secuenciación del ADN podría llevarse a cabo a la velocidad vertiginosa de la ADN polimerasa de alrededor de cien nucleótidos por segundo. "Si se colocan 10.000 moléculas en un chip, algo no difícil de hacer, se secuenciará un genoma completo en menos de una hora", dice el Dr. Stuart Lindsay director del Centro de Biodiseño para Biofísica de Moléculas Individuales de la Universidad Estatal de Arizona. 
Crédito: Laboratorio Lindsay. Universidad Estatal Arizona.
Las enzimas e
n ciertas condi- ciones, pueden actuar como excelentes conductores de electricidad, lo que les permite incorporarse a una gama de dispositivos electrónicos, una forma de conectar la increíble diversidad química de enzimas directamente en una compu-tadora. Se puede aprovechar esto en dispositivos de detección bioquímicos, produ- cción industrial inteligente y nuevas innovaciones en diagnósticos médicos. Hasta hace muy poco, las proteínas se consideraban estrictamente como aislantes del flujo de corriente eléctrica. Ahora, sus propiedades físicas inusuales pueden conducir a una condición intermedia entre un aislante y un conductor (criticidad cuántica). De hecho, en investigaciones anteriores, el Dr. Lindsay demostró una fuerte conductancia eléctrica a través de una proteína capturada entre un par de nanoelectrodos. La molécula enzimática elegida para los experimentos es una de las más importantes para la vida, la ADN polimerasa; esta enzima se une con nucleótidos sucesivos en una longitud de ADN y genera la cadena complementaria de nucleótidos. Una versátil nanomáquina usada por los sistemas vivos para copiar ADN durante la replicación celular, así como para reparar roturas u otras imperfecciones en el ADN. El chip conteniendo la ADN polimerasa podría permitir la secuenciación a alta velocidad de genomas humanos completos con una precisión sin precedentes a un costo muy bajo. La biomolécula se conectó de manera sensible a los electrodos mediante sitios de unión alternativos en la enzima, dejando los sitios activos disponibles para unir moléculas y llevar a cabo su función natural.  En tal sentido los investigadores describen como fijaron a la ADN polimerasa a un par de electrodos y los picos de corriente resultantes asociados con la enzima al unir sucesivamente los nucleótidos. Tener un mecanismo de lectura incrustado en la polimerasa implica tener la máquina de secuenciación ideal. La demostración exitosa de la conductancia enzimática allana el camino para montar matrices de proteínas en chips conectados a computadoras, una interesante interface bioelectrónica.

Lectura complementaria:

sábado, 26 de octubre de 2019

Las nanopartículas y el fin de la dieta para los celíacos.


La enfermedad celíaca se fundamenta en  que al comer gluten,  proteína presente   en ciertos granos (trigo, cebada y centeno), se origina una respuesta del  sistema inmunitario capaz de dañar el intestino. Los síntomas pueden variar, y solo hay un tratamiento: una dieta sin gluten.  Dieta  difícil de cumplir e incluso sin resultado  para algunas personas. El Dr. Stephen Miller profesor de microbiología e inmunología en la Universidad Northwestern y sus colaboradores han desarrollado, con su empresa COUR Pharmaceuticals,  un  tratamiento progresivo basado en  nanopartículas (PLGA: poliláctico-copolimerizado con  ácido glicólico) con un núcleo de gliadina (componente del gluten) capaces de reprogramar el sistema inmunitario evitando el ataque del intestino cuando una persona con enfermedad celíaca lo consume.
La enfermedad celíaca es diferente a muchos otros trastornos autoinmunes porque el desencadenante es bien conocido, esto genera la condición perfecta para incentivar la tolerancia inmune inducida por nanopartículas. Recientemente la compañía, con sede en Chicago, dio a conocer datos de un estudio del producto en Fase 2 (FDA) en la reunión anual de la organización United European Gastroenterology, en el cual se  muestra como el tratamiento con CNP-101, redujo los niveles de citocinas promotoras de la inflamación.  El estudio probó el tratamiento contra placebo en 34 adultos con enfermedad celíaca comprobada. Los pacientes recibieron CNP-101 o placebo por infusión intravenosa los días uno y ocho del estudio, luego se sometieron a una prueba de gluten una semana después de su segunda dosis.  Comieron 12 gramos de gluten cada día durante tres días y luego 6 gramos de gluten cada día durante 11 días siguientes. De los 34 pacientes, 28 finalizaron el ensayo y seis abandonaron debido a síntomas relacionados con el gluten. Los pacientes tratados con CNP-101 desarrollaron menos unidades formadoras de manchas de interferón gamma, una medida directa de la activación de células T sistémicas específicas de gluten en la enfermedad celíaca. Los resultados  positivos y alentadores coronaron un acuerdo con empresa japonesa Takeda Pharmaceuticals traducido en una licencia exclusiva para desarrollar y comercializar la tecnología para la enfermedad celíaca con una inversión de 420 millones de dólares.  El producto será ahora denominado CNP-101/TAK-101 y como Takeda Pharmaceuticals asume la responsabilidad del programa de la enfermedad celíaca, COUR Pharmaceuticals  se centrará en adaptar la tecnología de incentivar la tolerancia inmune inducida por nanopartículas a otros trastornos inmunes tales como nanoencapsular mielina en nanopartículas para inducir tolerancia a esa sustancia en modelos de esclerosis múltiple o una proteína de las células beta pancreáticas para inducir tolerancia a la insulina en modelos de diabetes tipo 1.
Toda una apuesta para quienes sufren la enfermedad celíaca no deban preocuparse  por el contenido de gluten en los alimentos.

Lectura complementaria:
Takeda retoma el tratamiento para celíacos de Cour y promete $ 420 millones en biobucks.

sábado, 19 de octubre de 2019

Los genes nos impiden desentrañar el origen de la vida y del universo.

Publicado en Investigación y Ciencia (Scilogs-España-18/10/2019)
¿Podrá la ciencia-tecnología alguna vez responder a preguntas tales como la causa y la forma del origen de la vida y del universo? Tal vez el condicionante genético de nuestro cerebro solo nos permita resolver problemas vinculados con nuestra supervivencia y no avanzar hacia los grandes misterios, ¿habrá cosas que nunca entenderemos?, ¿avanzar en la temática implica pensamientos para los cuales no estamos preparados? ¿Nuestras mentes sufren un “cierre genético cognitivo” con respecto a ciertos problemas?
Así como los perros o los gatos nunca entenderán el Teorema de Pitágoras, los cerebros humanos parecieran estar cerrados a algunos de los secretos del mundo sin evolucionar para poder descubrir los orígenes. Ambos misterios se nos aparecen como intratables y sus verdades simplemente inaccesibles a la mente humana. Sin embargo existen cuatro aspectos involucrados en alguna posibilidad de llegar a comprender el origen de la vida y del universo: las extensiones metales1, el conocimiento colaborativo1 e integrado, la lucha entre el hombre y sus genes2, y el  software-mente3

Extensiones mentales: nuestros débiles cerebros tal vez no puedan responder todas las preguntas y comprender todos los problemas. En ese caso estamos hablando del cerebro desnudo, pero el hombre ha desarrollado una cantidad importante de herramientas incluyendo una variedad de herramientas cognitivas. La ciencia y la tecnología le permiten superar muchas limitaciones naturales. Desde las matemáticas, un ejemplo de extensión mental, nos permite representar conceptos y trabajar sobre la capacidad de los cerebros desnudos, hasta las tecnologías que nos brindan la posibilidad de avanzar sobre nuestras percepciones naturales e incursionar en la “visión” de todo el espectro electromagnético, de lo muy grande y lo extremadamente pequeño. De manera similar, usamos objetos físicos (como papel y lápiz, computadoras, etc.) para aumentar enormemente la capacidad de memoria de nuestros cerebros desnudos. Por los ejemplos citados, entre otros, nuestras mentes se extienden literalmente más allá de nuestra dotación natural.

Conocimiento colaborativo e integrado: tal vez  nuestra especie única por ser capaces avanzar hacia el conocimiento cultural acumulativo e integrado. Una población de cerebros humanos es mucho más inteligente que cualquier cerebro individual aislado. Una empresa colaborativa por excelencia es la ciencia. Al colaborar con sus pares, los científicos pueden ampliar el alcance de su comprensión, logrando mucho más de lo que cualquiera de ellos sería capaz individualmente aumentando una evolución integradora y acumulativa. La inteligencia humana natural no es en la actualidad mayor a la de los habitantes de la antigua Grecia, nuestro avance hacia lo desconocido depende entonces del atesoramiento del inmenso legado del conocimiento humano acumulado a lo largo de los siglos a través del trabajo colaborativo.

La guerra entre el hombre y los genes: Richard Dawkins en su libro de divulgación “El gen egoísta” (The Selfish Gene), publicado en 1976, establece que el gen es la unidad evolutiva fundamental. Los organismos son, pues, meras máquinas de supervivencia para los genes. En tal sentido los seres humanos son utilizados por los genes para perpetuarse en el tiempo y el hombre deja su lugar central para convertirse en un soporte descartable de la herencia genética. La rebeldía del hombre se comienza a vislumbrar a partir de 1973 con las primeras experiencias de ADN recombinante, el nacimiento de la ingeniería genética y las técnicas nano y biotecnológicas en general. A partir de las experiencias de ADN recombinante, del silenciamiento de genes posible con la técnica de ARN de interferencia (ARNi) y la nueva ingeniería genética “in vivo” del sistema CRIPR-Cas 9 el hombre está en condiciones tomar el control de la situación cambiando el destino de la perpetuación de ciertos genes e intentar prevalecer de algún modo. Un campo de batalla, donde la inteligencia del hombre concebida para sobrevivir lo suficiente de modo de perpetuar a los genes, se tradujo en armas científicas-tecnológicas para intentar dominarlos, desprenderse de sus limitaciones y extender las posibilidades de nuestro cerebro para poder abordar preguntas para las cuales estábamos genéticamente limitados.

El software-mente: finalmente el avance en las NBIC (Nano-Bio-Info y Cognotecnologías) permite vislumbrar la posibilidad que el inmenso legado del conocimiento universal tal vez pueda pasarse de un humano a un robot como hoy se pasa el software de una computadora a otra. Si admitimos que la mente es al cuerpo como el software lo es al hardware, la posibilidad de poder trasferir el software-mente a un robot con un cerebro cuasi similar puede llegar a constituirse en una realidad y en la gran revolución del siglo XXI. Humanos robotizados inmortales no dependientes de genes, genoma ni ingeniería genética. Recordemos la viabilidad de contar, a fines del año 2025-2030, con cerebros similares construidos sobre la base de nanochips neurosinápticos, los proyectos cerebro humano (Human Brain Project-Brain Activity Map) y de los adelantos en nanotecnología capaces de producir una piel de grafeno, más sensible que la humana, ojos-nanocámaras para ver más allá del espectro visible, etcétera. En ese caso todos podríamos ser viajeros del universo y andar por el espacio sin preocuparnos por la temperatura, la atmósfera, la falta de agua, la comida y del escaso tiempo cósmico de nuestras vidas.

En tal circunstancia tal vez, eliminada las restricciones de los genes condicionantes, podremos formular preguntas para las cosas que hoy sabemos, es decir sobre incógnitas desconocidas sobre las cuales ni siquiera podemos aún enmarcar preguntas correctas ya que por alguna razón (desconocida) la inteligencia humana no está a la altura de la tarea. Lo expuesto señala una evolución posible para superar nuestras limitaciones biológicas y comprender como comenzar a desentrañar los misterios de la vida y del universo.

Lecturas complementarias:

1.-Maarten Boudry. Human intelligence: have we reached the limit of knowledge? The Conversation. https://theconversation.com/human-intelligence-have-we-reached-the-limit-of-knowledge-124819
2.-Alberto L. D'Andrea. La guerra invisible: el hombre vs los genes. https://www.investigacionyciencia.es/blogs/tecnologia/102/posts/la-guerra-invisible-el-hombre-vs-los-genes-15566
3.-Alberto L. D’Andrea y col. La convergencia de las tecnologías exponenciales & la singularidad tecnológica. Capítulo VIII. Editorial Temas. Buenos Aires. Argentina. 2017.

sábado, 12 de octubre de 2019

La nano-individualidad vs. la periodicidad los elementos.

La tabla periódica es la resultante de un sistema periódico de clasificación de los elementos químicos realizado en 1869 por Dmitri Mendeleev. En el presente año se cumple el 150 aniversario de su creación constituyéndose a través del tiempo en una herramienta única que permite a los científicos predecir la apariencia y las propiedades de la materia en la Tierra y en el Universo. Actualmente hay 118 elementos, los primeros 94 elementos se producen de forma natural y los 24 restantes solo se sintetizaron en laboratorios o reactores nucleares. En la tabla periódica, los períodos se muestran como
Crédito: Eugene A. Goodilin y col. ACS Nano
filas 
horizontales y los grupos se muestran en columnas verticales. Los elementos en el mismo período tienen el mismo número de orbitales. Los períodos se caracterizan por la cantidad de niveles de energía (capas) de los electrones que rodean el núcleo. Los elementos en el mismo grupo tienen el mismo número de electrones en la órbita externa y tienen propiedades similares. La era de la nanotecnología ha traído diferentes elementos al centro de atención y transformado su rol en la ciencia y la tecnología. En el reciente artículo Nanotechnology Facets of the Periodic Table of Elements, publicado en ACS Nano, Eugene A. Goodilin de la Universidad Estatal de Moscú, Paul S. Weiss de la Universidad de California y Yury Gogotsi de la Universidad Drexler, discuten los elementos más relevantes desde la perspectiva de nanotecnología y sus aplicaciones en nano materiales. Los autores encontraron que los elementos nanotecnológicos más demandados y útiles se concentran en los bloques s y p (ver la Figura) con nanoelementos predominantes que no son metales C, N, O y Si en el bloque p y,  H y Li en el bloque s.  Los autores señalan que: Una lección importante de la nanotecnología es que la individualidad de un elemento es más importante que la periodicidad; los elementos “similares” conocidos son en realidad diferentes desde el enfoque nanotecnológico y, en la mayoría de los casos, no son reemplazables como solíamos imaginar en las ciencia tradicional. Por lo tanto, la mayoría de los elementos tienen campos de uso más estrechos pero constituyen importantes individualidades en nanotecnología. Como resultado, alrededor de 30 de los 118 elementos primarios tienen una gran demanda en varios nanomateriales de una, dos y tres dimensiones (1D, 2D, 3D). Este grupo es la clase de nanomateriales más grande y de más rápido crecimiento iniciada a través de la revolución de la nanotecnología y el aumento meteórico relacionado de las arquitecturas nanotecnológicas utilizadas en la creación de supercondensadores, baterías, electrónica molecular, celdas de combustible, sensores, paneles solares y materiales de construcción avanzados, entre otros.
“La tabla periódica de los elementos de hace 150 años nos ayuda a apreciar la diversidad química de los elementos en la búsqueda de combinaciones elementales efectivas para producir nuevos nanomateriales", concluyen Goodilin, Weiss y Gogotsi.
La individualidad vs. la  periodicidad de los elementos  concuerda con las definiciones  de  Nanotecnología y de Química. La Química estudia los fenómenos que ocurren con variación de la composición de la materia en los cuales los electrones externos o de "valencia" tienen un papel central en la formación del producto y la periodicidad de los grupos está ligada a la similitud de comportamiento en las combinaciones. En cambio la Nanotecnología innova haciendo construcciones con los átomos y por ende importan estos como tales, es decir, con todas las propiedades de su individualidad.

Lectura complementaria:

sábado, 5 de octubre de 2019

Nanopartículas para ver dentro del cerebro vivo.

Investigadores de la Universidad de Stanford han desarrollado una nueva técnica de imagen de tejido profundo que permite ver debajo de la piel de sujetos vivos para iluminar tumores con una claridad incomparable. En el artículo In vivo molecular imaging for immunotherapy using ultra-bright near-infrared-IIb rare-earth nanoparticles publicado en la edición del 30 de septiembre de la revista Nature Biotechnology, demuestran cómo su técnica se puede utilizar para predecir la respuesta de los pacientes con cáncer a la inmunoterapia y para seguir su progreso después del tratamiento. 
Imagen de la estructura vascular. Y. Zhong y col. Stanford University*
La ventana de infrarrojo cercano con longitudes de onda entre 1,500-1,700 nm es ideal para imágenes ópticas de tejido profundo en mamíferos, pero carece de sondas brillantes y biocompatibles. La nueva técnica se basa en nanoesferas de  fluoruros activadas con iones del elemento Erbio de 13,7 nm de diámetro promedio (ErNPs).  El erbio   pertenece a una clase de las llamadas tierras raras, elemento apreciado por su capacidad única de brillar en el infrarrojo. El equipo recubrió a las nanopartículas con sustancias para  ayudar a su disolución en el torrente sanguíneo, bajar la toxicidad  y hacerlas salir más rápido del cuerpo. Además, el recubrimiento proporciona puntos de anclaje para moléculas de anticuerpos que actúan como misiles guiados para localizar y unirse a proteínas específicas en las células.  Bajo la incidencia de una determinada longitud de onda las nanopartículas de erbio producen  un brillo infrarrojo, profundo y con una resolución más fina con relación a las convencionales. La profundidad de imagen combinada con la especificidad molecular, la multiplicidad, la resolución espacial y temporal son inalcanzables por las técnicas actuales. Los vasos cerebrales de un ratón vivo se iluminan con luz infrarroja mediante sondas de nanopartículas de erbio al quedar atrapados en una luz verde azulada. El enfoque permite ver un cerebro de ratón intacto, mientras que en los convencionales solo se ve el cuero cabelludo. La técnica  podría proporcionar una forma no invasiva de conocer la respuesta a medicamentos sin necesidad de tomar una biopsia del tumor. Del mismo modo, las nanopartículas de erbio, se pueden utilizar para verificar si los tumores se han reducido, permitir a los cirujanos extirpar tumores con mayor precisión y ayudar a biólogos e investigadores médicos a estudiar procesos fundamentales dentro de las células.

Información complementaria: