sábado, 2 de mayo de 2026

Entre sinapsis y campos electromagnéticos: el cerebro desde la Nanopsicología

La comprensión de la mente exige hoy abandonar modelos lineales y avanzar hacia enfoques capaces de integrar múltiples niveles de organización. En este sentido, pensar el cerebro desde tres dimensiones, lo iónico, lo sináptico y lo electromagnético, no implica establecer una jerarquía rígida, sino reconocer una dinámica de co-determinación. Cada uno de estos niveles constituye una perspectiva sobre un mismo proceso: la actividad cerebral como sistema complejo en permanente reorganización. A su vez, el principio de energía libre formulado por Karl Friston permite interpretar cómo estos niveles se ajustan frente a la sorpresa, entendida como la discrepancia entre lo esperado y lo percibido.
En el nivel iónico se sitúa la base físico-química del sistema. Las neuronas operan mediante el movimiento de iones, principalmente sodio, potasio y calcio, que generan diferencias de potencial y posibilitan la aparición de los potenciales de acción. Este nivel no es un simple soporte pasivo, sino una dimensión activa donde se definen las condiciones mismas de la señal. Cuando un estímulo del entorno es captado por los sistemas sensoriales, se produce una transducción que transforma energía física en variaciones en estos flujos iónicos. Así, la irrupción de lo observable no se manifiesta como un campo que ingresa al cerebro, sino como una perturbación en los equilibrios electroquímicos que sostienen su funcionamiento.
El nivel sináptico introduce la organización relacional del sistema. Las neuronas se articulan en redes complejas donde la información se transmite a través de sinapsis químicas y eléctricas. Es en este plano donde adquiere centralidad la plasticidad, es decir, la capacidad del cerebro para modificar la eficacia de sus conexiones en función de la experiencia. Frente a un evento inesperado, los cambios no se limitan a la actividad momentánea: si el estímulo resulta significativo, las conexiones se reorganizan, fortaleciendo ciertos circuitos y debilitando otros. Desde la perspectiva del principio de energía libre de Karl Friston, este proceso puede entenderse como una actualización del modelo interno del sistema, orientada a reducir el error de predicción y a construir nuevas formas de anticipación.


El nivel electromagnético emerge necesariamente de los anteriores, ya que toda corriente eléctrica genera un campo. La actividad sincronizada de poblaciones neuronales produce campos que pueden medirse mediante técnicas como el electroencefalograma o la magnetoencefalografía. Este nivel ha dado lugar a un debate aún abierto. Mientras que la posición dominante lo considera un correlato de la actividad neuronal, algunas propuestas, como la de Johnjoe McFadden, plantean que podría desempeñar un rol en la integración global de la información. No obstante, la evidencia disponible indica que su capacidad para modificar directamente el flujo iónico en otras neuronas es limitada, lo que sugiere un papel más modulador que causal.
La articulación de estos tres niveles permite comprender de manera más precisa la respuesta del cerebro frente a la sorpresa. El paralelismo con el Principio de Le Châtelier resulta aquí esclarecedor: una perturbación no conduce a la restauración de un estado previo, sino al establecimiento de un nuevo equilibrio que compensa las condiciones alteradas. De manera análoga, el cerebro no retorna a su configuración anterior, sino que reorganiza simultáneamente sus dinámicas iónicas, sinápticas y electromagnéticas para alcanzar una nueva estabilidad funcional. Este proceso incluye tanto ajustes rápidos en la actividad eléctrica como cambios más lentos y duraderos en la conectividad.
Ahora bien, reconocer que toda actividad cerebral posee una expresión electromagnética no implica afirmar que este nivel constituya el principal canal de interacción con el entorno. Dicha interacción se realiza fundamentalmente a través de la acción, el cuerpo y los sistemas sensoriomotores. Sin embargo, el campo electromagnético puede entenderse como la manifestación global de la dinámica neuronal, lo que abre la posibilidad de considerarlo como un nivel de integración que no se reduce completamente a las interacciones locales.
Desde la nanopsicología, esta perspectiva multiescalar adquiere un valor singular. Pensar la mente implica considerar la interacción entre procesos que van desde el movimiento de partículas cargadas hasta la formación de patrones globales de actividad. En este marco, la mente no se identifica exclusivamente con ninguno de estos niveles, sino que emerge de su interacción dinámica. La sorpresa, la adaptación y el aprendizaje atraviesan simultáneamente lo iónico, lo sináptico y lo electromagnético, configurando un sistema en permanente transformación.
El cerebro no puede comprenderse adecuadamente desde una jerarquía lineal de niveles, sino como una unidad compleja donde distintas dimensiones físicas y funcionales se implican mutuamente. La minimización de la energía libre no ocurre en un único plano, sino como resultado de la interacción entre estos niveles, dando lugar a nuevos equilibrios que redefinen continuamente la relación entre el organismo y su entorno. En ese espacio de intersección, entre lo medible y lo aún no completamente explicado, se abre un campo fértil para el desarrollo de enfoques integradores, donde la nanopsicología puede ofrecer un marco conceptual capaz de articular lo físico, lo biológico y lo experiencial en una misma trama explicativa.

Referencias

Karl Friston (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience.

McFadden, Johnjoe (2020). Integrating information in the brain’s EM field: the cemi field theory of consciousness. Neuroscience of Consciousness, 2020, 1, niaa016.

D’Andrea, Alberto L.(2025) El secreto electromagnético de la consciencia.Biotecnología & Nanotecnología al Instante: https://infobiotecnologia.blogspot.com/2025/06/consciencia-oculta-en-los-campos.html

 David Chalmers (1996). The Conscious Mind. Oxford University Press.

D’Andrea, Alberto L. (2026). Nanopsicología. La psicología del siglo XXI. Editorial Autores Argentinos. Argentina. 

viernes, 1 de mayo de 2026

Cerebro, energía libre y electromagnetismo. Hacia una Nanopsicología integrada

El estudio del cerebro ha atravesado múltiples paradigmas: desde las primeras concepciones localizacionistas hasta los enfoques actuales basados en redes dinámicas, predicción y complejidad. En este recorrido, una de las propuestas más influyentes de las últimas décadas es el principio de energía libre formulado por Karl Friston, que redefine al cerebro no como un mero procesador pasivo de información, sino como un sistema activo que intenta reducir constantemente la incertidumbre.
El principio de energía libre plantea que el cerebro construye modelos internos del entorno y actúa para minimizar la discrepancia entre sus predicciones y la información sensorial que recibe. En términos formales, esto implica la reducción de una magnitud llamada “energía libre variacional”, vinculada a la sorpresa o al error de predicción. Desde esta perspectiva, percibir, pensar y actuar no son procesos independientes, sino manifestaciones de una misma lógica adaptativa orientada a mantener la coherencia del organismo con su entorno.
La energía libre de Karl Friston, suele escribirse así:
                                                                       F≈ −ln p(s)
Dónde p(s) es la probabilidad de lo que se percibe. Esta expresión indica que la energía libre (F) está relacionada con lo improbable (o sorprendente) que resulta un estado sensorial s. Aquí, F mide: sorpresa, error de predicción e incertidumbre del sistema. Cuanto más inesperado es algo, más “energía libre”.
Si algo es muy probable, p(s) es alto y −lnp(s) es bajo
Si algo es improbable, p(s) es bajo y −lnp(s) es alto (incertidumbre o sorpresa)


Este marco teórico permite articular, en un mismo plano, procesos neurobiológicos, cognitivos y conductuales.
Ahora bien, esta dinámica no ocurre en el vacío. El cerebro es, ante todo, un sistema físico que opera mediante señales electroquímicas. Cada neurona genera diferencias de potencial eléctrico y corrientes iónicas que, en conjunto, producen campos electromagnéticos medibles. Técnicas como la electroencefalografía (EEG) o la magnetoencefalografía (MEG) permiten registrar estas dinámicas, evidenciando que la actividad cerebral puede ser comprendida también como un fenómeno de organización de campos.
En este sentido, los campos electromagnéticos no deben ser considerados meros subproductos de la actividad neuronal, sino posibles niveles de organización con propiedades propias. Algunas corrientes teóricas sugieren que estos campos podrían contribuir a la integración de la información a gran escala, actuando como un sustrato dinámico que vincula distintas regiones cerebrales en tiempo real. Esta idea abre un debate aún en desarrollo, pero conceptualmente potente: ¿Es la mente únicamente el resultado de interacciones sinápticas, o también emerge de la dinámica de campos distribuidos?
La articulación entre el principio de energía libre y los campos electromagnéticos permite una lectura más amplia del funcionamiento cerebral. Si el cerebro busca minimizar la incertidumbre, entonces los patrones electromagnéticos podrían interpretarse como configuraciones dinámicas que reflejan ese proceso de ajuste continuo entre predicción y realidad. En otras palabras, los campos no solo expresan la actividad cerebral, sino que podrían formar parte del mecanismo mediante el cual se estabilizan los estados cognitivos.
En este punto emerge la posibilidad de una nanopsicología integrada. Este enfoque propone estudiar los procesos mentales considerando la interacción entre niveles micro, nano y macro. A escala nanométrica, la nanotecnología permite desarrollar sensores de alta precisión capaces de registrar fenómenos eléctricos y magnéticos con una resolución sin precedentes. Esto abre la puerta a una exploración más fina de la actividad cerebral, superando las limitaciones de las técnicas actuales. La nanopsicología no se limita a la medición, sino que implica una nueva forma de conceptualizar la mente. Al integrar el principio de energía libre, se reconoce al cerebro como un sistema predictivo; al incorporar los campos electromagnéticos, se amplía el marco hacia dinámicas distribuidas; y al sumar la nanotecnología, se habilita la posibilidad de intervenir y observar estos procesos con un nivel de detalle inédito. Se configura así un enfoque convergente, alineado con las tecnologías NBIC (nano, bio, info y cogno), donde la comprensión del sujeto humano se vuelve necesariamente interdisciplinaria.
Sin embargo, persisten desafíos importantes. Uno de ellos es el llamado “problema difícil de la conciencia”, planteado por David Chalmers, que señala la dificultad de explicar cómo los procesos físicos dan lugar a la experiencia subjetiva. Aunque el principio de energía libre describe con gran precisión la dinámica funcional del cerebro, no resuelve completamente la cuestión del significado vivido. Del mismo modo, la hipótesis de los campos electromagnéticos como soporte de la conciencia requiere aún mayor validación empírica.
A pesar de estas limitaciones, la integración de estos enfoques permite avanzar hacia una comprensión más compleja y rica del cerebro y la mente. La nanopsicología, en este contexto, no se presenta como una disciplina cerrada, sino como un horizonte de investigación que busca articular niveles de análisis tradicionalmente separados.

Pensar el cerebro desde la energía libre y los campos electromagnéticos implica reconocerlo como un sistema dinámico, predictivo y físicamente extendido. La nanopsicología integrada propone, entonces, un cambio de escala y de enfoque: del cerebro como órgano al cerebro como sistema en interacción multiescalar, donde la mente emerge no solo de la actividad neuronal, sino de la compleja danza entre materia, energía e información.


Referencias

Clark, Andy & Chalmers, David (1998). The extended mind. Analysis, 58: 10-23.

Clark, Andy (2013). Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behavioral and Brain Sciences, 36(3), 181–204.

D’Andrea, Alberto L.(2025) El secreto electromagnético de la consciencia. Biotecnología & Nanotecnología al Instante: https://infobiotecnologia.blogspot.com/2025/06/consciencia-oculta-en-los-campos.html

D’Andrea, Alberto Luis (2026). Nanopsicología. La psicología del siglo XXI. Editorial Autores Argentinos. Argentina.

Friston, Karl (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2): 127–138.

McFadden, Johnjoe (2020). Integrating information in the brain’s EM field: the cemi field theory of consciousness. Neuroscience of Consciousness, 2020, 1, niaa016.

Tamlyn, Hunt (2024) Consciousness Might Hide in Our Brain’s Electric Fields. Scientific American. Vol. 34 No. 3s , p. 22.

domingo, 12 de abril de 2026

Encrucijada humana: ¿El cuerpo a la luna o la mente al universo?

En pleno siglo XXI, la humanidad parece debatirse entre dos formas radicalmente distintas de trascender sus propios límites. Por un lado, persiste el impulso ancestral de conquistar territorios físicos: instalar presencia humana más allá de la Tierra, dejar huellas, construir estructuras, habitar lo inhóspito. Por otro, emerge con fuerza una alternativa menos tangible pero quizás más disruptiva: abandonar el cuerpo como vehículo principal y proyectar la mente en formatos digitales capaces de viajar sin restricciones materiales.
Mientras algunos proyectos científicos y tecnológicos apuntan a establecer bases permanentes en la luna, una suerte de nueva frontera geopolítica y simbólica, otros desarrollos, más silenciosos pero igualmente revolucionarios, buscan digitalizar la conciencia humana. Esta última posibilidad, aún en fase teórica y experimental, propone una transformación profunda: ya no se trataría de trasladar el cuerpo al espacio, sino de convertir la mente en información capaz de ser transmitida, replicada o incluso expandida en entornos virtuales o redes interplanetarias.


La primera opción responde a una lógica conocida: la colonización. Implica recursos, infraestructura, riesgos biológicos y enormes costos energéticos. Reproduce, en cierto modo, la historia humana de expansión territorial, ahora proyectada hacia el espacio. La segunda, en cambio, plantea una ruptura ontológica: si la mente pudiera codificarse, almacenarse y transferirse, el viaje dejaría de depender de la masa y la gravedad. La velocidad de la luz, y no la propulsión química, se convertiría en el nuevo horizonte. De hecho, desde 2023 asistimos a un anticipo de esta transición: la aparición de “humanos digitales”, construidos a partir de inteligencia artificial, capaces de imitar la voz, la imagen e incluso ciertos rasgos de personalidad de una persona. Empresas como Replika,
  Synthesia y Forever Identity ya ofrecen servicios donde una identidad puede persistir en forma de datos, interactuar y evolucionar dentro de un entorno digital.
No se trata aún de conciencia transferida, pero sí de una señal clara: la identidad humana comienza a separarse del soporte biológico. Y en ese despegue, quizás, se esté gestando la posibilidad de un viaje sin cuerpo, donde existir sea, antes que nada, información en movimiento. Este contraste no es solo tecnológico, sino también filosófico. ¿Qué significa “estar” en un lugar? ¿Es necesario el cuerpo para habitar un espacio? ¿Puede una mente digital experimentar, sentir, decidir? Y más aún: ¿seguiríamos siendo humanos si nuestra existencia se reduce a patrones de información?
En este punto, disciplinas emergentes como la nanopsicología comienzan a ofrecer un marco de reflexión. Al estudiar los procesos mentales en escalas cada vez más pequeñas, e incluso intervenir en ellos, abren la puerta a una posible integración entre cerebro y tecnología. La comunicación bidireccional entre sistemas biológicos y dispositivos artificiales ya no es ciencia ficción, sino un campo en desarrollo.
Sin embargo, ambas rutas, la material y la digital, comparten una misma raíz: la necesidad de trascendencia. Ya sea dejando una huella en el polvo lunar o convirtiéndose en flujo de datos en una red cósmica, el ser humano parece negarse a aceptar los límites impuestos por su biología y su planeta de origen.
Quizás el futuro no se defina por elegir uno de estos caminos, sino por su convergencia. Cuerpos en la Luna y mentes en la red. Presencia física y existencia digital. Una humanidad expandida en múltiples dimensiones, donde el concepto mismo de “viajar” deberá ser redefinido. 

Bibliografía.

Nanopsicología. La psicología del siglo XXI. www.amazon.com/dp/B0GHLJGCK9

lunes, 23 de marzo de 2026

Albert Camus, la guerra y la contaminación ambiental

Alberto L. D'Andrea
(Publicado en el Magazine de Radio Antorchas el 22 de  marzo del año 2026)

La novela La peste de Albert Camus transcurre en la ciudad de Orán, en la década de 1940 (publicada en 1947). El brote que describe es de peste bubónica, una enfermedad infecciosa causada por la bacteria Yersinia pestis, transmitida principalmente por pulgas de ratas. Frente a la epidemia, las autoridades adoptan medidas extremas: cuarentena estricta, cierre total de la ciudad, suspensión de transportes y prohibición absoluta de entrar o salir. Todo funciona como una verdadera frontera sellada, dejando a la población completamente aislada del exterior.


En ese contexto, Camus plantea que, frente a la inminencia de la muerte, muchos dejan de postergar lo que siempre desearon hacer y comienzan a vivir con mayor intensidad. Se rompe la ilusión del futuro como garantía, y aparece una verdad incómoda: “Los conciudadanos se daban cuenta de que nunca habían sido libres”. Era, en definitiva, el momento de hacer lo que mucho antes querían o debían haber hecho.
Si trasladamos esta reflexión al presente, observamos que, a pesar del crecimiento de las energías renovables, el consumo de combustibles fósiles continúa aumentando a nivel global. Esto se debe a una combinación de factores estructurales, económicos y políticos: una demanda energética en constante expansión, la fuerte dependencia de infraestructuras fósiles, la falta de decisiones políticas contundentes y el hecho de que estos combustibles siguen siendo, en muchos casos, más accesibles. Pero hay además un problema más profundo: el modelo de desarrollo global continúa basado en el crecimiento sostenido del consumo. Sin modificar ese paradigma, la transición energética seguirá siendo lenta e insuficiente.
La Agencia Internacional de la Energía debido a la guerra en Medio Oriente y su impacto sobre el petróleo y el gas, ha propuesto medidas para reducir el consumo: disminuir vuelos, limitar el uso del automóvil, promover el transporte público, incluso gratuito y ampliar el trabajo remoto. Según sus estimaciones, estas acciones permitirían ahorrar entre 4 y 6 millones de barriles diarios (se consumen 100 a 103 millones de barriles por día): una cifra significativa, aunque todavía insuficiente tanto para compensar la caída del suministro como para reducir de manera sustancial la contaminación ambiental.
En definitiva, se plantea, aunque de manera todavía tímida, comenzar a hacer lo que desde hace mucho tiempo debería haberse hecho: reducir de forma consciente y drástica el consumo de combustibles fósiles. Paradójicamente, es la guerra (una peste), y no una decisión ética o ambiental, la que empieza a empujarnos en esa dirección.
¿De verdad tuvimos que esperar una guerra, una crisis energética, un límite impuesto desde afuera, para empezar a hacer lo que sabíamos que había que hacer?
Tal vez, en este escenario, resuene con fuerza el pensamiento de Camus: era antes y no ahora,  cuando estábamos “apestados”.

Referencia bibliográfica:
Albert Camus. La peste. Editorial Lucemar. Argentina. 2021

sábado, 28 de febrero de 2026

Nanopsicología. Nace una nueva disciplina científica en el siglo XXI

 La aparición de Nanopsicología: la psicología del siglo XXI, de Alberto Luis D’Andrea, marca un punto de inflexión en el desarrollo del conocimiento contemporáneo. No se trata simplemente de un nuevo libro dentro del amplio campo de las ciencias cognitivas, sino de un acontecimiento epistemológico de relevancia: estamos frente a la primera obra mundial dedicada de manera sistemática a la nanopsicología.
Hasta el momento, la idea de una psicología vinculada a escalas nanométricas —ya sea en términos de procesos neurobiológicos, interacciones moleculares o interfaces tecnológicas— había permanecido fragmentada. Se encontraba dispersa en artículos aislados, hipótesis exploratorias y cruces interdisciplinarios entre la neurociencia, la nanotecnología y la inteligencia artificial. Este escenario de dispersión conceptual dificultaba su consolidación como campo autónomo.

La obra de D’Andrea introduce un cambio sustancial. A través de un enfoque riguroso, integrador y con fuerte sustento científico, el autor logra organizar, sistematizar y delimitar el objeto de estudio de la nanopsicología, transformando un conjunto de ideas emergentes en un cuerpo coherente de conocimiento. En este sentido, el libro no solo describe un área: la instituye.
Desde una perspectiva epistemológica, el texto propone que los fenómenos psicológicos pueden ser reinterpretados considerando su base en estructuras y procesos a escala nanométrica. Esto incluye desde la dinámica sináptica y molecular del cerebro hasta la interacción con dispositivos nanoestructurados capaces de modificar, registrar o amplificar funciones cognitivas. En consecuencia, la nanopsicología se posiciona en la convergencia de disciplinas clave del siglo XXI, como la nanotecnología, la biotecnología, la neurociencia y las tecnologías de la información.
Uno de los aportes más significativos de esta obra es su capacidad para trascender el carácter hipotético que hasta ahora definía al campo. La nanopsicología deja de ser una intuición teórica o una línea marginal de investigación para convertirse en una disciplina emergente con identidad propia, con conceptos, metodologías y proyecciones claramente definidas.
El impacto potencial de este nuevo enfoque es amplio. En el ámbito clínico, abre la puerta a intervenciones de precisión sobre procesos cognitivos y emocionales. En el campo tecnológico, plantea nuevas formas de interacción entre el cerebro y dispositivos nanoestructurados. En términos teóricos, redefine los límites de lo psicológico, desplazando el foco hacia niveles de organización hasta ahora poco explorados por la psicología tradicional.
La publicación en formato e-book el 27 de febrero de 2026 no solo simboliza el lanzamiento de un libro, sino el acto fundacional de una nueva disciplina científica. En un contexto donde el conocimiento avanza hacia la convergencia de escalas, desde lo macroscópico hasta lo nanométrico, la nanopsicología emerge como una respuesta necesaria para comprender la complejidad del ser humano en la era tecnológica.
En definitiva, Nanopsicología: la psicología del siglo XXI no es únicamente una contribución académica: es un hito. Un punto de partida desde el cual la psicología comienza a reescribirse a sí misma, incorporando dimensiones que hasta ahora permanecían fuera de su alcance conceptual. Un libro que no solo interpreta el presente, sino que anticipa el futuro del pensamiento científico.

Referencia.

Alberto L. D'Andrea. Nanopsicología. La psicología del Siglo XXI. Editorial Autores de Argentina. Argentina. 2026. Adquirir digital en : Amazon, Apple, Google y Kobo
                                                                               

viernes, 23 de enero de 2026

Del ion al amor: correlatos electromagnéticos de la mente

La actividad eléctrica del cerebro se origina en el movimiento de iones (potasio, sodio, calcio y cloruro) a través de las membranas neuronales, dando lugar a patrones dinámicos de activación en las redes conformadas por las neuronas. Estas dinámicas iónicas generan campos eléctricos y magnéticos que algunos enfoques teóricos vinculan con una posible naturaleza electromagnética de la mente.
Si bien el cerebro no funciona como un sistema de comunicación inalámbrica, sus campos electromagnéticos pueden ser registrados y analizados mediante técnicas como la magnetoencefalografía, una técnica de neuroimagen no invasiva que permite medir los campos magnéticos extremadamente débiles producidos por la actividad eléctrica cerebral, en particular por la activación sincrónica de poblaciones neuronales corticales.


Los campos magnéticos se miden en tesla (T), una unidad del Sistema Internacional que cuantifica la densidad de flujo magnético o inducción magnética, es decir, la intensidad de un campo magnético. Como referencia, el campo magnético terrestre es del orden de 5 × 10⁵ T. Esta técnica es capaz de realizar mediciones del campo magnético cerebral que oscilan entre 10⁻15 T y 10¹² T, proporcionando una resolución temporal muy precisa de la sincronización de la actividad neuronal.
Gracias a su elevada resolución temporal, del orden de los milisegundos, la magnetoencefalografía posibilita el estudio de la dinámica cerebral en tiempo real y el análisis de patrones de actividad a distintos niveles de organización, desde ritmos oscilatorios hasta redes neuronales distribuidas. A partir de estos registros, el uso de técnicas de machine learning permite reconocer patrones de actividad cerebral asociados a estados cognitivos y funcionales particulares, como la atención, la memoria de trabajo o, de manera más compleja, componentes emocionales y motivacionales vinculados a experiencias afectivas como el amor.
Si el amor puede asociarse a patrones electromagnéticos medibles originados en el movimiento de iones a través de las membranas neuronales, el verdadero desafío no es solo detectarlos con tecnología cada vez más precisa, sino comprender cómo de esos campos eletromagnéticos emerge una experiencia que nos transforma y da sentido a la vida.
Lectura complementaria

miércoles, 31 de diciembre de 2025

El ocaso del gen como centro de la evolución

A lo largo de la historia, la humanidad ha atravesado diversas revoluciones tecnológicas, entendidas como cambios profundos en los modos de producción, organización social y relación con la naturaleza. Sin embargo, en las últimas décadas del siglo XX y en las primeras del siglo XXI  asistimos a un fenómeno distinto: no una revolución aislada, sino a convergencias tecnológicas, es decir, la articulación sinérgica de múltiples campos científicos que, al interactuar, generan cualidades completamente nuevas. 


En este marco emergen tres grandes convergencias: la TIA (Tecnologías de la Información y la Automatización, 1975- ), la NBIC (Nanotecnología, Biotecnología, Información y Ciencias Cognitivas, 2001- ) y, en el presente artículo, se presenta la NIA, basada en la integración profunda entre
Nanotecnología e Inteligencia Artificial. Esta última marca un punto de inflexión: el inicio de una etapa en la que la inteligencia ya no depende necesariamente de la biología.
Las revoluciones tecnológicas: industrial, eléctrica, digital, transformaron herramientas, procesos y economías. Las convergencias, en cambio, transforman la estructura misma de lo real, integrando dominios antes separados.
La primera gran convergencia, la TIA, reorganizó el mundo en torno a la información, la automatización y la conectividad. La segunda, la NBIC, incorporó la vida, la mente y la materia a escala nano, generando un nuevo paradigma donde el ser humano comenzó a intervenir sobre sus propios fundamentos biológicos y cognitivos.
Pero es en la tercera convergencia, la NIA, donde se produce un quiebre conceptual más profundo. El límite del gen y el agotamiento del paradigma biológico.

Durante la segunda mitad del siglo XX, el descubrimiento del ADN colocó al gen en el centro de la explicación de la vida. La biotecnología, la ingeniería genética y la biología sintética consolidaron la idea de que comprender y modificar el código genético equivalía a comprender y modificar la vida misma. Sin embargo, con el avance del siglo XXI, ese paradigma comenzó a mostrar sus límites. La epigenética, la teoría de sistemas complejos y la neurociencia demostraron que la vida no puede reducirse a una secuencia genética. El comportamiento, la conciencia y la inteligencia exceden al gen. En este punto, la convergencia NIA introduce un desplazamiento radical: la inteligencia deja de depender de un soporte biológico. Aparece en la tercera convergencia (NIA) una inteligencia sin biología.

“Aparece en la tercera convergencia tecnológica una inteligencia sin biología”

La integración entre nanotecnología e inteligencia artificial permite el desarrollo de sistemas capaces de aprender, adaptarse y tomar decisiones sin recurrir a procesos orgánicos. Chips neuromórficos, arquitecturas cognitivas artificiales, sensores a escala nanométrica y sistemas auto-organizados configuran una nueva forma de inteligencia funcional. Los robots humanoides con software cognitivo avanzado ya no son simples máquinas programadas, sino entidades capaces de interactuar, interpretar contextos y modificar su comportamiento. En este escenario, los genes dejan de ser necesarios para que  emerja la inteligencia. Aunque pueda transferirse nuestro software mente a un cerebro artificial y avanzar hacia un humano robotizado inmortal, ya ni siquiera se trata de imitar al ser humano, sino de crear una inteligencia de otra naturaleza en la cual la nanotecnología le confiera la infraestructura necesaria actuando como el sustrato material de esta transformación. 

"... ni siquiera se trata de imitar al ser humano, sino de crear una inteligencia de otra naturaleza...

La nanotecnología permite diseñar dispositivos donde lo físico y lo digital se fusionan, habilitando niveles de miniaturización, eficiencia y autonomía inéditos. Gracias a ella, la inteligencia artificial deja de ser exclusivamente software y se convierte en un sistema encarnado, distribuido y adaptable. 

La convergencia NIA no suma tecnologías: redefine el concepto mismo de inteligencia. Mirando más allá del gen estamos ante una nueva etapa evolutiva. La tercera convergencia tecnológica no anuncia el fin de la biología, sino su descentramiento. El gen deja de ser el único portador de información significativa. La evolución ya no ocurre solo por selección natural, sino también por diseño tecnológico. Estamos ante una transición civilizatoria: de una evolución biológica lenta e inconsciente, a una evolución tecnocognitiva acelerada y deliberada. 
La pregunta central ya no es qué puede hacer la tecnología, sino qué tipo de humanidad y de inteligencias,  estamos dispuestos a crear. 

Alberto L. D'Andrea

Bibliografía

La guerra invisible: el hombre vs los genes. Alberto L. D’Andrea. Biotecnología y Nanotecnología al Instante ( infobiotecnologia.blogspot.com) 11/01/12.  

La guerra ahora visible: el hombre vs los genes. Alberto L. D’Andrea. Biotecnología y Nanotecnología al Instante.  02/02/14.

Del gen egoísta hasta la inmortalidad sin genes. Alberto L. D’Andrea. Biotecnología y Nanotecnología al Instante. 02/09/17.

Los genes nos impiden desentrañar el origen de la vida y el universo. Alberto L. D’Andrea. Biotecnología y Nanotecnología al Instante.  19/10/19.

La IA, el eje de una nueva convergencia tecnológica: NBIA. Alberto L. D'Andrea.  Biotecnología y Nanotecnología al Instante. 16 de agosto 2024.

Cuando los robots y los drones aprendieron a aprender. Alberto L. D'Andrea. Biotecnología y Nanotecnología al Instante. 13 de abril 2025.

Fin del primer cuarto del siglo XXI. Paralelismo entre 1925 y 2025 en la cosmovisión  del futuro. Alberto L. D’Andrea. Biotecnología y Nanotecnología al Instante.  23/12/25.



sábado, 27 de diciembre de 2025

The decline of the gene as the centre of evolution

Throughout history, humanity has undergone various technological revolutions, understood as profound changes in modes of production, social organization, and relationships with nature. However, in the final decades of the twentieth century and the early years of the twenty-first, we are witnessing a different phenomenon: not an isolated revolution, but technological convergences, that is, the synergistic articulation of multiple scientific fields which, through their interaction, generate entirely new qualities.

Within this framework, three major convergences emerge: TIA (Information Technologies and Automation, 1975–), NBIC (Nanotechnology, Biotechnology, Information, and Cognitive Sciences, 2001–), and, as presented in this article, NIA, based on the deep integration between Nanotechnology and Artificial Intelligence. The latter marks a turning point: the beginning of a stage in which intelligence no longer necessarily depends on biology. Technological revolutions, industrial, electrical, digital, transformed tools, processes, and economies. Convergences, by contrast, transform the very structure of reality, integrating domains that were previously separate.

The first major convergence, TIA, reorganized the world around information, automation, and connectivity. The second, NBIC, incorporated life, mind, and matter at the nanoscale, generating a new paradigm in which human beings began to intervene in their own biological and cognitive foundations. But it is in the third convergence, NIA, that a deeper conceptual rupture occurs: the limit of the gene and the exhaustion of the biological paradigm.

During the second half of the twentieth century, the discovery of DNA placed the gene at the center of the explanation of life. Biotechnology, genetic engineering, and synthetic biology consolidated the idea that understanding and modifying genetic code meant understanding and modifying life itself. However, as the twenty-first century advances, this paradigm has begun to show its limits. Epigenetics, complex systems theory, and neuroscience have demonstrated that life cannot be reduced to a genetic sequence. Behavior, consciousness, and intelligence exceed the gene. At this point, the NIA convergence introduces a radical shift: intelligence ceases to depend on a biological substrate. In the third convergence (NIA), an intelligence without biology emerges.

    “In the third technological convergence, an intelligence without biology emerges.

The integration of nanotechnology and artificial intelligence enables the development of systems capable of learning, adapting, and making decisions without relying on organic processes. Neuromorphic chips, artificial cognitive architectures, nanoscale sensors, and self-organizing systems configure a new form of functional intelligence. Humanoid robots with advanced cognitive software are no longer merely programmed machines, but entities capable of interacting, interpreting contexts, and modifying their behavior. In this scenario, genes are no longer necessary for intelligence to emerge. Although it may be possible to transfer our mind-software to an artificial brain and move toward an immortal robotized human, the issue is no longer imitation of the human being, but the creation of an intelligence of a different nature, in which nanotechnology provides the necessary infrastructure by acting as the material substrate of this transformation. Nanotechnology makes it possible to design devices where the physical and the digital merge, enabling unprecedented levels of miniaturization, efficiency, and autonomy. Thanks to this, artificial intelligence ceases to be purely software and becomes an embodied, distributed, and adaptive system.

The NIA convergence does not add technologies; it redefines the very concept of intelligence. Looking beyond the gene, we are facing a new evolutionary stage. The third technological convergence does not announce the end of biology, but its decentralization. The gene ceases to be the sole bearer of meaningful information. Evolution no longer occurs only through natural selection, but also through technological design. We are witnessing a civilizational transition: from a slow, unconscious biological evolution to an accelerated and deliberate techno-cognitive evolution.

The central question is no longer what technology can do, but what kind of humanity, and what kinds of intelligences, we are willing to create.

Alberto L. D’Andrea

Bibliography 

The Invisible War: Man vs. Genes. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). January 11, 2012.

The Now Visible War: Man vs. Genes. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). February 2, 2014.

From the Selfish Gene to Gene-Free Immortality. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). September 2, 2017.

Genes Prevent Us from Unraveling the Origin of Life and the Universe. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). October 19, 2019.

AI, the Axis of a New Technological Convergence: NBIA. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). August 16, 2024.

When Robots and Drones Learned to Learn. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). April 13, 2025.

End of the First Quarter of the 21st Century. Parallelism Between 1925 and 2025 in the Worldview of the Future. Alberto L. D’Andrea. Biotecnología & Nanotecnología al Instante. (infobiotecnologia.blogspot.com). December 23, 2025.



martes, 23 de diciembre de 2025

Fin del primer cuarto del siglo XXI.

Paralelismo entre 1925 y 2025 en la cosmovisión  del futuro.

Cuando un siglo atraviesa sus primeros veinticinco años, todavía no exhibe los resultados más visibles, pero sí define algo más decisivo: sus fundamentos. El año 2025, al cerrar el primer cuarto del siglo XXI, permite observar ese proceso fundacional y compararlo con otro momento estructuralmente equivalente: los primeros veinticinco años del siglo XX.
Vistos retrospectivamente, aquellos años iniciales del siglo XX no fueron una mera acumulación de descubrimientos, sino la construcción de un entramado conceptual y experimental del que emergerían, décadas después, la electrónica de estado sólido, la energía nuclear, la cohetería, la informática, la telefonía celular, la ingeniería genética, la biotecnología y la nanotecnología. No se trató de aplicaciones inmediatas, sino de principios que, con el tiempo, convergieron en sistemas tecnológicos complejos.


En ese período, la física ocupó un lugar estructural. La cuantización de la energía discontinua propuesta por Max Planck en 1900, el modelo atómico de Niels Bohr en 1913, la hipótesis de la dualidad onda-partícula de Louis de Broglie en 1924, el principio de incertidumbre de Werner Heisenberg en 1925 y el modelo atómico de carácter probabilístico de Erwin Schrödinger en 1926, redefinieron la noción de materia. Esa redefinición permitió comprender desde los enlaces químicos hasta la posibilidad de transformar la naturaleza innovando a través de la construcción y manipulación de átomos y moléculas, base conceptual remota de la nanotecnología contemporánea. Todo ello fue posible gracias a la consolidación inicial de un modelo atómico confiable.
Fue recién a partir de la segunda mitad del siglo XX cuando ese conocimiento se tradujo en micro y nanoelectrónica, computación personal y telecomunicaciones móviles. El desarrollo de los transistores (1947), los amplificadores operacionales (década de 1950), los circuitos integrados (finales de la década de 1950), los chips (décadas de 1960–1970) y los dispositivos a escala nanométrica (en las décadas de 1990–2000) permitió que la informática y la telefonía celular se incorporaran a la vida cotidiana. Hacia fines del siglo, la integración entre tecnología, sistemas informáticos y redes de comunicación dio origen a una convergencia explícita entre tecnología, información y comunicación, identificable como convergencia TIC (Tecnologías de la Información y la Comunicación) que preparó el terreno para la digitalización masiva, internet y la actual infraestructura algorítmica global del siglo XXI.
Desde esta perspectiva, los primeros veinticinco años del siglo XX pueden entenderse como la fase de incubación que sentó los cimientos del paradigma tecnológico dominante de ese siglo: el control de la materia y la energía.
El primer cuarto del siglo XXI presenta una dinámica análoga, aunque con otros ejes. La conclusión del Proyecto Genoma Humano (1990–2003) marcó un punto de inflexión comparable al de la física cuántica un siglo antes: la vida comenzó a ser comprendida como información debido a la lectura y análisis de los genes. A partir de allí, la biotecnología, la bioinformática, la medicina personalizada y la edición genética se integraron en un mismo marco operativo. En paralelo, la nanotecnología avanzó hacia aplicaciones funcionales (como los nanochips neurosinápticos), la inteligencia artificial se consolidó como infraestructura cognitiva transversal y la neurociencia se articuló con la computación.
Es en este contexto donde adquiere centralidad la segunda gran convergencia tecnológica, a partir en el año 2000, la convergencia NBIC (Nano-Bio-Info y Cognotecnología), no como una etiqueta coyuntural, sino como el rasgo estructural inicial del siglo XXI en formación. Así como el siglo XX se organizó en torno al control de la materia y la energía, el siglo XXI comenzó hacerlo alrededor de la convergencia entre vida, información e inteligencia como sistema integrado.
El paralelismo se refuerza en el plano geopolítico. En ambos comienzos de siglo, la aceleración tecnológica superó la capacidad de regulación social y política. Hoy, la competencia por datos, capacidades algorítmicas y recursos tecnológicos, como los chips avanzados y las tecnologías a escala nanométrica, redefine el poder global del mismo modo en que lo hicieron la industria pesada y la energía hace cien años.
La correspondencia más profunda, sin embargo, es epistemológica. En 1925, la física cuántica puso en crisis la idea de una naturaleza completamente determinable. En 2025, la convergencia NBIC se ve obligada a reestructurarse en una tercera convergencia tecnológica: NIA (Nanotecnología e Inteligencia Artificial) para esclarecer cuestiones como autonomía, inteligencia, creatividad e identidad.
La incertidumbre ya no se limita a la materia, sino que alcanza a los sistemas artificiales como los drones y los robots humanoides sin genes, que procesan información, aprenden y toman decisiones en entornos parcialmente autónomos.
Desde esta perspectiva, el cierre del primer cuarto de un siglo no es un balance final, sino la identificación de un umbral. Los primeros veinticinco años del siglo XX hicieron posible el mundo tecnológico que lo dominó. Los primeros veinticinco años del siglo XXI están configurando, aún de manera incompleta, un futuro donde la convergencia tecnológica NIA redefine no solo la tecnología imperante, sino los marcos conceptuales de la civilización y las formas mismas de producción, validación y circulación del conocimiento.

Alberto D’Andrea

Bibliografía

Alberto L. D’Andrea. Hombre virtual & Hombre robotizado. Ambos inmortales. Biotecnología & Nanotecnología al Instante. 2023.

Alberto L. D’Andrea. Sinopsis proyectiva del siglo XXI. Biotecnología & Nanotecnología al Instante. 2023.

Alberto L. D’Andrea. El punto de inflexión demográfico del siglo XXI. ¿Cuándo ocurrirá la paridad demográfica humano-robot humanoide? Biotecnología & Nanotecnología al Instante. 2025.

domingo, 21 de diciembre de 2025

End of the First Quarter of the 21st Century.

Parallels between 1925 and 2025 in the Worldview of the Future.

When a century passes through its first twenty-five years, it does not yet display its most visible results, but it does define something more decisive: its foundations. The year 2025, as it closes the first quarter of the 21st century, makes it possible to observe this foundational process in perspective and to compare it with another structurally equivalent moment: the first twenty-five years of the 20th century.
Viewed retrospectively, those early years of the 20th century were not a mere accumulation of discoveries, but rather the construction of a conceptual and experimental framework from which, decades later, solid-state electronics, nuclear energy, rocketry, computing, cellular telephony, genetic engineering, biotechnology, and nanotechnology would emerge. These were not immediate applications, but principles that, over time, converged into complex technological systems.


During that period, physics occupied a structural position. The quantization of discontinuous energy proposed by Max Planck in 1900, Niels Bohr’s atomic model in 1913, Louis de Broglie’s wave–particle duality hypothesis in 1924, Werner Heisenberg’s uncertainty principle in 1925, and Erwin Schrödinger’s probabilistic atomic model in 1926 redefined the notion of matter. This redefinition made it possible to understand phenomena ranging from chemical bonds to the possibility of transforming nature through innovation based on the construction and manipulation of atoms and molecules, the remote conceptual basis of contemporary nanotechnology. All of this was made possible by the initial consolidation of a reliable atomic model.
It was only from the second half of the 20th century onward that this knowledge was translated into micro- and nanoelectronics, personal computing, and mobile telecommunications. The development of transistors (1947), operational amplifiers (1950s), integrated circuits (late 1950s), chips (1960s–1970s), and nanoscale devices (1990s–2000s) enabled computing and cellular telephony to become part of everyday life. Toward the end of the century, the integration of technology, information systems, and communication networks gave rise to an explicit convergence of technology, information and communication, identifiable as ICT convergence (Information and Communication Technologies), which prepared the ground for mass digitisation, the internet, and the current global algorithmic infrastructure of the 21st century.
From this perspective, the first twenty-five years of the 20th century can be understood as the incubation phase that laid the foundations of that century’s dominant technological paradigm: the control of matter and energy.
The first quarter of the 21st century presents a similar dynamic, though with different axes. The completion of the Human Genome Project (1990–2003) marked a turning point comparable to that of quantum physics a century earlier: life began to be understood as information through the reading and analysis of genes. From that point on, biotechnology, bioinformatics, personalized medicine, and gene editing became integrated within a single operational framework. In parallel, nanotechnology advanced toward functional applications (such as neurosynaptic nanochips), artificial intelligence consolidated as a transversal cognitive infrastructure, and neuroscience became articulated with computing.
It is in this context that the second major technological convergence, emerging around the year 2000, the NBIC convergence (Nano-Bio-Info and Cognotechnology), acquires centrality, not as a circumstantial label but as the initial structural feature of the 21st century in formation. Just as the 20th century was organized around the control of matter and energy, the 21st century has begun to organize itself around the convergence of life, information, and intelligence as an integrated system.
The parallel is reinforced on the geopolitical level. In both beginnings of the century, technological acceleration outpaced the capacity for social and political regulation. Today, competition for data, algorithmic capabilities, and technological resources, such as advanced chips and nanoscale technologies, redefines global power in much the same way that heavy industry and energy did a hundred years ago.
The deepest correspondence, however, is epistemological. In 1925, quantum physics called into question the idea of a fully determinable nature. In 2025, NBIC convergence is compelled to restructure itself into a third technological convergence: NIA (Nanotechnology and Artificial Intelligence), in order to clarify issues such as autonomy, intelligence, creativity, and identity. Uncertainty is no longer confined to matter; it now extends to artificial systems such as drones and gene-less humanoid robots that process information, learn, and make decisions in partially autonomous environments.
From this perspective, the closing of a century’s first quarter is not a final balance sheet but the identification of a threshold. The first twenty-five years of the 20th century made possible the technological world that came to dominate it. The first twenty-five years of the 21st century are configuring, still incompletely, a future in which NIA technological convergence redefines not only the prevailing technology, but also the conceptual frameworks of civilization and the very forms of production, validation, and circulation of knowledge.

Alberto L. D’Andrea

Bibliography


Alberto L. D’Andrea. Sinopsis proyectiva del siglo XXI. Biotecnología & Nanotecnología al Instante. 2023. 

Alberto L. D’Andrea. El punto de inflexión demográfico del siglo XXI.   ¿Cuándo ocurrirá la paridad demográfica humano-robot humanoide? Biotecnología & Nanotecnología al Instante. 2025. 

martes, 9 de diciembre de 2025

El desarrollo tecnológico no tiene techo, ¿tiene límites?

El desarrollo de la tecnología no tiene techo, pero ¿alguien le pone un límite? Esa frase encierra una tensión fundamental: la aceleración de lo posible frente a la deliberación de lo deseable.


La técnica expande continuamente el campo de lo que podemos hacer, desde manipular átomos hasta modelar comportamientos colectivos, pero la pregunta relacionada con los límites no es sólo técnica; es profundamente política, ética y humana. Los límites no aparecen por azar: los ponen las instituciones, las normas, las consciencias, las consecuencias visibles e invisibles, y también la propia naturaleza de los sistemas que habitamos.
A veces el límite es externo y coercitivo: leyes, regulaciones, sanciones económicas, acuerdos internacionales que buscan contener riesgos compartidos. Estas barreras nacen del reconocimiento social de daños potenciales tales como las armas biológicas, la vigilancia masiva, la desigualdad tecnológica y responden a la necesidad de proteger bienes comunes como la salud pública, la privacidad o la democracia. Pero las normas llegan tarde si no se anticipan; con frecuencia corremos detrás de las innovaciones intentando poner parches donde ya hay grietas. Así, los límites institucionales son necesarios, pero insuficientes cuando las dinámicas del mercado y la carrera por la ventaja competitiva los eluden.

“...las normas llegan tarde si no se anticipan; con frecuencia corremos detrás de las innovaciones intentando poner parches donde ya hay grietas. Los límites institucionales son necesarios, pero insuficientes cuando las dinámicas del mercado y la carrera por la ventaja competitiva los eluden.” 

Otras veces el límite es interno: la ética profesional, la prudencia científica, la responsabilidad individual. Investigadores que deciden no publicar un hallazgo peligroso, ingenieros que rehúsan diseñar sistemas para controlar a poblaciones enteras, comunidades que deliberan y acuerdan qué investigaciones financiar. Estos límites dependen de una ecología de valores: la formación ética, la cultura institucional, la presión pública. Son más frágiles porque no siempre están formalizados, y por eso requieren tejido social: educación, conversación pública y un periodismo que informe con rigor.
También hay límites sistémicos y materiales: recursos finitos, entropía, complejidad que se desboca. No todo es solo voluntad; hay barreras físicas, energía, materiales críticos, geometrías de escalado,  y límites de comprensión. Aumentar capacidad tecnológica sin entender sus efectos secundarios (económicos, ambientales, psicológicos) puede generar retrocesos: degradación ecológica, crisis sociales, pérdida de confianza. En ese sentido, los límites pueden venir de la propia naturaleza como un recordatorio humilde de que ampliar horizontes comporta responsabilidades añadidas.
También existe un límite profético, colectivo: la imaginación moral de cada época. Preguntarnos qué tecnología queremos implica un ejercicio de futuro compartido: decidir qué fines priorizamos, qué riesgos asumimos y qué armonías buscamos. 
Los límites no deberían ser solo frenos, sino diques que permiten navegar sin naufragar: marcos que orienten la innovación hacia el bien común, mecanismos que distribuyan beneficios y costos, y prácticas que mantengan la dignidad humana como brújula. Si alguien debe poner el límite, mejor que sean deliberaciones abiertas y democráticas, no decisiones secretas o lógicas de acumulación.
En definitiva, la tecnología puede expandir lo posible hasta el infinito, pero el sentido de ese poder se define en los márgenes donde ponemos los límites. Es en ese borde, entre lo que podemos y lo que debemos, donde se juega la noción de progreso: no solo medido por velocidad o capacidad, sino por la sabiduría para modular la potencia con anticipación, prudencia, cuidado y justicia.

Bibliografía.

D'Andrea Alberto L. El desarrollo tecnológico no tiene techo, ¿tiene límites? Magazine Radio Antorchas (05/12/25). https://radioantorchas.com.ar/2025/12/05/el-desarrollo-tecnologico-no-tiene-techo-tiene-limites/

lunes, 8 de diciembre de 2025

Technology has no ceiling, does it have limits?

 Technological development has no ceiling, but does someone set its limits? That question contains a fundamental tension: the acceleration of what is possible versus the deliberation over what is desirable.
Technology continually expands the range of what we can do, from manipulating atoms to modeling collective behavior, but the question of limits is not merely technical; it is profoundly political, ethical, and human. Limits do not appear by chance: they are set by institutions, norms, collective awareness, visible and invisible consequences, and also by the very nature of the systems we inhabit.


Sometimes the limit is external and coercive: laws, regulations, economic sanctions, and international agreements intended to contain shared risks. These barriers emerge from society’s recognition of potential harms such as biological weapons, mass surveillance, or technological inequality, and respond to the need to protect common goods such as public health, privacy, or democracy. But rules arrive too late if they are not anticipated; we often run behind innovations, trying to patch cracks that are already there. Institutional limits are necessary, but insufficient when market dynamics and the race for competitive advantage circumvent them.

“…rules arrive too late if they are not anticipated; we often run behind innovations, trying to patch cracks that already exist. Institutional limits are necessary, but insufficient when market dynamics and the race for competitive advantage elude them.”

Other times the limit is internal: professional ethics, scientific prudence, individual responsibility. Researchers who choose not to publish a dangerous finding, engineers who refuse to design systems to control entire populations, communities that deliberate and decide what research should be funded. These limits depend on an ecology of values: ethical education, institutional culture, public pressure. They are more fragile because they are not always formalized, and therefore they require social fabric: education, public dialogue, and journalism that informs with rigor.
There are also systemic and material limits: finite resources, entropy, runaway complexity. Not everything depends on willpower; there are physical barriers, energy constraints, critical materials, scaling geometries, and limits to understanding. Increasing technological capacity without grasping its side effects, economic, environmental, psychological, can produce setbacks: ecological degradation, social crises, loss of trust. In this sense, limits may arise from nature itself, reminding us that widening horizons comes with added responsibilities.
There is also a prophetic, collective limit: the moral imagination of each era. Asking what technology we want requires an exercise in shared futurity: deciding what goals we prioritize, what risks we accept, and what harmonies we seek.
Limits should not be mere brakes, but breakwaters that allow us to navigate without sinking: frameworks that orient innovation toward the common good, mechanisms that distribute benefits and costs, and practices that keep human dignity as our compass. If someone must set the limit, it is better that it be through open, democratic deliberation, not through secret decisions or logics of accumulation.
Ultimately, technology can expand what is possible to infinity, but the meaning of that power is defined at the margins where we place our limits. It is on that boundary, between what we can do and what we ought to do, where the notion of progress is shaped: measured not only by speed or capability, but by the wisdom to modulate power with foresight, prudence, care, and justice.

Bibliography

D’Andrea, Alberto L. El desarrollo tecnológico no tiene techo, ¿tiene límites? Magazine Radio Antorchas (05/12/25).