Rating
(0 Likes)
Lectura 2 - 4 minutos

En el año de 1998, José Saramago (1922-2010) obtuvo el Premio Nobel de Literatura. Ese hecho significó reconocer con el máximo galardón de la literatura en el mundo a un escritor en lengua portuguesa por primera vez (y única hasta la fecha).

Ese año, junto con Saramago «competía» otro autor portugués que desde entonces ha sido eterno candidato a recibir el referido galardón, un médico con formación psiquiátrica llamado António Lobo Antunes (Lisboa, 1942), autor de un puñado de novelas valoradas con buena crítica.

Por alguna extraña razón, la literatura en lengua portuguesa no es la más popular entre los hispanoparlantes. Pese a la cercanía entre ambas lenguas, existe cierto distanciamiento en lo referente a la literatura. En México –por ejemplo– es más fácil conseguir obras de autores franceses, italianos, alemanes, etc., que de brasileños o portugueses.

Referencias las hay de sobra para reconocer que en lengua portuguesa hay autores de alta calidad, pero acaso relegados, quizás, por un recelo inexplicable. Están los casos de Clarice Lispector, Jorge Amado, Rubem Fonseca (del que sí hay, por fortuna, cualquier cantidad de obras en el sello mexicano Cal y Arena), Dalton Trevisan, Fernando Pessoa, Joaquim Machado de Assis, José Maria Eça de Queiros, por citar a algunos escritores representantes de esa lengua.

Una muestra de la calidad de esta literatura es el autor antes aludido, António Lobo Antunes, que cada año suena para obtener el Nobel, pero que –según expertos– jamás recibirá no porque su obra no esté a la altura, sino porque es un escritor que no encaja en la personalidad que hoy en día se busca en el galardonado: aparentemente crítico del sistema, «buena gente», de una obra quizás desconocida.

Porque resulta que Lobo Antunes es un autor conocido, aunque quizás poco leído. Es un escritor obsesionado con hacer buena literatura, que sólo piensa en escribir y corregir, según ha manifestado a la periodista cultural española María Luisa Blanco en Conversaciones con António Lobo Antunes (DeBols!llo 2005). Un libro que no nada más aclara la personalidad del portugués, sino que sirve como una especie de guía para aquellos que buscan escribir.

La recomendación de esta semana es la novela El orden natural de las cosas (1992; DeBols!llo, 2004), la segunda obra que forma parte de su trilogía sobre la muerte.

La novela reúne diez voces de personas que habitan la soledad; desde el dolor, cuentan su historia, la desesperación y el miedo que experimentan al saberse acechados por la muerte, desde la enfermedad y la locura.

Hay que aclarar que Lobo Antunes no es un escritor que se lee de corrido, de una sentada. Se trata de un autor que no permite concesiones y, a la menor distracción, es probable que algún detalle se escape y se pierda el hilo de la historia.

Sin embargo, a cambio de dicha complejidad, el lector es recompensado con una prosa altamente poética, sobrecogedora y dotada de un lirismo que convierte a las páginas en habitaciones confortables, aun cuando está presente la muerte.

En El orden natural de las cosas hay, además, una profunda reflexión acerca de la muerte y de la vida. En el trasfondo hay una Lisboa decadente, encarnada en un expolicía de la dictadura que ahora se dedica a vender cursos de hipnotismo por correspondencia, un escritor que lo escucha, una muchacha diabética que huele a crisantemos, una tía del narrador que está sumergida en la locura…

Es una obra coral, poética, sin historias lineales; da brincos temporales y está compuesta de cinco libros: «Dulces olores, dulces muertos», «Los argonautas», «El viaje a China», «La vida contigo» y «La representación alucinatoria del deseo».

La traducción de Mario Merlino deja entrever la poesía que Lobo Antunes coloca en cada frase. La obsesión del autor por escribir bien está en cada página; no busca engañar al lector: es un escritor honesto, dotado con el don de la palabra. Es, en resumidas cuentas, una novela que concentra la belleza de la muerte.

TOMADA DE LA WEB

António Lobo Antunes es considerado como uno de los mejores escritores vivos.

 

TOMADA DE LA WEB

Tratado de las pasiones del alma y La muerte de Carlos Gardel completan la trilogía acerca de la muerte.

Rating
(4 Likes)
Lectura 2 - 4 minutos

 “Nos acostumbramos a la violencia

y esto no es bueno para nuestra sociedad.

Una población insensible es una población peligrosa".

Isaac Asimov

 

Aun cuando muchas personas no creen que podamos vivir en cultura de paz, debido a toda la violencia que vivimos cotidianamente, los expertos dicen que sí es posible.

En principio, podemos afirmar que la cultura de paz se manifiesta en diferentes niveles: desde las relaciones personales y familiares hasta las interacciones a nivel internacional. Implica la resolución pacífica de conflictos, el respeto a los derechos humanos, la inclusión social y la promoción de la educación y la comprensión intercultural. Esto, podrían decirme quienes no coinciden en que se puede lograr, sólo se da en las relaciones entre países, y tal vez no tanto, porque vemos, también en este plano, cómo algunos países invaden o atacan otras naciones.

Tenemos que entender que, efectivamente, el conflicto es parte inherente del ser humano, pero, también hay que entender que no se puede lograr la paz ejerciendo el poder del más fuerte sobre el más débil. Tenemos que llegar a acuerdos adecuados.

La cultura de paz es una relación de armonía entre personas y sociedades, libre de violencia; implica reconocer la dignidad individual y respetar los derechos de las personas y fortalece la cohesión social, la erradicación de la violencia y la formación del capital social. En síntesis, es una forma, en mi opinión la mejor de solucionar los conflictos.

La mejor manera de construirla es: educando a las personas en el respeto a la dignidad y los derechos de todas las personas: resolviendo los conflictos por vía pacífica; promoviendo el diálogo constructivo; fomentando la solidaridad y la cooperación entre todos los individuos; aceptando y respetando la diversidad; y, renunciando a la violencia como método para resolver los conflictos.

Johan Galtung, sociólogo noruego y fundador de los estudios de la paz y los conflictos, desarrolló un marco teórico en el que distingue tres tipos de violencia. La primera es la violencia directa: es la violencia visible y física que se ejerce de manera inmediata sobre las personas. Incluye homicidios, agresiones, guerras, tortura y cualquier acto en el que se cause daño de forma directa.

La violencia estructural es la que se encuentra incrustada en las estructuras sociales, políticas y económicas, limitando las oportunidades de ciertos grupos. Se manifiesta en la pobreza, la marginación, la falta de acceso a educación y salud, y la desigualdad social. Por ejemplo, la falta de acceso a la justicia para las comunidades indígenas o la impunidad en casos de violaciones a derechos humanos.

Y por último tenemos a la violencia cultural. En ésta se encuentran los valores, creencias y discursos que justifican y perpetúan la violencia. Se expresa a través de ideologías, religiones, costumbres, tradiciones o narrativas que normalizan la discriminación, el racismo, el machismo y otras formas de opresión. El peor ejemplo en México es el machismo que normaliza la violencia de género o los discursos que justifican la violencia policial contra ciertos sectores de la población.

Galtung enfatiza que para construir una paz duradera es necesario no solo erradicar la violencia directa, sino también transformar las estructuras y creencias que la sostienen. Propone un enfoque de "Paz Positiva", que va más allá de la ausencia de guerra y se enfoca en construir sociedades justas y equitativas, eliminando las condiciones que generan violencia estructural y cultural.

No es tarea fácil ni para las familias ni para los gobiernos. Pero sí podemos implementar formas que den inicio a la cultura de paz.

Las teorías de Galtung han sido aplicadas en diversas regiones del mundo para la resolución de conflictos y la construcción de paz, entre ellas:

Proceso de paz en Sudáfrica: Sus ideas influyeron en la transición del apartheid a una democracia incluyente, promoviendo la justicia restaurativa y la reconciliación.

Conflictos en América Latina: Se han utilizado sus enfoques en programas de mediación y justicia restaurativa en países como Colombia, en el marco del proceso de paz con las FARC (Fuerzas Armadas Revolucionarias de Colombia)

Balcanes y Medio Oriente: Ha trabajado en proyectos de resolución de conflictos en zonas afectadas por la guerra, promoviendo el diálogo y la transformación de estructuras violentas.

Esto nos lleva a la siguiente conclusión: si en otros países, estas implementaciones han funcionado, ¿por qué en México no podríamos hacerlo?

Sólo es cuestión de interés e iniciativa.

Lunes, 31 Marzo 2025 05:34

¿Por qué quieren desaparecer el IMM?

Reportero
Rating
(0 Likes)
Lectura 4 - 7 minutos

Uno de los principios generales de los Derechos Humanos es el de la Progresividad, que básicamente significa que para el cumplimiento de ciertos derechos se requiera la toma de medidas a corto, mediano y largo plazo, pero procediendo lo más expedita y eficazmente posible. Este principio se relaciona de forma estrecha con la prohibición de retrocesos o marchas atrás injustificadas a los niveles de cumplimiento alcanzados, la “no regresividad” en la protección y garantía de derechos humanos.

Bajo esa premisa, es inexplicable que haya un proyecto para desaparecer el Instituto de la Mujer del Estado de Morelos, creado en 2002 como organismo descentralizado del Gobierno del Estado y transformado en órgano público autónomo por decreto constitucional publicado el 16 de agosto del 2018 en el periódico oficial “Tierra y Libertad”.

De igual manera, es desafortunado que el secretario de Gobierno, Juan Salgado Brito, quien es doctor en Derecho, haya declarado la semana pasada que “el propósito es fortalecer la Secretaría de la Mujer y capitalizar al máximo todos los recursos que existan por la misma causa”.

Sabemos que hay una tendencia a nivel nacional a desaparecer los órganos autónomos, una moda que inició Andrés Manuel López Obrador con el Instituto Nacional de Acceso a la Información Pública (INAI) en venganza por haber sacado a la luz pública muchas cosas que el expresidente hubiese querido que se mantuviera en la opacidad, pero el gobierno de Morelos no tiene por qué continuar con esa tendencia.

El Instituto de la Mujer en Morelos no debe desaparecer. Aunque existe la Secretaría de las Mujeres, el Instituto ha sido el resultado de una lucha histórica por los derechos y el bienestar de las mujeres. Es un espacio que ha logrado visibilizar las demandas de las mujeres, defender sus derechos y ser un motor de cambio en la construcción de una sociedad más justa e igualitaria. Si bien la Secretaría tiene un rol importante, el Instituto sigue siendo crucial para profundizar en políticas públicas con perspectiva de género, atención especializada y acciones que respondan de manera integral a las problemáticas que enfrentan las mujeres morelenses.

Si lo que quieren es el lugar de la actual presidenta, Isela Chávez Cardoso, pues que tengan un poquito de paciencia porque ella (quien no es monedita de oro y entre mujeres menos) terminará su periodo en unos meses, pero no desaparezcan una institución que ha sido el resultado de años de trabajo de muchas lideresas de esta entidad.

Y si las diputadas y los diputados quieren realmente hacer algo por la Institución, que le asignen una partida extra a su presupuesto para que pueda comprar un inmueble, pues no es justo que el IMM ande como “judío errante” por toda la ciudad de Cuernavaca, y cada vez que una mujer requiere de sus servicios tiene que investigar primero dónde se encuentran ubicadas sus instalaciones.

COMIENZA EL EXPERIMENTO DE LA 4T

Ayer, los internautas amanecimos con las redes sociales llenas de “posts” de personas, algunas que ya conocíamos, otras que nunca habíamos escuchado su nombre, pero que se anuncian como candidatos a los cargos de Ministros, Magistrados y Jueces, todos federales.

Es el resultado de una ocurrencia del expresidente Andrés Manuel López Obrador al advertir que, mientras los legisladores federales y los miembros de su gabinete le obedecían ciegamente, los ministros de la Suprema Corte de Justicia de la Nación (SCJN) le objetaron algunas órdenes, por lo que decidió quitarlos a todos y poner gente afín a la llamada Cuarta Transformación, y de pasada a los magistrados y jueces de Distrito.

Recordemos que, si bien es cierto que el Senado de la República es el que designa a los ministros de la SCJN, se acostumbra que sea el presidente en turno el que decide a quien poner.

Durante el sexenio del presidente Andrés Manuel López Obrador, que comenzó el 1 de diciembre de 2018, se han designado cinco ministros para la Suprema Corte de Justicia de la Nación:​

Juan Luis González Alcántara Carrancá, nombrado en diciembre de 2018 para ocupar la vacante dejada por el ministro José Ramón Cossío Díaz. El presidente AMLO se dijo “traicionado” por el ministro al no acatar las recomendaciones que le envió.

Margarita Ríos-Farjat, designada en diciembre de 2019 tras la renuncia del ministro Eduardo Medina Mora. En sus resoluciones no se mostró partidaria de la 4T, y no quiso postularse para ministra en la nueva modalidad de elección popular.

Yasmín Esquivel Mossa, propuesta y ratificada en marzo de 2019 para sustituir a la ministra Margarita Luna Ramos; ha protagonizado un polémico episodio al interior del Poder Judicial, al ser acusada de plagiar su tesis. Es candidata a ministra en las elecciones de junio próximo.

Loretta Ortiz Ahlf, nombrada en noviembre de 2021 en reemplazo del ministro José Fernando Franco González-Salas. Es abiertamente “amlover” y pretende continuar en el cargo, pero ahora por elección popular.

Lenia Batres Guadarrama, designada en diciembre de 2023 para ocupar el puesto vacante tras la renuncia del ministro Arturo Zaldívar. Ha protagonizado varias escenas que la ubican como ultraizquierdista y fiel seguidora del lopezobradorismo, aunque también ha salido a relucir su escasa preparación académica.

De hecho, las ministras Loretta Ortiz, Lenia Batres y Yasmín Esquivel comenzaron sus campañas para continuar en su cargo como ministras de la Suprema Corte de Justicia de la Nación este domingo en medio de promesas, apoyos y retomando el discurso de Andrés Manuel López Obrador.

El candidato a ministro de la SCJN, el morelense Antonio Sorela Castillo, inició su campaña con una transmisión en vivo por Facebook en la que habló de las bondades de la reforma judicial. El viernes “recibió la bendición” de Lenia Batres en un video en el que anunció la presentación de su último libro “Derechos Humanos en debate: Reflexiones sobre su alcance en un mundo globalizado” dentro de su círculo de estudio y ayer domingo encabezó una caminata que partió del zócalo a la casa de Emiliano Zapata, en Anenecuilco, con una buena concurrencia.

Bertha Paredes Noyola, candidata a magistrada penal y administrativa, comenzó su campaña con una caminata en la ciclopista de Cuernavaca (donde ella corre cinco kilómetros diarios), acompañada de deportistas, profesionistas y público en general, explicando la forma de votar el próximo uno de junio.

Edie Sandoval estuvo el sábado en la Universidad de Ciencias Jurídicas donde impartió una plática sobre impartición de justicia sin pedir el voto para no infringir la normatividad. El candidato a magistrado federal inició formalmente su campaña en redes sociales y estará recorriendo universidades y comunidades para tratar de convencer a la ciudadanía de que voten por él. Hasta hace unos meses Edie Isidoro era juez penal y se caracterizó por su firmeza al sancionar conductas de corrupción en los gobiernos municipales y estatales.

¿Se acuerdan de Francisco Santillán? El que fuera presidente del Partido Nueva Alianza y secretario del Trabajo en el sexenio de Graco Ramírez, hoy es candidato a magistrado especializado en material laboral y con muchas posibilidades de ganar porque va por el segundo distrito electoral.

Mañana seguimos “barajando” nombres de candidatos a puestos de elección popular en el Poder Judicial, algo inédito en nuestro país.

HASTA MAÑANA.

Lunes, 31 Marzo 2025 05:33

INICIATIVA CONTRA LA COMIDA CHATARRA

Reportero
Rating
(0 Likes)
Lectura 1 - 2 minutos

Por enésima ocasión, el gobierno federal tratará de evitar que en todo el Sistema Educativo Nacional (SEN) se comercialice la denominada comida chatarra, pues ya entra en vigor el acuerdo con los lineamientos generales para la preparación, distribución y el expendio de alimentos y bebidas en centros escolares, publicado desde el 30 de septiembre de 2024 en el Diario Oficial de la Federación. 

 

La medida es adecuada, pues las estadísticas de obesidad y diabetes infantil colocan a México entre los primeros lugares del mundo; sin embargo, llevarla a cabo parece una tarea titánica.

 

Un aspecto que no pocos maestros han manifestado es que estas disposiciones podrán aplicarse en el interior de los centros escolares, pero les impide extenderla en el exterior de los planteles, y es por todos sabido que afuera de las escuelas hay una amplia variedad de puestos ambulantes que ofertan cualquier cantidad de alimentos poco saludables que inevitablemente “jalan” a los menores de edad. 

 

En este tema todos los esfuerzos abonan, pero el reto principal estará en sensibilizar lo suficiente a padres de familia y alumnos para que no lleven desde afuera la denominada comida chatarra, pues, de hacerlo, todo el esfuerzo gubernamental será en vano.

Rating
(6 Likes)
Lectura 3 - 6 minutos

Estimad@s colegas y amig@s

Un estimado colega nos comparte el presente comunicado de prensa presentado el 26 de marzo de 2025 en una reunión de la American Chemical Society, el cual tradujimos nosotros para este espacio. Veamos de que se trata….

A veces, los teléfonos celulares se descargan antes de lo esperado o los vehículos eléctricos no tienen suficiente carga para llegar a su destino. Las baterías recargables de iones de litio (Li-ion) de estos y otros dispositivos suelen durar horas o días sin cargarse. Sin embargo, con el uso repetido, las baterías se degradan y necesitan recargarse con mayor frecuencia.

 

Ahora, los investigadores están considerando el radiocarbono como una fuente para baterías nucleares seguras, pequeñas y asequibles que podrían durar décadas o más sin cargarse.

Su-il In, profesor del Daegu Gyeongbuk Institute of Science & Technology (DGIST), presentó sus resultados en la reunión de primavera de la Sociedad Química Americana (ACS), celebrada del 23 al 27 de marzo 2025.

La carga frecuente que requieren las baterías de iones de litio no solo es un inconveniente, sino que también limita la utilidad de las tecnologías que utilizan las baterías como fuente de energía, como los drones y los equipos de teledetección.

 

Las baterías también son perjudiciales para el medio ambiente: la extracción de litio consume mucha energía y la eliminación inadecuada de las baterías de iones de litio puede contaminar los ecosistemas. Sin embargo, con la creciente ubicuidad de los dispositivos conectados, los centros de datos y otras tecnologías informáticas, la demanda de baterías de larga duración está en aumento.

 

Y es probable que unas mejores baterías de iones de litio no sean la solución a este desafío. "El rendimiento de las baterías de iones de litio está casi llegando a su límite natural", afirma In, quien investiga las tecnologías energéticas del futuro. Por ello, In y su equipo están desarrollando baterías nucleares como alternativa al litio.

 

Las baterías nucleares generan energía aprovechando partículas de alta energía emitidas por materiales radiactivos. No todos los elementos radiactivos emiten radiación dañina para los organismos vivos, y ciertos materiales pueden bloquear cierta radiación. Por ejemplo, las partículas beta (también conocidas como rayos beta) pueden protegerse con una fina lámina de aluminio, lo que convierte a la energía betavoltaica en una opción potencialmente segura para las baterías nucleares.

Los investigadores produjeron un prototipo de batería betavoltaica con carbono-14, una forma inestable y radiactiva de carbono, llamada radiocarbono. "Decidí usar un isótopo radiactivo del carbono porque solo genera rayos beta", dice In.

 

Además, el radiocarbono, un subproducto de las centrales nucleares, es económico, fácil de conseguir y reciclar. Y como se degrada muy lentamente, una batería alimentada con radiocarbono podría, en teoría, durar milenios.

 

En una batería betavoltaica típica, los electrones chocan con un semiconductor, lo que produce electricidad. Los semiconductores son un componente crucial en las baterías betavoltaicas, ya que son los principales responsables de la conversión de energía.

 

Por consiguiente, los científicos están explorando materiales semiconductores avanzados para lograr una mayor eficiencia de conversión de energía, una medida de la eficacia con la que una batería puede convertir electrones en electricidad utilizable.

 

Para mejorar significativamente la eficiencia de conversión de energía de su nuevo diseño, In y su equipo utilizaron un semiconductor a base de dióxido de titanio, un material comúnmente utilizado en células solares, sensibilizado con un tinte a base de rutenio.

Reforzaron la unión entre el dióxido de titanio y el tinte con un tratamiento de ácido cítrico.

 

Cuando los rayos beta del radiocarbono colisionan con el tinte a base de rutenio tratado, se produce una cascada de reacciones de transferencia de electrones, denominada avalancha de electrones. A continuación, la avalancha viaja a través del tinte y el dióxido de titanio recoge eficazmente los electrones generados.

 

La nueva batería también contiene radiocarbono en el ánodo sensibilizado con el tinte y en un cátodo. Al tratar ambos electrodos con el isótopo radiactivo, los investigadores aumentaron la cantidad de rayos beta generados y redujeron la pérdida de energía de radiación beta relacionada con la distancia entre ambas estructuras.

 

Durante las demostraciones del prototipo de batería, los investigadores descubrieron que los rayos beta liberados por el radiocarbono en ambos electrodos activaban el tinte a base de rutenio en el ánodo, generando una avalancha de electrones que era recogida por la capa de dióxido de titanio y circulaba a través de un circuito externo, generando electricidad utilizable.

 

En comparación con un diseño anterior con radiocarbono solo en el cátodo, la batería de los investigadores, con radiocarbono en el cátodo y el ánodo, presentó una eficiencia de conversión de energía mucho mayor, pasando del 0.48 % al 2.86 %.

 

Estas baterías nucleares de larga duración podrían permitir numerosas aplicaciones, según In. Por ejemplo, un marcapasos duraría toda la vida de una persona, eliminando la necesidad de reemplazos quirúrgicos.

 

Sin embargo, este diseño betavoltaico convertía solo una pequeña fracción de la desintegración radiactiva en energía eléctrica, lo que resultaba en un menor rendimiento en comparación con las baterías de iones de litio convencionales. In sugiere nuevos esfuerzos para optimizar la forma del emisor de rayos beta y desarrollar absorbedores de rayos beta más eficientes podrían mejorar el rendimiento de la batería y aumentar la generación de energía.

 

A medida que aumenta la preocupación por el clima, la percepción pública de la energía nuclear está cambiando. Sin embargo, todavía se considera como energía producida únicamente en una gran central eléctrica en una ubicación remota.

Con estas baterías de celdas betavoltaicas sensibilizadas por colorante y con fuente de doble sitio, In afirma: «Podemos introducir energía nuclear segura en dispositivos del tamaño de un dedo».

 

Fuente: https://www.acs.org/pressroom/presspacs/2025/march/a-safe-nuclear-battery-that-could-last-a-lifetime.html

Rating
(212 Likes)
Lectura 9 - 18 minutos

La Dra. Flores Frías es Ingeniera Química egresada de la FCQeI de la UAEMor. Posteriormente, cursó la Maestría y Doctorado en Ingeniería y Ciencias Aplicadas en la UAEmor. Actualmente, se encuentra haciendo su posdoctorado en el Instituto de Ciencias Físicas de UNAM, desarrollando síntesis de inhibidores de corrosión mediante plasma.  

 

El Mtro. Gómez Aguilar es Ingeniero en Sistemas Computacionales, egresado de la Universidad Valle del Grijalva. Posteriormente, obtuvo la Maestría en Física en la Facultad de Ciencias en Física y Matemáticas de la Universidad Autónoma de Chiapas. Actualmente, es alumno del programa de Doctorado en Ciencias Físicas en el Instituto de Ciencias Físicas de la UNAM. Su investigación se enfoca en la cosmología del universo temprano, con especial atención al estudio de Agujeros Negros Primordiales y Ondas Gravitacionales.

Esta publicación fue revisada por el comité editorial de la Academia de Ciencias de Morelos.

 

La teoría del Big Bang, inicialmente llamada “el átomo primigenio”, fue postulada por el astrofísico y sacerdote católico Georges Lemaître en 1931. Esta teoría demostraba que las ecuaciones de Einstein admiten soluciones para un universo en expansión y su aceptación se dio hasta 1965, cuando se descubrió el Fondo Cósmico de Microondas (CMB) el cual es la luz más antigua que podríamos observar en todo el universo.

 

¿Un universo que siempre ha existido o un universo que tuvo un inicio?

La teoría del Big Bang (Figura 1) revolucionó los paradigmas de la comunidad científica, que durante mucho tiempo había tenido la idea de un universo estático, eterno e inmutable. Para muchos, el concepto de expansión resultaba inconcebible.

 

Figura 1. Representación del Big Bang

https://blogs.unah.edu.hn/dircom/el-universo-3-minutos-despues-del-big-bang

En la actualidad estamos acostumbrados a cuestionar cordialmente los temas científicos, pero en 1931, Lemaître no solo enfrentó críticas, sino también una abierta hostilidad por parte de la comunidad científica. Muchos pensaban que aceptar esta teoría podría dar sustento a creencias religiosas sobre la creación, algo que se veía como incompatible con la ciencia, que debe ser demostrativa. La teoría de Lemaître vivió décadas de controversias, pues para muchos científicos era más sencillo aceptar un universo sin un inicio.

El físico Alexander Friedmann fue uno de los primeros en aplicar las ecuaciones de la relatividad de Einstein a un modelo que mostraba un universo en expansión. Su trabajo fue publicado en 1922 y desafiaba la visión predominante de un universo estático. Posteriormente, Georges Lemaitre en 1927, basándose en las leyes de la termodinámica obtuvo también, y de forma independiente al trabajo de Friedman, que el universo no era estático, que lo llevaría a proponer la idea del Big Bang.

Lemaître mostró su trabajo a Einstein, quien inmediatamente respondió: "He leído su artículo, sus cálculos son correctos, pero su física es abominable". Einstein, como muchos científicos de su generación, se aferraba a la idea de un universo infinito e invariante, por lo cual, agregó una constante a su teoría de la relatividad general para obtener un universo cerrado, estable y estático.

El modelo cosmológico de Einstein se basaba en introducir una variable adicional, la “constante cosmológica”, para contrarrestar los efectos de la gravedad, evitando un universo en expansión. Años más tarde, Einstein admitiría que esta constante fue un desacierto en su teoría, ya que su inclusión establecía la idea errónea de tener un universo estático.

Pero el modelo cosmológico de Lemaître, al igual que el de Friedman, mostraba un universo en constante expansión y cambio. Así es que el modelo, ahora conocido como de Friedman-Lemaître, pasó a la historia de la ciencia como el primer modelo cosmológico que demostraba que el universo puede estar en constante cambio. En 1927, Lemaître publicó un artículo donde estableció la relación entre la distancia de un objeto y la velocidad a la que se aleja de nosotros. Esta idea fue el principio que sentó las bases de lo que posteriormente se conocería como la Ley de Hubble, porque fue Edwin Hubble quien confirmó empíricamente esta expansión en 1929 (Figura 2). De acuerdo con sus observaciones, Hubble calculó la constante que explica la tasa de expansión del universo, conocida actualmente como la constante de Hubble.

Figura 2. Universo en expansión

https://leyesdeluniverso.es/ley-de-hubble/

 

Einstein reconoció su error e igualó a cero su constante cosmológica, para dar paso a la solución ya conocida de un universo en expansión.

Otro hito en la confirmación del Big Bang fue el descubrimiento en 1965 de la radiación cósmica de fondo, una fuente de radiación electromagnética procedente del universo primigenio. Esta radiación se originó unos 300,000 años después del Big Bang, durante el proceso de recombinación, cuando los electrones fueron capturados por protones para formar los primeros átomos neutros. Este descubrimiento le valió a Arno Penzias y Robert Wilson el Premio Nobel de Física en 1978. La radiación que encontraron corresponde a una emisión que viene de todos lados del universo, con una temperatura de -270.5°C (2.7 Kelvin), y es una de las pruebas más sólidas del modelo cosmológico asociado a la Gran Explosión [1].

A pesar de estos descubrimientos, la teoría del Big Bang siguió generando controversias. Muchos científicos intentaron regresar a algo similar al modelo del estado estacionario, pero esta idea se disipó y ahora el Big Bang es aceptado como el modelo estándar de cosmología. De hecho, la existencia de agujeros negros y la singularidad que inició al universo quedaron formalmente establecidas cuando Stephen Hawking y Roger Penrose demostraron los teoremas de las singularidades.

 

¿Realmente en algún momento del pasado todas las galaxias estuvieron infinitamente juntas, todas en un punto?

La teoría del Big Bang, basada en las observaciones de Hubble, sugería que en algún momento del pasado el material de todas las galaxias estuvo concentrado en un solo punto. Sin embargo, durante mucho tiempo persistió la duda: ¿permiten las leyes de la física que exista una densidad infinita, como la que habría ocurrido en el Big Bang?

La respuesta estaba en la propia teoría de la relatividad general postulada en 1915 por Einstein, donde incluía la gravedad en la teoría relativista, desafiando una vez más al sentido común al postular que el espacio-tiempo es curvo y la gravedad es la manifestación de esta curvatura. La presencia de una masa deforma al espacio-tiempo y el concepto de recta es sustituido por una geodésica en un espacio-tiempo curvo. ¿Por qué nadie antes de Einstein se había percatado de que vivimos en un espacio curvo?  La razón es porque la curvatura inducida por la gravedad de la Tierra o la del Sol es extremadamente leve. La situación se asemeja a la de los antiguos seres humanos que creían que la Tierra era plana, debido a que la curvatura terrestre es casi imperceptible a pequeña escala. Los efectos de la curvatura del espacio-tiempo se manifiestan plenamente a escala del Universo mismo, o cerca de objetos cuya atracción gravitacional sea extremadamente intensa como los agujeros negros. Los cuales son producto de la última fase evolutiva de las estrellas muy masivas que explota y se colapsa. Si el núcleo estelar colapsado que se forma en la explosión tiene suficiente masa, el espacio-tiempo que lo circunda se va curveando hasta cerrarse en sí mismo. Cuando esto sucede ya nada puede salir de ahí, los agujeros negros no emiten luz, ni otra señal; solo se manifiestan por medio de su atracción gravitacional e incrementan la entropía del universo [2].

A partir de mediados de los años 60, Hawking se dedicó al estudio de las singularidades, regiones donde la curvatura del espacio-tiempo se cierra en sí misma. Junto con Penrose desarrolló nuevas herramientas matemáticas para analizar estas regiones. Finalmente, en 1970, demostraron que, de acuerdo con la relatividad general, el universo tuvo un estado de densidad infinita en su pasado: una singularidad que marca el principio del universo, el Big Bang, y también el inicio del tiempo [3].

 

La existencia de un final para el universo implicaría necesariamente que tuvo un principio.

En este punto, el universo estará prácticamente un vacío. Las partículas restantes, como los electrones y las partículas de luz (fotones), estarán muy separadas debido a la expansión del universo y rara vez, o nunca, interactuarán. Esta es la verdadera muerte del universo, conocida como “muerte térmica” [4].

La idea fue propuesta en un principio por William Thomson, más tarde fue Lord Kelvin, quien en 1851 teorizó acerca de las consecuencias de la pérdida de calor basándose en la segunda ley de la termodinámica establecida por Sadi Carnot en 1824, pero fue Hermann von Helmholtz quien desarrolló la idea de la muerte térmica del universo. La segunda ley de la termodinámica, una de las piedras angulares de la física postula que, en un sistema cerrado, la entropía (medida del desorden en un sistema), tiende a aumentar con el tiempo. Esto aplicado a nuestro universo significa que, con el tiempo, la cantidad de energía disponible para realizar trabajo disminuirá, y la entropía alcanzará su máximo valor, por lo tanto, esto haría que el universo sea inerte y frío.


El universo que comenzó en un Big Bang se encontraba en equilibrio térmico que se designa al estado de máxima entropía pero representado en un estado de máxima entropía permitido para un universo de tal tamaño. A medida que el universo se expandió, la entropía máxima permitida aumentó con el universo, pero la entropía real del universo quedo muy por debajo de ese máximo al que llegó en el momento del Big Bang. La segunda ley de la termodinámica aparece debido a que la entropía siempre trata de alcanzar ese tamaño máximo y llegar al equilibrio. La formación de agujeros negros incrementa el valor de entropía en todo el universo, debido a que los agujeros negros no son algo con lo que el universo nació, ya que casi toda la entropía se debía a la radiación en el universo primigenio; aún así, era una cantidad alta de entropía en sus inicios.

Para entender mejor esta definición analicemos de donde proviene nuestra baja entropía, la organización de nuestros cuerpos es tal debido a los alimentos que comemos y al oxigeno que respiramos. Con frecuencia escuchamos decir que obtenemos energía de nuestra ingesta de alimentos y oxígeno, los alimentos que consumimos se combinan con el oxígeno que introducimos en nuestros cuerpos y por lo tanto nos proporcionan energía, pero esa energía, en su mayor parte escapa de nuevo de nuestros cuerpos, principalmente en forma de calor. Necesitamos remplazar la energía que perdemos continuamente en forma de calor, cuanto más energéticos somos más energía perdemos y toda esa energía debe ser reemplazada, el calor es la forma más desordenada de energía que existe, la forma con mayor entropía. Puesto que “la energía se conserva” y puesto que el contenido real de energía de nuestros cuerpos permanece constante a lo largo de nuestra vida, no hay necesidad de añadir nada al contenido de energía de nuestro cuerpo, no necesitamos más energía de la que ya tenemos. Lo que sí necesitamos es reemplazar la energía que perdemos continuamente en forma de calor, la cual tomamos del alimento y oxígeno (baja entropía) y desechamos en forma de alta entropía (calor, dióxido de carbono y excrementos), por lo que estamos luchando continuamente contra la segunda ley de la termodinámica [5]. Lo mismo pasa con el universo, la energía no aumenta con el tiempo, esta se conserva, pero se disipa en forma de calor; es decir que toda la energía contenida a partir del Big Bang sigue siendo la misma cantidad energía de hace aproximadamente 13798 millones de años, pero disipada en un universo en constante expansión, contribuyendo a un universo en continuo aumento de entropía y ocasionando que el universo se esté enfriando. Ahora, toda esa energía se tiene que redistribuir en fragmentos cada vez mayores y así sucesivamente a medida que el universo se siga expandiendo.

 

¿Por qué la teoría del Big Bang sigue generando dudas?

Describir un principio para el tiempo y el espacio, es la base de la teoría del Big Bang. Sin embargo, la comunidad científica aún cuestiona el origen del universo a partir de una singularidad inicial, debido a que aún quedan muchas interrogantes por ser resueltas, principalmente explicar la expansión extremadamente rápida del universo en los instantes iniciales y resolver el llamado problema del horizonte en el fondo cósmico de microondas (CMB). Es en este sentido en que el fondo cósmico de microondas (CMB, Figura 3) es una de las evidencias más contundentes del Big Bang, debido a que la débil radiación remanente del Big Bang, ha sido una fuente de datos que ha permitido validar o desechar modelos cosmológicos para describir la evolución inicial del universo. Y es a partir del hecho que el CMB aparece homogéneo en todas las direcciones (problema del horizonte) incluso en regiones, que aparentemente, nunca pudieron haberse comunicado entre sí y que están separadas a una distancia mucho mayor de la que se obtiene al multiplicar la velocidad de la luz por la edad del universo.

Figura 3. Imagen del Fondo Cósmico de Microondas, muestra ecos del Big Bang

https://www.space.com/33892-cosmic-microwave-background.html https://www.muyinteresante.com/ciencia/21426.html

 

 

Sin embargo, actualmente la teoría de la inflación o teoría inflacionaria (una teoría provisional) propone una solución a este problema, que ha sido llamado problema del horizonte o problema de la homogeneidad. Según esta teoría, el universo inicialmente se expandió tan rápidamente que casi todo lo que se formó antes de la época de inflación quedó fuera de nuestra región observable. Esto explicaría por qué el CMB parece homogéneo dentro de nuestro universo observable, aunque no podemos saber con certeza cómo es en las regiones que se encuentran más allá de nuestro horizonte cósmico. El problema de esta teoría es que está basada en teorías físicas no confirmadas.

 

Otras teorías alternativas: El Gran Rebote, el Universo espejo y la Cosmología Cíclica Conformada.

La teoría del “Big Bounce”, también llamada del “gran rebote”, sostiene que el universo está en un estado oscilante; los cúmulos de galaxias se han separado entre sí como consecuencia de la gran explosión y la velocidad de expansión debe ir disminuyendo a causa de las fuerzas gravitacionales que actúan entre ellos, de manera que todo volvería a colapsar creando un “Big Crunch”, un gran crujido, pero que posteriormente tendría que volver a expandirse. Esto abre la posibilidad a considerar que el espacio- tiempo ha existido siempre y es cíclico.

Esta teoría entraría en conflicto con la segunda ley de la termodinámica dado que la entropía tendría que revertirse (ir disminuyendo) en un universo colápsate, por ejemplo, en los agujeros negros tenemos un microcosmos colapsante, de modo que si la entropía se invertiría en un universo colapsante también habría groseras violaciones de la segunda ley de la termodinámica en las proximidades de un agujero negro.

Sin embargo, estudios más recientes indican que quizás la energía oscura no sea realmente una constante, quizás sea algo que cambia y evoluciona con el tiempo. La energía oscura se describe como un ente exótico, inadvertido hasta ese momento, que produce gravedad repulsiva y empuja a las galaxias haciendo que se alejen cada vez más rápido [6]. De ser así, nuestro destino cósmico podría diferir drásticamente de lo que solemos suponer. Si la energía oscura se fortalece y se vuelve más negativa con el tiempo, podría provocar una Gran Descomposición. Si se debilita y se vuelve más positiva, podría detener la aceleración del Universo e incluso reavivar la posibilidad de un colapso y un Big Crunch.

Mientras tanto, es fundamental que mantengamos la mente abierta a todas las posibilidades. Después de todo, el Universo podría resultar un lugar más extraño de lo que nadie ha imaginado hasta ahora [7].

Dentro de las teorías alternativas, se encuentra la del "Universo Espejo." La cual propone un universo dominado por la antimateria. Este “antiuniverso” o “universo alterno”, las leyes físicas serían las mismas, pero con partículas de antimateria. Uno de los hitos de esta teoría es la posibilidad de dar una explicación sobre la naturaleza de la materia oscura y el que no veamos la antimateria en nuestro universo. Por tanto, esta teoría no suplanta a la de Big Bang, sino la complementa.

Otra alternativa es la Cosmología Cíclica Conformada, propuesta por Roger Penrose. Esta teoría sugiere que el universo nunca se contrae, solo se expande.

Finalmente, la materia en el universo seria absorbida por agujeros negros supermasivos, y tras un universo vacío, comprimido, ocurrirá un nuevo Big Bang, marcando el inicio de un nuevo ciclo cósmico o eón. Penrose incluso sugiere que podría haber un rastro de la era anterior en la radiación cósmica de microondas, dejando una "señal" del pasado incrustada en la radiación [8].

Todas estas teorías alternativas surgieron a interrogantes que ha dejado la teoría del Bing Bang aunque muchos científicos la clasifiquen aun como una teoría provisional o hipótesis. Ciertamente no lo es, más bien es una teoría útil, y las restantes provisionales porque aún carecen de fundamento experimental a diferencia del Big Bang.

Aun no existe una teoría suprema que culmine en resolver todas las interrogantes que ha dejado la teoría del Big Bang.

Necesitamos comprender porque las singularidades del espacio-tiempo tienen la estructura que parecen tener, pero estas singularidades del espacio y tiempo son regiones en la que nuestra comprensión de la física parece haber llegado al límite, razón por la que muchos físicos piensan que las singularidades no existen porque las leyes de la física colapsan ahí y temen aceptar que la física tiene un límite.

Muchos científicos de primera fila se han dedicado a la construcción de varias teorías como las mencionadas anteriormente. Si se lograra resolver todos los enigmas del origen del universo ciertamente no sería una teoría cuántica ordinaria sería una teoría cuántica de la propia estructura del espacio-tiempo como lo escribió Roger Penrose seria conocida como “gravitación cuántica.”

Si descubrimos una teoría completa, sus principios deberían ser, con el tiempo, comprensibles para todos, no solo para unos pocos científicos. Entonces, todos, filósofos, científicos y personas comunes y corrientes podríamos tomar parte en el debate de por que nosotros y el universo existimos. Hallar la respuesta a esta pregunta representaría el triunfo definitivo de la razón, porque entonces conoceríamos la mente de Dios.

Stephen Hawking.

 

 

 Referencias

 

  [1]https://www.sea-astronomia.es/glosario/radiacion-de-fondo-de-microondas

  [2] Hacyan, Shahen. (1993). Los Hoyos Negros y la Curvatura de Espacio-Tiempo. La ciencia desde México.

  [3] https://www.comoves.unam.mx/numeros/articulo/162/la-singularidad-de-stephen-hawking

  [4]https://phys.org/news/2015-09-fate-universeheat-death-big-rip.html#google_vignette

 

[5] Penrose, Roger. (2002). La mente nueva del emperador. Fondo de la Cultura Económica.

[6] https://theconversation.com/el-destino-del-universo-esta-en-manos-de-la-energia-oscura-222225

[7] https://bigthink.com/starts-with-a-bang/physicists-question-fate-universe/

 [8] https://www.bbc.com/mundo/vert-fut-51245606

 

Esta columna se prepara y edita semana con semana, en conjunto con investigadores morelenses convencidos del valor del conocimiento científico para el desarrollo social y económico de Morelos.

Rating
(0 Likes)
Lectura 2 - 3 minutos

La actriz y presentadora Jenny McCarthy compartió su difícil experiencia con el veganismo, asegurando que este régimen alimenticio casi le costó la vida debido a sus múltiples intolerancias y alergias.

Durante su participación en el podcast Heal Squad x Maria Menounos, McCarthy, de 52 años, explicó que su decisión de eliminar productos de origen animal tuvo graves consecuencias para su salud.

“Probé el veganismo y casi me muero. Literalmente, casi me muero. Me puse increíblemente enferma”

Entre los principales problemas que enfrentó, mencionó su alergia a la soya, la enfermedad celíaca y la sensibilidad a los lácteos, lo que dificultó su capacidad de obtener los nutrientes necesarios.

La falta de opciones adecuadas la dejó en un estado de agotamiento extremo.

“No puedo consumir carbohidratos y todo tiene carbohidratos. También soy alérgica a la soya y todo [en la dieta vegana] tiene soya. Estaba exhausta y fatigada. Era un desastre”, detalló.

Además, la exmodelo de Playboy sufre de varias afecciones médicas como infección por Candida, enfermedad de Hashimoto y síndrome del intestino permeable, condiciones que requieren años de tratamiento.

Después de múltiples intentos con diferentes dietas, su médico le recomendó una alimentación basada exclusivamente en carne, huevos, mariscos y pescado. Aunque al principio dudó en seguirla, finalmente decidió intentarlo.

Para su sorpresa, el cambio tuvo un impacto positivo en su salud.

“Fue mi última opción, pero ha sido increíble. Me cambió la energía y la digestión. He tenido problemas de estreñimiento desde pequeña, y esto lo solucionó”

La difícil experiencia de McCarthy con la enfermedad de su hijo

En la misma entrevista, la actriz también recordó un momento angustiante cuando su hijo Evan, de dos años y medio, sufrió un paro cardíaco debido a una convulsión.

“Esperar a los paramédicos fue lo peor. Se estaba poniendo azul y yo gritaba por teléfono que se apuraran”, contó.

Evan tuvo que ser reanimado dos veces y, poco después, fue diagnosticado con autismo, lo que sumió a McCarthy en una profunda depresión.

“Lloraba en la ducha como en esas escenas de película donde sientes tanto dolor e impotencia”, relató.

Hoy en día, la actriz sigue compartiendo su experiencia para generar conciencia sobre la salud y la alimentación, destacando la importancia de encontrar un equilibrio adecuado para cada persona.

Rating
(0 Likes)
Lectura 1 '

La cantante puertorriqueña Young Miko hizo una aparición inesperada en el Ultra Music Festival de Miami el sábado, durante el set del reconocido DJ y productor Skrillex.

El evento, que celebró su 25 aniversario, fue testigo de la explosiva actuación conjunta que combinó el estilo urbano de Miko con los ritmos electrónicos de Skrillex.

La energía en el escenario desató la euforia del público, y la química entre ambos artistas avivó rumores sobre una posible colaboración.

Durante su presentación, compartieron gestos cómplices y fragmentos de lo que algunos especulan podría ser un nuevo tema en conjunto.

Aunque no han confirmado nada oficialmente, los fans ya esperan un anuncio.

 

Rating
(0 Likes)
Lectura 1 - 2 minutos

En una modesta oficina en Beer Sheva, Israel, un equipo de expertos en ciberseguridad se enfrenta a más de 500 ciberataques diarios. Este pequeño pero eficiente grupo forma parte del Equipo de Respuesta a Emergencias Informáticas de Israel (CERT), que, solo el año pasado, gestionó más de 17,000 reportes de ciberamenazas dirigidas a civiles y empresas en el país.

El centro, ubicado en un edificio moderno rodeado de avances tecnológicos, cuenta con una sala sencilla pero equipada con monitores que muestran información actualizada al minuto. A pesar de la alta tensión política y la creciente amenaza de ciberataques, la seguridad cibernética se ha convertido en una prioridad estratégica para Israel.

Desde su creación en 2011, la Ciber Dirección Nacional de Israel ha trabajado para proteger al país mediante cuatro centros especializados, incluido el CERT 119. El equipo, con un enfoque en educación y prevención, emplea un lema divertido:

"¿A quién vas a llamar?",

invitando a la población a reportar cualquier actividad sospechosa en su entorno digital.

Con un aumento significativo de ciberataques en los últimos años, pasando de 85 al mes en 2021 a 285 en 2024, Israel se enfrenta a una guerra cibernética cada vez más compleja. Los ataques, que incluyen técnicas como el "phishing", son detectados por una plataforma que monitorea constantemente los sitios web del país.

El CERT opera con un equipo multidisciplinario de doctores, científicos e ingenieros, quienes, a pesar de su número reducido, logran mantener bajo control la creciente amenaza cibernética. Sin embargo, el equipo sigue ampliando sus esfuerzos para mantener la seguridad y estabilidad de la nación frente a este desafío.

Rating
(0 Likes)
Lectura 1 - 2 minutos

Las natillas de chocolate son un postre clásico que nos recuerda a la infancia, y prepararlas en casa es mucho más sencillo de lo que parece. Con esta receta, podrás decir adiós a las versiones industriales y disfrutar de un sabor auténtico y casero.

Para prepararlas, necesitas ingredientes simples: leche, chocolate (preferentemente con un 60%-70% de cacao), yemas de huevo, azúcar, maicena, cacao amargo y, si lo prefieres, un toque de café para intensificar el sabor. La receta es rápida, se hace en 20 minutos, y el proceso es tan fácil como ir mezclando los ingredientes en el orden correcto.

El resultado es un postre denso y cremoso, ideal para disfrutar en cualquier ocasión. Además, puedes decorarlas con una galleta si lo deseas.

Ingredientes para 5-6 natillas:

  • 700 ml de leche

  • 200 g de chocolate (60%-70% de cacao)

  • 5 yemas

  • 80 g de azúcar

  • 1 cucharada rasa de almidón de maíz (maicena)

  • 1 cucharada colmada de cacao amargo en polvo

  • Galletas para decorar (opcional)

Instrucciones:

  1. Calienta 500 ml de leche con el chocolate troceado a fuego medio, removiendo para evitar que se queme.

  2. En un bol, bate las yemas con el azúcar y la maicena. Añade el resto de la leche y mezcla bien.

  3. Vierte la leche con chocolate caliente en el bol y mezcla rápidamente.

  4. Incorpora el cacao en polvo, dejando que se disuelva con el calor.

  5. Vuelve a colocar la mezcla en el cazo y cocina a fuego medio-bajo, removiendo constantemente.

  6. Cuando espese y llegue a hervor, apaga el fuego.

  7. Reparte en cuencos, decora con una galleta y deja enfriar en la nevera.

¡Y listo! Un postre delicioso, fácil y perfecto para disfrutar en cualquier momento.

Publish modules to the "offcanvas" position.