Vivir más tiempo representará un gran vuelco social

Martin WolfLondres / 13.05.2024 02:35:52

En Reino Unido, en 1965, la edad común de fallecimiento era el primer año de vida. Hoy la edad más común para morir es a los 87 años. Esta sorprendente estadística proviene de un notable libro nuevo: The Longevity Imperative, de Andrew Scott, de la London Business School. También señala que una niña recién nacida en Japón tiene 96 por ciento de posibilidades de llegar a los 60 años, mientras que las mujeres japonesas tienen una esperanza de vida de casi 88 años. Esa nación es excepcional. Pero, ahora en todas partes vivimos más: la esperanza de vida mundial es de 76 años para las mujeres y de 71 años para los hombres (claramente, el sexo débil).

Este nuevo mundo se creó por el desplome de las tasas de mortalidad juvenil. En 1841, 35 por ciento de los niños varones moría antes de cumplir 20 años en Reino Unido y 77 por ciento no llegaba a los 70 años. En 2020, estas cifras habían caído a 0.7 y 21 por ciento, respectivamente. Derrotamos en gran medida las causas de la muerte prematura, gracias a alimentos y agua más limpios, vacunas y antibióticos. Recuerdo cuando la polio era una gran amenaza. Ya desapareció casi por completo, al igual que el alguna vez gran peligro de la viruela.

Este es el mayor logro de la humanidad; sin embargo, nuestra principal reacción es preocuparnos por los costos de una sociedad que “envejece”.

¿Los adultos jóvenes y de mediana edad preferirán saber que ellos y, peor aún, sus hijos podrán morir en cualquier momento? Sabemos la respuesta a esta pregunta.

Sí, el nuevo mundo en el que vivimos crea desafíos, pero el punto crucial que señala Scott es que también crea oportunidades. Necesitamos replantear la vejez, como individuos y sociedades. No debemos arrastrar a una enorme proporción de nuestra sociedad a una “vejez” improductiva y poco saludable. Podemos y debemos hacerlo mucho mejor, tanto individual como socialmente. Este es su “imperativo”. A menos de que se produzca un desastre, habrá muchas más personas de edad mayor: en 1990, solo había 95 mil personas mayores de 100 años en el mundo. Hoy hay más de medio millón y van en aumento.

Una gran pregunta es cómo envejecerá la gente. ¿Disfrutarán de una vejez vigorosa y luego morirán repentinamente o viviremos “sin ojos, sin dientes, sin nada” durante muchos años de impotencia? Scott imagina cuatro escenarios. El primero es Struldbruggs, de Jonathan Swift, inmortal, pero envejeciendo siempre. El segundo es Dorian Gray, de Oscar Wilde, que vive joven y luego, de repente, muere viejo. El tercero es Peter Pan, que es joven por siempre. El cuarto es Wolverine, de Marvel Comics, que puede regenerarse.

Podemos estar de acuerdo en que lo primero es horrible; sin embargo, parece ser el lugar en el que estamos: si vivimos lo suficiente, tendemos a desmoronarnos poco a poco pero, tal vez, la combinación de una mejor dieta, más ejercicio y avances médicos pueda ofrecer otras posibilidades. Scott sostiene que aquí es donde ahora se deben dirigir los esfuerzos, no para tratar o controlar las dolencias de la vejez, sino para buscar prevenirlas. Esto no requiere solo avances médicos. La alta desigualdad no solo es una cuestión social y económica, sino también un peligro para la salud.

La esperanza de vida en China es ahora de 82 años para las mujeres y 76 para los hombres. Sorprendentemente, eso es muy parecido a lo que ocurre en EU. La esperanza de vida en este último es baja para un país tan rico. Esto se debe a enormes desigualdades en salud. Según Scott: “En Estados Unidos, la diferencia en la esperanza de vida entre el 1 por ciento más rico y el 1 por ciento más pobre es de quince años para los hombres y diez años para las mujeres”.

Sin embargo, necesitamos cambiar no solo cómo envejecemos, sino también cómo pensamos sobre la edad.

El mundo de Dorian Gray, aunque ideal, parece improbable. Pero un mundo con Struldbruggs o de Peter Pan sería horrible. Esto es cierto en el caso de los primeros, porque la mayoría de nosotros no deseamos terminar nuestras vidas en la decrepitud, lo que también impone una enorme carga a los miembros más jóvenes de la sociedad. También es cierto para este último, porque pocos querrán vivir junto a sus tatarabuelos. La inmortalidad no es para nosotros.

Es igual de claro que es necesario repensar a fondo un mundo en el que la mayoría probablemente vivirá hasta los 90 años, y muchos incluso más. La idea de 25 años de educación, 35 de trabajo y luego, digamos, 35 de jubilación es imposible, tanto para los individuos como para la sociedad. Sin duda es inasequible. También es probable que produzca una vejez vacía para vastas proporciones de la población.

Será necesario trabajar más tiempo. Esto también requerirá varios cambios en la carrera profesional a lo largo de la vida. En lugar de un periodo de educación, uno de trabajo y otro de jubilación, tendrá sentido que la gente mezcle los tres. La gente volverá a estudiar repetidamente, tomarán descansos, cambiarán lo que hacen. Esta es la manera de hacer que la longevidad sea asequible y, lo que es más importante, soportable.

Para que ese mundo funcione, tendremos que reorganizar la educación, el trabajo, las pensiones, los estados de bienestar y los sistemas de salud. Por ejemplo, las personas ya no irán a la universidad ni recibirán capacitación solo cuando sean jóvenes adultos, será una actividad de por vida. Una vez más, las edades de jubilación obligatorias o estándar carecerán de sentido. A la gente se le darán opciones para trabajar y no hacerlo en diversas etapas de sus vidas. El simple hecho de aumentar la edad de jubilación en todos los aspectos es ineficiente e inequitativo, ya que la esperanza de vida está distribuida de manera muy desigual. También será necesario cambiar las tasas de contribución a las pensiones. En la actualidad, son demasiado bajas. Los sistemas de salud también deben incorporar la salud pública, que será cada vez más importante a medida que la sociedad envejezca.

Nos movemos a un mundo nuevo y viejo. Este es el fruto de un gran éxito; sin embargo, también existe un peligro realista de un futuro Struldbrugg para los individuos y la sociedad. Si es así, debemos repensar nuestra visión sobre la prioridad de preservar la vida.

Te recomendamos…

Bambu Lab lanza su impresora 3D FDM más rápida y precisa hasta la fecha

Existen muchos tipos de impresoras 3D, pero siempre hay alguna que logra destacar por tener unas características superiores a las del resto, y en este caso Bambu Lab ha lanzado un nuevo modelo denominado como H2D que podría llegar a competir por los primeros puestos en términos de velocidad y precisión.

Las impresoras 3D pueden categorizarse en dos grandes grupos, las que utilizan resina y aquellas que hacen uso de un filamento creado a partir de diversos materiales para crear todo tipo de objetos en tres dimensiones. Los modelos de resina suelen ofrecer una calidad de detalles muy superiores que por lo general suelen utilizarse para crear figuras, mientras que las impresoras FDM son mucho más versátiles, baratas y sencillas de utilizar en comparación, pero además también pueden ser mucho más rápidas tal y como demuestra el nuevo modelo de Bambu Lab.

Esta nueva impresora 3D logra mantener una velocidad extremadamente alta con una precisión increíble

Las características que tiene una impresora 3D pueden parecer complicadas de entender en un principio pero no hace falta saber todos los detalles técnicos que incorpora para saber si es mejor o peor que otro modelo. Por lo general es necesario conocer la velocidad, el tamaño máximo de impresión y otros aspectos como los materiales que utiliza para lograr comprender si puede ofrecer una calidad superior. En el caso de la nueva H2D de Bambu Lab esto parece estar bastante claro ya que combina todo lo que necesita un modelo de alta gama para entrar dentro de los mejores que hay en el mercado.

Lo primero que hay que destacar sobre este nuevo modelo de Bambu Lab es que cuenta con diversas funciones adicionales que no tienen otros modelos cerrados de la marca, siendo el principal el hecho de que es más grande mientras que también permite multi-color y además también es multi-función. La H2D cuenta con un tamaño máximo de impresión de 32 x 32 x 32,5 centímetros mientras que logra ofrecer una velocidad constante real de 600mm/s.

  • Además de esto también cuenta con una arquitectura de servomotor que permite reducir ciertos problemas que tienen las impresoras 3D FDM, como los relacionados con el desgaste del filamento y los atascos algo que permite imprimir de forma fiable y precisa. También incorpora diversos sensores para detectar el filamento restante, así como una cámara con IA que controla la boquilla mediante un sistema de control inteligente que supervisa los patrones de extrusión y permite conocer si el filamento se desvía, si existe algún fallo de extrusión o si se acumula el material.

    Por otra parte también es compatible con diversos materiales ya que cuenta con una doble boquilla que ofrece la capacidad de trabajar con materiales rígidos y flexibles de forma simultánea, funciona con los más básicos como es el PLA, pero también es apta para otros como PPS-CF. Obviamente llega al mercado con diversas variantes (como las que no incluyen AMS o las que implementan purificador de aire) que tienen precios muy distintos que oscilan entre 1.979,95€ y 3.694,95€.

  • Infiniti México busca crear una conexión unica con sus clientes

    Regina Reyes-Heroles C. y Ilana SodCiudad de México / 19.10.2024 00:00:01

    Como una marca relativamente nueva en el mercado de lujo, comparada con otros competidores en el segmento premium, Infiniti está decidida a recuperar su presencia en el país mediante el rediseño de sus modelos y la apertura de nuevas concesionarias.

    De acuerdo con el director de Infiniti para México, Latam e Israel, Guillermo Degollado, las ventas oficialmente comenzaron enEstados Unidos (EU) a finales de 1988, para competir con Acura, Audi, BMW, Lexus, Mercedes-Benz y Volvo, y en respuesta al auge del segmento en ese mercado. “Curiosamente”, dice el directivo, “Infiniti debutó primero en el mercado estadunidense antes que en Japón”.

    Te recomendamos…

    Desde entonces, la empresa ha expandido sus operaciones a nivel mundial hacia países como Panamá, República Dominicana, México, Medio Oriente, Corea del Sur, Taiwán, Rusia, China, Ucrania y Chile. En nuestro país, la marca hizo su debut en 2011 y alcanzó un volumen de ventas anuales de 2 mil 231 unidades en 2016, un año que destacó como histórico para la industria automotriz mexicana por sus cifras de ventas. Hoy la automotriz ha vendido 797 unidades, un aumento de 9.8 por ciento , con respecto al año anterior.

    Infiniti pretende mantener su enfoque en un segmento de nicho, dirigido a clientes que valoran la calidad y la exclusividad. “Nuestro ticket promedio está subiendo. Entonces, so- mos una marca de nicho. Una marca para un segmento muy definido”, afirma Degollado.

    ¿Cuánto han crecido en el país?

    La compañía no busca competir por precio, sino a través de experiencias únicas a sus clientes. Actualmente, estamos creciendo a dos dígitos. Entonces, la masa está ahí. Hemos mejorado nuestra escala, pero no nos interesa el volumen como objetivo, sino como la consecuencia de generar experiencia distintas en el cliente.

    Estamos enfocados en crecer la cadena de suministro, en tener más proveedores, y apoyar la industria en México, eso es lo que al final vemos como prioridad.

    ¿Qué impacto esperan tener ampliando su red de concesionarios en México?

    Hablando un poquito de la historia de Infiniti tenemos 35 años de haber nacido, empezamos a importar autos a México en 1989. Entramos a una nueva etapa para la compañía, la evolución continua, y el crecimiento de la red de distribuidores es un aspecto fundamental de la estrategia de la marca. Estamos expandiéndonos por primera vez. Teníamos 11 puntos de venta y actualmente contamos con 17 distribuidores y nuestro objetivo es terminar el año con 20, ya que somos el primer país que va a la cabeza en toda la actualización en las instalaciones desde hace dos años.

    Nos estamos adaptando a las necesidades del consumidor; queremos enfocarnos en nuestros clientes, brindarles una experiencia más cercana y que ellos vivan este ciclo con nosotros.

    ¿Qué es lo que busca la compañía para Latinoamérica?

    Estamos creciendo al doble, sin duda no somos una marca masiva, pero queremos ser diferentes. Queremos ser una marca de lujo aspiracional para nuestros inversionistas, empleados y clientes. Cuando eso suceda, vamos a estar contentos. Esto tiene que ver totalmente con este crecimiento de la red de distribución, buscamos usar la financiera, que es la más grande de Latinoamérica, para dar un valor agregado. Hemos sido pioneros en los crossover, en el control de crucero, en la parte del motor de compresión variable, en el reconocimiento de voz, queremos volver a esa raíz para ofrecer al público algo nuevo.

    ¿Toman referencia de la cultura japonesa para cambiar la relación con la marca?

    Sí, totalmente. El lujo japonés es uno que emociona, ya que cada parte de los productos tienen una historia. Pronto vamos a tener el lanzamiento que ejemplifica de mejor manera toda esta nueva era de la marca, en donde puedes ver cosas como la parrilla que toma un concepto del bosque de bambú y los faros, las teclas de un piano.

    ¿Qué es lo que viene para la marca en cuanto a innovación y tecnología?

    Queremos ofrecer siempre producto fresconuevo, es por eso que tendremos el lanzamiento más importante de los últimos meses con la totalmente nueva QX80, el modelo insignia de la marca y el primero en lucir el nuevo lenguaje de diseño. Este modelo es un claro ejemplo del enfoque que Infiniti está adoptando: tecnología avanzada, un diseño innovador y una experiencia de lujo que se diferencia de otras marcas.

    También llegarán por primera vez un nuevo diseño con nuevos productos que miren hacia el futuro y nuevas tecnologías, como  aire acondicionado que se regula por la temperatura corporal, en cuanto al audio, será inmersivo como el que se vive en los cines.

    ¿Qué significa el nearshoring para la marca? 

    Representa oportunidades, evidentemente hay un aumento en la inversión y un crecimiento para el país, y eso se traduce para nosotros, y para la industria en general, en las cadenas de suministro mucho más competitivas y eficientes.

    ¿Qué papel juega Infiniti en el cuidado del medio ambiente?

    Una de nuestras prioridades como compañía es la sostenibilidad, cuidar el agua, y yo te diría que todo lo que hacemos tiene esa firma, el poder ser responsable socialmente y tener un negocio sustentable nos ayuda en las preferencia de nuestros clientes

    ¿Qué está haciendo para conquistar al público más joven?

    Apostamos a un diseño innovador y tecnología que nos haga volver  a nuestras raícesOfrecemos la mejor hospitalidad en nuestras concesionarias, tenemos cosas muy distintas que nos representan como marca, cuando ustedes entran a una tienda de distribución hay música y una aroma muy especial, que son cosas que ves en la cultura japonesa y queremos transmitirle esa esencia a nuestro consumidor mexicano.

    Viene la revisión del T-MEC, ¿qué desafíos y/o oportunidades ven en este tema?

    Tenemos un grupo de personas que trabajan en esa vía, pues es un tema de nuestro interés porque tenemos plantas en Estados Unidos y en Japón. Creo que es un tema que tenemos que ir trabajando sobre la marcha, aportando y adaptándonos a lo que los reguladores y especialistas nos soliciten.

    Te recomendamos…

    ERR

    Microsoft logra avance cuántico tras dos décadas de investigación

    Richard WatersSan Diego / 20.02.2025 00:35:58

    Microsoft tuvo éxito en aprovechar un nuevo estado de la materia para crear los componentes básicos de una computadora cuántica, coronando una lucha de 20 años en las fronteras de la física que muchos habían descartado como inviables.

    El gigante estadunidense de tecnología cree que el desarrollo va a permitirle construir una computadora cuántica práctica para finales de esta década y con ello eventualmente superar a otros en el campo.

    La afirmación agrega un nuevo giro a la carrera para crear una nueva forma de computación avanzada que ha atraído a algunas de las compañías de tecnología más grandes de EU y se ha vuelto central en la lucha por el liderazgo tecnológico entre Estados Unidos y China.

    El avance que Microsoft afirma haber logrado es el resultado de años de investigación sobre un tipo de partícula que comprende un cuarto estado de la materia, distinto de los sólidos, líquidos y gases. La existencia de las partículas, conocidas como fermiones de Majorana, se teorizó por primera vez en 1937, aunque los científicos tuvieron muchas dificultades para demostrar su existencia.

    El director ejecutivo de Microsoft, Satya Nadella, dijo hace ocho años que su trabajo en la tecnología la colocó “en la cúspide” de una “revolución cuántica”. Pero no fue hasta 2022 que los científicos de la compañía pudieron registrar los efectos que creían que eran causados por las partículas.

    El grupo apostó por las partículas que estaban en un marco teórico después de decidir que ofrecían la mejor ruta para superar el mayor obstáculo para construir una máquina cuántica práctica. Mientras que los bits de una computadora tradicional representan unos o ceros, los qubits que utilizan las computadoras cuánticas pueden representar ambos a la vez, o cualquier estado intermedio.

    Sin embargo, la mayoría de los tipos de qubits solo mantienen sus estados cuánticos durante pequeñas fracciones de segundo, lo que significa que cualquier información que contengan se pierde rápidamente. Para compensar esto, las computadoras cuánticas en pleno funcionamiento requerirán muchos qubits adicionales para ejecutar el software necesario para corregir los errores.

    En comparación, los llamados qubits topológicos que Microsoft ha tratado de crear utilizando partículas Majorana son más resistentes a los errores. La información se mantiene en todo el qubit, lo que significa que incluso cuando fallan partes, un qubit topológico en su conjunto debería retener suficiente información para que sea útil, dijo Sankar Das Sarma, profesor de física de la Universidad de Maryland.

    Esta mayor estabilidad significa que es probable que Microsoft solo necesite alrededor de 100 qubits adicionales para corregir los errores de cada qubit completamente operativo, dijo Jason Zander, vicepresidente ejecutivo de misiones estratégicas y tecnologías de Microsoft. Eso es una décima parte de los que se espera que se necesiten en máquinas cuyos qubits se basan en otros materiales.

    Los últimos datos publicados por Microsoft, incluido un artículo que apareció en la revista Nature el miércoles, representaron un avance hacia la creación de qubits topológicos viables, dijo Das Sarma. Sin embargo, aún hay una pequeña posibilidad de que los hallazgos de la compañía puedan explicarse por algo más que el aprovechamiento exitoso de las elusivas partículas.

    El esfuerzo de investigación de Microsoft se vio plagado de problemas a la hora de fabricar componentes capaces de producir y controlar las partículas. La compañía publicó en 2018 una investigación conjunta con varias universidades en la que se afirma que se observaron las partículas, pero luego se retractó del artículo después de admitir inconsistencias en los datos.

    Antes del último anuncio, un veterano inversionista en computación cuántica comparó su ambiciosa investigación con la búsqueda de la fusión fría, el esfuerzo por producir una reacción nuclear a temperatura ambiente que se ha convertido en sinónimo de promesas científicas exageradas.

    También se produce apenas unas semanas después de que el director ejecutivo de Nvidia, Jensen Huang, pronosticara que las computadoras cuánticas útiles todavía se encuentran a 20 años de distancia, mucho más tiempo de lo que afirman las empresas que trabajan en el campo.

    En una señal del interés oficial de Estados Unidos en la ambiciosa tecnología, Darpa, la agencia del Departamento de Defensa de EU encargada de desarrollar tecnologías avanzadas, seleccionó este mes a Microsoft para intentar demostrar que podía construir una computadora cuántica a gran escala.

    La startup estadunidense PsiQuantum, la única otra empresa seleccionada por Darpa, utiliza qubits basados en fotones, y el año pasado anunció un proyecto de 620 millones de dólares para construir un sistema cuántico a gran escala en Australia.

    Junto con las últimas investigaciones y datos que respaldan sus afirmaciones de haber dominado las partículas Majorana, Microsoft dijo que construyó el primer procesador que utiliza la tecnología.

    Llamado Majorana 1, el chip se basa en ocho qubits topológicos. El diminuto tamaño de cada componente significa que eventualmente sería posible comprimir hasta 1 millón de qubits en cada chip, creando una computadora cuántica a gran escala, dijo la compañía.

    Te recomendamos…

    Esta virguería de Lenovo y Samsung sí que revolucionará los portátiles de verdad

    Muchas de las novedades que hemos podido ver durante el CES han causado una gran impresión entre los usuarios, algo que es normal teniendo en cuenta las propuestas tan innovadoras que han traído algunas compañías mostrando lo que son capaces de hacer con las nuevas tecnologías. En este aspecto uno de los que más nos ha llamado la atención es el sistema de doble pantalla que tiene el portátil ThinkBook Plus G6 de Lenovo, un modelo que llegará con una pantalla OLED enrollable fabricada por Samsung, aunque ahora conocemos que la marca surcoreana comenzará a fabricarlas en masa.

    Uno de los principales aspectos que tienen los ordenadores portátiles está en el hecho de que resulta bastante complicado incorporar una configuración con más de un monitor, hay dispositivos que permiten situarlos a los lados mientras que hay modelos que utilizan un sistema de bisagra para añadir un segundo monitor. Pero esto hace que muchas veces el ordenador pierda una de sus principales características, la movilidad, ya que estos diseños favorecen la productividad a costa de evitar que se puedan transportar o utilizar de una forma mucho más sencilla, ya sea por el espacio que ocupan o por lo que pueden llegar a pesar. Este es el principal motivo por el que pensamos que la nueva pantalla de Samsung para portátiles puede terminar haciéndose con todo el mercado de los portátiles con doble monitor.

    Una pantalla con la mejor calidad posible… ¡y por duplicado!

    Los ordenadores portátiles tienen una serie de aspectos técnicos que los convierten en un sistema perfecto para llevar el mejor rendimiento posible a cualquier parte, hay modelos que son más caros pero ofrecen una potencia similar a la de un PC de sobremesa de gama medio-alta mientras que hay otros modelos más simples que sirven para lo básico. Pero en general uno de los problemas que siempre han tenido es el hecho de no poder igualar la funcionalidad que tienen los PC de sobremesa a la hora de incorporar periféricos adicionales como es un segundo monitor.

    Como bien sabemos esto ya no debería ser un problema gracias a la experiencia que tiene Samsung a la hora de crear pantallas que pueden doblarse o enrollarse, ya que la compañía tiene una gran experiencia a la hora de crear los paneles necesarios para aprovechar estas capacidades:

    «A medida que la pantalla enrollable se extiende, puede experimentar tensiones, pero basándonos en nuestra experiencia de producción en masa de pantallas plegables, hemos diseñado para garantizar la durabilidad en nuestros productos enrollables. La pantalla enrollable aportará innovación a los dispositivos de TI, especialmente en términos de movilidad del portátil y experiencia del usuario en la vida diaria». – Youngseok Kim, vicepresidente y jefe de ventas de TI de Samsung Display.

    Desde la compañía tienen muy claro que es el futuro de la industria, la capacidad que tienen estas pantallas de combinar funcionalidad junto con calidad y portabilidad hacen que sea un producto a tener en cuenta. En este aspecto desde Samsung tienen muy claro que es una tecnología lo suficientemente buena como para revolucionar el sector, por lo que no nos extrañaría ver cómo comienzan a salir nuevos modelos de portátiles que utilicen este tipo de pantalla de otras marcas reconocidas además de Lenovo, ya que el hecho de que vayan a comenzar a producirlas en masa nos demuestra que tienen claro que es un producto terminado y preparado para llegar hasta los usuarios.

    ¿La has liado con los ajustes de la BIOS? No te preocupes, esta es la solución

    Cuando pulsamos en botón para encender el PC, lo primero que hace el equipo es consultar la configuración establecida en la BIOS disponible en la placa base. A no ser que necesitemos una configuración muy concreta para el hardware del PC, generalmente no es necesario realizar ningún cambio ya que esta se encarga de detectar automáticamente el hardware para que todo funcione bien.

    El problema surge cuando hacemos algún cambio en la BIOS y el PC ha dejado de arrancar, no funciona correctamente, ha perdido rendimiento, emite una serie de pitidos o cualquier otra incidencia que afecte a su funcionamiento normal.

    Este problema también se puede presentar si hemos añadido nuevo hardware al PC, ya sea una gráfica, memoria RAM, una tarjeta de expansión PCIe y esta no funciona correctamente, la BIOS no ha sido capaz de reconocerla o no la hemos colocado correctamente.

    La solución a este problema es tan sencilla como reestablecer la configuración de fábrica de la placa base. Afortunadamente, este problema tiene una solución muy sencilla. Además, podemos restablecer la BIOS del PC utilizando diferentes métodos, lo que hace que el proceso sea mucho más sencillo.

    Cómo restablecer la BIOS de un PC

    Todos los métodos que os mostramos a continuación funcionan de forma independiente, por lo que tan solo es necesario utilizar uno de ellos, el que nos sea más cómodo o fácil de implementar.

    Desde la BIOS

    Reestablecer la BIOS desde la propia BIOS es el método más utilizado para hacerlo, aunque no es el único disponible. Una vez hemos accedido a la BIOS pulsando el botón Supr, Esc, F1, F2 o F12 (depende del fabricante de la placa base) debemos acceder a las opciones de configuración de la placa y buscar la opción que nos permite cargar los valores predeterminados en el equipo. Una vez hecho, es importante guardar los cambios para que, la próxima vez que iniciemos el ordenador, la BIOS cargue la configuración predeterminada de la placa.

    Esta es una opción a tener en cuenta si el fallo que tenéis se encuentra en una configuración mal hecha. Hay otros casos en los que posiblemente tengáis problemas para acceder a la propia BIOS como sucede con algunas configuraciones relacionadas con el procesador. Si por ejemplo habéis aplicado un overclock es posible que no os aparezca nada en pantalla, pero no os preocupéis ya que hay otras soluciones que no implican tener el PC encendido.

    Quitar la pila de la placa base

    La función que tienen la pila de las placas base, no se limita a conservar la hora del equipo cuando lo apagamos o desconectamos de la corriente. Otra de sus funciones es mantener la configuración establecida en la BIOS. Al retirar la pila, se restablecer la CMOS quien se encarga de almacenar la configuración del sistema.

    A diferencia de los que muchos usuarios piensan, no sirve con quitar la pila y volverla a poner. Es necesario esperar unos 10 minutos para que se disipe la carga eléctrica. Transcurrido ese período, podemos volver a color la pila en la placa base y encender el ordenador de forma normal ya que la BIOS habrá cargado su configuración predeterminada.

    Mantener presionado el botón de encendido

    El método más rápido y cómodo de todos los disponibles para resetear la BIOS de un PC es mantener presionado el botón de encendido durante el equipo entre 15 y 30 segundos, hasta que el equipo emita un pitido que confirme que se ha realizado el proceso correctamente.

    Este método tiene un pero ya que no es una función que esté disponible en todas las placas base del mercado ni en todos los fabricantes. Esta función lleva implementándose en las placas base que han llegado al mercado a partir de 2020, no confundir con compradas en 2020. Para saber en qué fecha se lanzó nuestra placa base al mercado, tan solo debemos consultar la ficha de esta disponible en la página web del fabricante.

    Utiliza el botón que hay en la parte trasera de la placa

    Las placas base modernas suelen tener un botón en el panel I/O trasero que permite restablecer las opciones de fábrica de la placa base. Este suele aparecer con el nombre Clear CMOS y básicamente se encarga de eliminar los datos que tiene la BIOS. Las placas base más antiguas no incluyen este botón por lo que es necesario hacerlo a través de jumpers localizados en el interior de la placa que tienen el mismo nombre, Clear CMOS.

    Qué hacer si nada funciona

    Si después de probar todos los métodos que hemos indicado sobre estas líneas, ninguno funciona, significa que tenemos un problema o con la placa base o con alguno de los componentes de hardware del equipo. Lo primero que debemos hacer es comprobar que no son los componentes. Para hacerlo, debemos retirar uno por uno (tarjeta gráfica y memoria RAM) y encender el PC.

    Si solo tenemos un módulo de memoria, tendremos que echar mano de un amigo, ya que si el PC no tiene memoria RAM nunca arrancará. Para comprobar si el problema está en la unidad de almacenamiento, tenemos que utilizar una distribución Linux Live en un pincho USB y conectarla al PC sin instalarla, eligiendo el modo prueba. Si podemos acceder a la unidad de almacenamiento, significa que el problema no está en el disco duro.

    Si tras retirar la gráfica, probar la RAM y el disco duro, lo más probable es que el origen del problema esté en la placa base, un problema cuya única solución pasa por reemplazarla. Afortunadamente, es uno de los componentes más económicos de cualquier PC.

    Impago de préstamos toca su nivel más alto en cuatro años: Moody’s

    Alan Livsey y Harriet ClarfeltLondres y Nueva York / 25.12.2024 01:28:59

    Las empresas estadunidenses están incurriendo en incumplimiento de pagos de préstamos basura al ritmo más rápido en cuatro años, mientras tienen dificultades para refinanciar una ola de créditos baratos que se produjo después de la pandemia.

    El incumplimiento de pagos en el mercado global de préstamos apalancados —la mayor parte del cual se encuentra en Estados Unidos— aumentaron hasta 7.2 por ciento en los 12 meses hasta octubre, ya que las altas tasas de interés hicieron mella en las empresas que están muy endeudadas, de acuerdo con un informe de Moody’s; la tasa más alta desde finales de 2020.

    El aumento de las empresas que tienen dificultades para pagar los préstamos contrasta con un incremento mucho más modesto del incumplimiento de pagos en el mercado de bonos de alto rendimiento, lo que destaca cómo muchos de los solicitantes de préstamos más riesgosos en las corporaciones estadunidenses se inclinaron hacia el mercado de préstamos de rápido crecimiento.

    Debido a que los préstamos apalancados —préstamos bancarios de alto rendimiento que se vendieron a otros inversionistas— tienen tasas de interés variables, muchas de las empresas que se endeudaron cuando las tasas eran extremadamente bajas durante la pandemia se toparon con dificultades con los altos costos de endeudamiento en los últimos años. Muchas de ellas ahora muestran señales de dolor, incluso cuando la Reserva Federal vuelve a bajar las tasas.

    “Hubo mucha emisión en el entorno de bajas tasas de interés y se necesitó tiempo para que el estrés de las altas tasas saliera a la superficie”, dijo David Mechlin, gerente de cartera de crédito de UBS Asset Management. “Esta tendencia puede continuar hasta 2025”.

    Los costos de endeudamiento punitivos, junto con cláusulas más ligeras, llevan a los solicitantes de préstamos a buscar otras formas de extender esta deuda.

    En EU, las tasas de incumplimiento de pagos de los préstamos basura se dispararon a máximos de una década, según los datos de Moody’s. La perspectiva de que las tasas se mantengan altas durante más tiempo —la Fed advirtió un ritmo más lento de flexibilización el próximo año— puede mantener la presión al alza sobre las tasas de impago, señalan los analistas.

    Muchos de estos incumplimientos involucran a los llamados Canjes Forzosos de Deuda. En estos acuerdos se modifican los términos de los préstamos y se extienden los vencimientos como una forma de permitir que el solicitante evite la quiebra, pero los inversionistas reciben menos dinero.

    Estos acuerdos representan más de la mitad de los incumplimientos de este año, un máximo histórico, según Ruth Yang, directora de análisis de mercados privados de S&P Global Ratings. “Cuando (un intercambio de deuda) perjudica a la entidad de crédito, cuenta como impago”, dijo.

    “Varias de las compañías de préstamos con calificación más baja que no pudieron acceder a los mercados públicos o privados tuvieron que reestructurar su deuda en 2024, lo que resultó en tasas de incumplimientos de pago más altas que las de los bonos de alto rendimiento”, indicó Moody’s.

    Los gestores de cartera temen que estas tasas más altas de incumplimientos de pagos sean el resultado de los cambios en el mercado de préstamos apalancados en los últimos años.

    “Tuvimos una década de crecimiento sin límites en el mercado de préstamos apalancados”, dijo Mike Scott, gestor de fondos de alto rendimiento de Man Group. Muchos de los nuevos solicitantes de préstamos en sectores como la atención de salud y el software tenían pocos activos, lo que significa que los inversionistas podían recuperar una porción más pequeña de lo que desembolsaron en caso de impago, añadió.

    “(Se produjo) una combinación perversa de falta de crecimiento y falta de activos para recuperar”, dijo Justin McGowan, socio de crédito corporativo de Cheyne Capital.

    A pesar del aumento de los incumplimientos, los diferenciales en el mercado de bonos de alto rendimiento son históricamente ajustados, los más bajos desde 2007, de acuerdo con los datos de Ice BofA, en una señal del apetito de los inversionistas por el rendimiento. “En la situación actual del mercado, estamos valorando la exuberancia”, dijo Scott.

    Aun así, algunos gestores de fondos creen que el aumento de la tasa de incumplimiento será de corta duración, dado que las tasas de la Fed están cayendo. El banco central estadunidense redujo su tasa de referencia este mes por tercera reunión consecutiva.

    Brian Barnhurst, director global de investigación crediticia de PGIM, dijo que los menores costos de endeudamiento deben aliviar a las empresas que pidieron préstamos en los mercados de alto rendimiento. “No vemos un repunte de los impagos en ninguna de las dos clases de activos”, advirtió, y añadió: “Para ser sincero, esa relación (entre los préstamos apalancados y las tasas de incumplimientos) probablemente se apartó a finales de 2023”.

    Pero a otros les preocupa que los canjes forzosos sean una señal de tensiones subyacentes y solo pospongan los problemas. “(Está) muy bien dejar pasar el problema cuando el camino va cuesta abajo”, señaló Duncan Sankey, jefe de investigación crediticia de Cheyne, refiriéndose a cuando las condiciones eran más favorables para los solicitantes de préstamos.

    De hecho, algunos analistas culpan a la flexibilización de las restricciones crediticias en la documentación de los préstamos en los últimos años de permitir un aumento de canjes forzosos que perjudican a los solicitantes de préstamos.

    “No se puede volver a meter al genio en la botella. El debilitamiento de la calidad (de la documentación) realmente cambió el panorama, a favor del solicitante de prestamos”, afirmó Ruth Yang, de S&P.

    Te recomendamos…

    Este ‘city builder’ huele a Sim City pero en un lugar increíble

    Desde prácticamente finales de los años 80 existen en PC los juegos que muchos llaman como city builders y que consisten en crear y gestionar una ciudad para hacerla crecer. Sim City fue un buen ejemplo en aquellos años aunque ahora, prácticamente cuatro décadas después, tenemos una grata novedad que utiliza sus increíbles escenarios para seducirnos. Su nombre es Laysara Summit Kingdom.

    Como os decimos, el género de convertirnos en una especie de alcalde de una ciudad y verla crecer barrio a barrio es algo que a muchos jugadores les encanta. Sobre todo en PC, donde los interfaces están llenos de opciones y la única forma de manejarlos es gracias al uso de un ratón y un teclado (¿tienes problemas con ellos?). Los dos periféricos que definen por sí mismos el ámbito gaming de los ordenadores.

    Un city builder de altos vuelos

    El caso es que desde ayer mismo tenéis ya en Steam, en formato de acceso anticipado, el juego Laysara Summit Kingdom, que no es otra cosa que un creador y gestor de ciudades al que su estudio desarrollador, Quite OK Games, le ha añadido un puntito que lo diferencia de cualquier otra apuesta parecida. ¿Y qué es eso que hace tan diferente a este título? Pues que tendremos que construir nuestras urbes en las laderas de una empinada montaña.

    Es decir, que no vamos a contar con una meseta plana donde hacer lo que nos apetezca, sino que aquí el espacio manda, optimizar cada metro cuadrado es esencial y, por tanto, no podemos empezar a construir sin un plan previo. De hacerlo así, rápidamente nos veremos construyendo prácticamente al borde del abismo. Y no se trata de una frase hecha, es así tal cual.

  • Además, esa montaña que podemos convertir en una ciudad tiene un elemento extraordinariamente divertido porque a medida que avanzamos no cambiamos de montaña, sino que vamos subiendo poco a poco hasta alcanzar el pico más alto. El objetivo de este Laysara Summit Kingdom no es otro que ir ladera a ladera escalando hasta lo más arriba que nos deje el escenario de la misión para plantar nuestra última edificación en todo lo alto.

    Laysara Summit Kingdom es muy divertido

    Apenas lleva en el mercado un día pero ya lo hemos jugado y os podemo decir que se trata de una de las apuestas más originales que hemos podido probar recientemente en PC porque, por vez primera, las condiciones del escenario donde jugamos condicionan de verdad cómo enfocamos la creación y crecimiento de nuestra ciudad, lo que hace que cada partida sea realmente única.

    Además, el juego nos ofrece varios modos, que son los típicos de estos city builder, para completar objetivos o disfrutar a nuestra bola con el modo libre, escogiendo la montaña donde queremos empezar a construir. Y a partir de ahí ya ir subiendo escalón a escalón hasta hacernos con la propia cima, señal de que ese escenario lo tenemos completo. Si queréis comprarlo ahora, aprovechad que con motivo de su lanzamiento en warly access tiene un 20% de descuento en Steam.

  • El gaming en la nube, ¿podría significar el fin del hardware tradicional?

    En los últimos dos o tres años, el sector de los videojuegos ha vivido una transformación que ha ido mucho más allá de la evolución técnica del hardware. Son muchas las compañías que están intentando consolidar el gaming en la nube como la evolución natural, y con servicios como GeForce NOW o Xbox Cloud Gaming, esto ha pasado de ser una promesa a una realidad tangible. Pero este hecho suscita una pregunta: ¿dejaremos de necesitar PC y consolas de altas prestaciones para gaming?

    La respuesta no es sencilla de predecir, ya que el cambio no depende solo de la oferta de las compañías sino también de la infraestructura y, por supuesto, de la aceptación de los usuarios. Aunque el juego en la nube permite a cualquiera disfrutar de juegos exigentes en dispositivos modestos, también hay limitaciones muy claras como la latencia o la calidad de la conexión, factores muy determinantes en este ámbito.

    El papel del hardware en un futuro dominado por la nube

    Aunque tanto el PC como las consolas continúan evolucionando con hardware cada vez más potente, fabricantes como ASUS, Razer o Logitech han apostado por dispositivos dedicados al gaming en la nube, mientras que otros gigantes como Amazon con Luna o Google en su momento con Stadia y ahora incluso Netflix están buscando posicionarse en el mundo de los juegos interactivos como ya lo hizo el streaming audiovisual.

    La gran incógnita es cómo quedará el papel del hardware tradicional en este contexto. Si el gaming en la nube sigue creciendo al ritmo al que lo hace ahora, es posible que los PC y las consolas de alta gama queden como un simple nicho para los más entusiastas, mientras que la mayoría de los usuarios accedería a sus videojuegos favoritos utilizando dispositivos móviles, consolas portátiles o incluso en simples mini PC baratos.

    No obstante, bajo nuestro punto de vista esta transición no será inmediata, ni siquiera a medio plazo. El motivo es que aunque la nube ofrece una gran flexibilidad, la experiencia de juego no alcanza el nivel que puede ofrecer el hardware local, algo que tiene mucha más importancia cuando hablamos de juegos competitivos o que buscan una gran fidelidad gráfica. De ahí que para muchos jugadores, un PC gaming o una consola de última generación sigan siendo indispensables.

    Por otro lado, la industria del hardware no va a detenerse por el gaming en la nube. A pesar de que muchos fabricantes ya tienen dispositivos dedicados para ello, la llegada de nuevas generaciones de procesadores y tarjetas gráficas siguen marcando hitos en rendimiento, y el mercado de monitores con alta frecuencia de refresco y tecnologías avanzadas demuestra que este mercado es todavía muy fuerte. Lo que sí podría suceder es una segmentación más clara: el hardware de gama alta para los que buscan la mejor experiencia y el gaming en la nube como alternativa para quienes priorizan la comodidad y el precio.

    El gaming en la nube también entraña ciertos riesgos

    Más allá de la experiencia de juego, el futuro del gaming en la nube depende de otros factores, especialmente tecnológicos. La expansión de las redes de fibra óptica, la llegada de la tecnología WiFi 7 y el despliegue de la conectividad 5G serán determinantes para reducir la latencia y mejorar la estabilidad del gaming en la nube. En países con una infraestructura avanzada esto no debería ser demasiado problema, pero en regiones con conexiones más limitadas el hardware tradicional seguirá siendo la opción predilecta.

    Resolución Velocidad Mínima (Mbps) Framerate Servicio tomado como ejemplo
    720p (HD) 15 Mbps 60 FPS GeForce NOW
    1080p (FHD) 25 Mbps 60 FPS GeForce NOW
    1080p (FHD) 35 Mbps 240 FPS GeForce NOW
    1440p (QHD) 35 Mbps 120 FPS GeForce NOW
    4K (UHD) 45 Mbps 120 FPS GeForce NOW

    Finalmente, bajo nuestro punto de vista también está el problema de la preservación de los videojuegos. En un modelo en el que todo depende de servidores de terceros, los usuarios pierden el control sobre sus bibliotecas. Por ejemplo, el cierre de Google Stadia, efectivo el 18 de enero de 2023, es el ejemplo más claro de este riesgo. A pesar de que Google procesó reembolsos completos por el hardware y los juegos adquiridos, los usuarios perdieron de forma irreversible todo su progreso y las partidas guardadas, que representaban cientos de horas de juego. El usuario no es propietario del juego por el que ha pagado, es un mero suscriptor a un servicio, y aun estando este precepto claro sigue siendo un riesgo.

    En definitiva, el cloud gaming puede representar una gran comodidad ya acceso inmediato a los juegos, pero también una dependencia total de unas infraestructuras que no siempre garantizan que la experiencia sea buena.

    El malestar del orden mundial posneoliberal

    Rana ForooharNueva York / 03.06.2025 01:04:00

    Pasé gran parte de la semana pasada en Reino Unido, asistí a una conferencia que llevaba el nombre de Más allá del neoliberalismo, organizada por los académicos Noam Maggor y Gary Gerstle, profesor emérito de la Universidad de Cambridge y miembro de Harvard, cuyo libro El ascenso y caída del orden neoliberal ayudó a sentar las bases de la historia de nuestro antiguo orden económico y la posibilidad de uno nuevo. Tengo la suerte de contar con Gerstle como mi interlocutor del Swamp Notes de hoy (esta será mi última nota en un mes, ya que estaré de permiso para escribir un libro hasta junio).

    Aunque la conferencia se celebró en Cambridge, se sintió como una especie de Bidenomía en el exilio, al acoger a varios funcionarios de la antigua administración y miembros de grupos de reflexión progresistas con estrechos vínculos con la Casa Blanca de Biden, así como a muchos posneoliberales afines de Europa, Asia y muchas partes del sur global.

    Hubo mucho debate sobre qué será del orden mundial posneoliberal ahora que Donald Trump adoptó algunas de sus ideas centrales, desde la reindustrialización hasta una aplicación más estricta de las leyes antimonopolio, mientras que el Partido Demócrata se encuentra dividido a partes iguales entre el populismo económico y lo que yo llamaría una nueva agenda de “abundancia” del lado de la oferta. Me refiero al libro de Ezra Klein y Derek Thompson, que, en mi opinión, trata sobre la desregulación y hacer más eficiente al gobierno. Como escribí en esta columna, ofrece algunas ideas interesantes, pero en última instancia es superficial porque no aborda los problemas de la concentración de poder. Aun así, muchos en la izquierda lo presentan como una nueva filosofía organizacional para los demócratas.

    Por desgracia, salí de Cambridge con la sensación de que ninguno de los dos bandos tiene aún un mensaje ganador. En última instancia, creo que el resultado se va a decidir por medio de qué bando puede reaccionar mejor a los complejos retos económicos y geopolíticos que enfrenta EU en este momento. Consideremos tres puntos.

    En primer lugar, se prevé un aumento de la inflación de forma bastante marcada. Dado que los aranceles de Trump fueron declarados ilegales y el Departamento de Eficiencia Gubernamental ha sido un fracaso, es poco probable que el gobierno logre encontrar muchos ahorros o ingresos adicionales para compensar el desastroso proyecto de ley “grande y hermoso” (es decir, enormes recortes de impuestos para los ricos). Esto significa que la Casa Blanca tratará de mantener caliente la economía durante un tiempo para intentar reducir parte de la deuda mediante la inflación, sobre todo en un momento en que los compradores extranjeros de bonos del Tesoro son cada vez más escasos. Cualquier tipo de política industrial que prefieren los populistas se endurece cuando los déficits son mayores y la inflación aumenta. Por otro lado, puede ser más fácil vender la idea de la desregulación de la vivienda —algo favorecido por los defensores de la abundancia— para crear más oferta en un momento como este.

    En segundo lugar, la fabricación no creará los empleos que necesitamos. Una de las cosas en las que incluso los defensores de la política industrial estuvieron de acuerdo en Cambridge es que ese tipo de estrategias deben ir más allá de la fabricación. Como señaló el profesor de Harvard Dani Rodrik, si bien necesitamos producir algunos bienes críticos por razones de resiliencia y seguridad nacional, la tecnología está reemplazando los empleos fabriles, no solo en EU, también en China, donde se están implementando robots a gran escala. Si a esto le sumamos la destrucción de empleo relacionada con la inteligencia artificial, (vean mi última columna al respecto), necesitamos una estrategia de empleo que se enfoque más en el sector servicios de gama alta. No creo que los defensores de la abundancia aborden esto con claridad, pero puede resolverse, al menos de forma parcial, impulsando la economía del cuidado de una manera que favorecen los populistas económicos.

    Finalmente, la concentración de poder es un gran obstáculo para el cambio. Como señaló el profesor de Vanderbilt, Ganesh Sitaraman, experto en antimonopolio y ex asesor de la senadora Elizabeth Warren, en la conferencia de Cambridge: “Cuarenta años de neoliberalismo crearon un poderoso grupo de corporaciones e individuos que representan una especie de oligopolio civil muy difícil de desafiar”.

    En efecto. Me sorprende, por ejemplo, que en medio de una desigualdad sin precedente, no haya ningún político de izquierda, tal vez con la excepción de Bernie Sanders, que coincida en la indignación al estilo de Roosevelt contra los oligarcas (como él mismo expresó entonces: “¡Acojo con agrado su odio!”). Claro que, desde la decisión de 2010 en la Corte Suprema sobre el caso Citizens United, es difícil aceptar el odio de posibles donantes políticos, lo cual representa un gran reto para los demócratas que quieren presentarse como defensores de los trabajadores. Consideren, por ejemplo, la poca crítica real que hemos visto sobre el proyecto de ley fiscal de Trump y cómo varios senadores demócratas apoyaron los esfuerzos republicanos por integrar las stablecoins en el sistema financiero formal, lo cual, estoy convencida, será la raíz de la próxima crisis financiera. La comunidad cripto es un gran y creciente donante político, tanto de izquierda como de derecha.

    Gary, me señalaste que el New Deal (Nuevo Acuerdo) no se creó de un día para otro, ni siquiera en unos cuantos años, sino que fue un proceso de altibajos que tardó casi una década en consolidarse. Así que mi pregunta es la siguiente: ¿en qué punto nos encontramos en el proceso de creación de un consenso posneoliberal? ¿Cuántos años más van a vagar los demócratas por el desierto político? ¿Van a crear los republicanos, bajo el liderazgo de Trump, una versión cinematográfica del nuevo paradigma político? ¿O se avecina algo inesperado?

    Lecturas recomendadas

    Esta semana voy a usar una lista de Financial Times, ya que hay muchos artículos interesantes.

    -Mi colega Gillian Tett analiza el “impuesto de venganza” oculto en el proyecto de ley “grande y hermoso” de Trump. Inversionistas extranjeros en EU, tengan cuidado.

    -El siempre inteligente Andy Haldane argumenta que debemos pensar menos en el PIB y más en la movilidad ascendente. Estoy de acuerdo.

    -Y Sarah O’Connor advierte que la vigilancia llegó para los trabajadores administrativos. Creo que tiene razón en que esto va a reducir la innovación, y alentará a aún más personas inteligentes a buscar trabajo fuera de las grandes corporaciones. ¿Quién quiere estar vigilado las 24 horas del día, los 7 días de la semana?

    Gary Gerstle responde

    Gracias por estas reflexiones, Rana. Construir un nuevo consenso político o un nuevo orden es una tarea compleja que requiere mucho tiempo. Si bien la idea central que sustentaría el orden del New Deal —concretamente que un Estado fuerte era necesario para manejar el capitalismo en beneficio del interés público— irrumpió con fuerza en la sociedad estadunidense en la década de 1890, no triunfó hasta la de 1930. Los progresistas disfrutaron de victorias parciales en el camino, pero también sufrieron numerosas derrotas.

    De igual manera, los intelectuales y legisladores neoliberales que se unieron en la Sociedad Mont Pèlerin en 1947 para oponerse a las economías manejadas por el Estado como el New Deal pasaron gran parte de los siguientes 30 años en el desierto político. Sin embargo, ni los aspirantes al New Deal ni los neoliberales se desesperaron. Al contrario, se aferraron a sus principios fundamentales con firmeza, con la confianza de que su momento llegaría. Al igual que Mao Zedong, se beneficiarán de comprometerse con la larga marcha.

    La firmeza importa porque es difícil saber cuándo se presentará la oportunidad de alcanzar el poder. Consideremos, por un momento, el Partido Demócrata de la década de 1920, dividido entre sus votantes de las zonas urbanas y cosmopolitas del Norte y sus partidarios agrarios y supremacistas blancos del sur. Muchos pensaban que el partido podía no ganar nunca más unas elecciones presidenciales.

    Sin embargo, la Gran Depresión que comenzó en 1929 lo trastocó todo, desacreditando las políticas republicanas, forjando una solidaridad en el Partido Demócrata que parecía imposible y posicionando a Franklin D. Roosevelt para ganar dos elecciones en la década de 1930 que convertirían al New Deal en la fuerza dominante de la política durante cuarenta años. Herbert Hoover nunca superó la conmoción de esa transformación.

    Los responsables de la formulación de políticas de Trump ahora tratan de asestar un golpe de nocaut similar a los demócratas. De hecho, la conmoción y el asombro de los primeros cien días de Trump se parecen mucho a los de los legendarios primeros cien días de Roosevelt. ¿Los cerebros de Maga conseguirán transformar su movimiento en un orden político? Bien puede ser. Pero no apostaría por ellos a menos que mejoren un programa económico incoherente que, actualmente, se compone de recortes de impuestos para los ricos y aranceles (en constante cambio). De hecho, es mucho más probable que esta mezcla tóxica produzca un colapso financiero que una base económica sólida para un orden político duradero.

    Si se produce un colapso, ¿estarán preparados los demócratas? El gobierno de Biden estaba lleno de ideas para construir una economía política progresista: inversiones en infraestructura, deslocalización para regresar al país la fabricación, la Ley de Reducción de la Inflación y medidas de competencia contra los monopolios.

    Pero el gobierno también experimentó dos fracasos interrelacionados. Primero, sus políticas para contrarrestar el excesivo poder corporativo y reducir la desigualdad económica no despertaron la imaginación de sus partidarios. ¿Por qué no? La inflación, en mi opinión, es una respuesta simple. Y, segundo, el gobierno de Biden se topó con un cinismo hacia el gobierno y hacia el “Estado Profundo”, mucho más profundo y extendido de lo que ellos esperaban. Ningún movimiento progresista puede triunfar sin restaurar la fe popular en los usos positivos del gobierno. Esa restauración, que se debatió mucho en nuestra conferencia de Cambridge, tal vez se convirtió en el principal reto político progresista de nuestro tiempo.

    Te recomendamos…