Home
>
Analisis
>
Autores
>
Lo que quiso decir
>
AMLO, el maximato
Lo que quiso decir
Lo que quiso decir
Rubén Aguilar Valenzuela: Socio fundador de Afan y Asociados, S.C. Doctor en Ciencias Sociales. Profesor... Continuar Leyendo
3 minutos de lectura

AMLO, el maximato

Hay elementos que apuntan a que una vez que termine la presidencia, López Obrador no dejará la política y se abre el espacio al "maximato", para seguir gobernando a un lado o detrás de la presidenta Claudia Sheinbaum.
27 de septiembre, 2024
Por: Rubén Aguilar

Dice el refrán popular: “El que mucho se despide, pocas ganas tiene de irse”. El presidente López Obrador tiene meses despidiéndose. Ya solo le quedan cuatro días de su gestión.

En sus discursos de despedida ha mencionado cuatro temas centrales: está satisfecho por lo que hizo; el país cambió; se retira de la política para ir a vivir a su rancho; se va tranquilo porque deja una gran sucesora.

Hay, con todo, elementos que apuntan a que una vez que termine la presidencia, no dejará la política y se abre el espacio al maximato, para seguir gobernando a un lado o detrás de la presidenta Claudia Sheinbaum. Algunos de estos elementos son:

La afirmación en una de sus despedidas, en el marco de una de sus comparecencias mañaneras, que se retiraba a la vida privada, pero que cada vez que lo estimara necesario iba a hacer valer “su derecho a disentir”. En esa ocasión no dijo de quien, pero su anuncio sólo tenía una destinataria, la próxima presidenta.

Este dicho se convierte en una espada de Damocles sobre quien el primero de octubre asume la presidencia de la República. Le adelanta de manera abierta y clara que cada vez que tome una decisión con la que no esté de acuerdo saldrá a los medios a “disentir” y fijar su postura.

El presidente ha impuesto al que será el gabinete de la presidenta Sheinbaum a una serie de secretarios, entre otros el de la Sedena, la Semar y la Secretaria de Economía, para mencionar algunos. Actores involucrados en esas instituciones lo han dicho.

Días atrás, el presidente, antes de irse al rancho La Chingada, en Chiapas, hizo pública, en una comparecencia mañanera, que “regaló” el Partido Morena, que funda en 2011, a su hijo Andrés López Beltrán.

En una mañanera informó que es el único heredero porque los otros hijos le dijeron que no estaban interesados en la política. Ahora el partido tiene como dueño a su hijo Andy, como se le conoce.

El pasado 22 de septiembre López Beltrán fue nombrado como el tercero a cargo del partido, secretario de Organización, pero nadie duda cuál es su verdadera función, la de ser su dueño legítimo tras haber sido heredado.

Luisa María Alcalde -desde niña muy cercana al presidente- a partir del pasado domingo pasa a ser formalmente la dirigente del partido, pero ella sabe que es solo un título, porque la “empresa” tiene dueño y ella no tiene acciones en la misma.

Con esta decisión, el presidente impide a Sheinbaum ejercer una de las más relevantes atribuciones metaconstitucionales del régimen presidencial recién restaurado, que es nombrar a los dirigentes del partido.

Esta decisión de López Obrador es el acto más evidente de la instauración del maximato. Él tendrá el control del partido y, por lo mismo, de nombrar a los candidatos a gobernadores, senadores, diputados y presidentes municipales.

Los nombramientos serán a través de su hijo y no será, por lo mismo -como ya se dijo- una atribución de la presidenta. El maximato de su antecesor le ha negado esa posibilidad. ¿Pensó que su mentor le haría esa jugada? ¿Se va a someter?

Los actuales gobernadores, senadores y diputados de Morena -también los hay del PVEM y el PT- fueron puestos por López Obrador. Le deben fidelidad y siempre le han manifestado absoluta sumisión. ¿Ahora deben obediencia a la presidenta o a quien los puso?

Sheinbaum desde que empezó a ser parte del grupo de López Obrador siempre le ha sido absolutamente fiel y ha repetido mecánicamente lo que éste dice. Al día de hoy lo sigue haciendo. ¿Como lo ha hecho antes, ahora se va a someter a lo que le diga su mentor? ¿Asumirá sin más el maximato?

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Iniciar sesión

Registrate
Suscribete para comentar...
Imagen BBC
Inteligencia Artificial vs. Mente Humana: Los retos y acertijos que pusieron a prueba sus habilidades
10 minutos de lectura

Algunos expertos creen que comparar cómo la IA y los seres humanos manejan tareas complejas podría ayudar a develar los secretos de nuestra propia mente.

24 de septiembre, 2024
Por: BBC News Mundo
0
En los pasillos de la Universidad Libre de Ámsterdam, el profesor adjunto Filip Ilievski juega con la inteligencia artificial (IA).

Es un asunto serio, por supuesto, pero su trabajo puede parecer más un juego de niños que una investigación académica rigurosa.

Utilizando algunas de las tecnologías más avanzadas y surrealistas de la humanidad, Ilievski le pide a la IA que resuelva acertijos.

Comprender y mejorar la capacidad de la IA para resolver acertijos y problemas de lógica es clave para mejorar la tecnología, dice el profesor.

“Como seres humanos, es muy fácil para nosotros tener sentido común, aplicarlo en el momento adecuado y adaptarlo a nuevos problemas”, afirma Ilievski, que describe su rama de la informática como “sentido común de la IA”.

Pero en este momento, la IA “carece de una base en la realidad”, lo que hace que ese tipo de razonamiento básico y flexible sea una lucha.

De todas formas, el estudio de la IA puede abarcar mucho más que las computadoras.

Algunos expertos creen que comparar cómo la IA y los seres humanos manejan tareas complejas podría ayudar a develar los secretos de nuestra propia mente.

La IA se destaca en el reconocimiento de patrones, “pero tiende a ser peor que los humanos en cuestiones que requieren un pensamiento más abstracto”, explica Xaq Pitkow, profesor asociado de la Universidad Carnegie Mellon en Estados Unidos, que estudia la intersección de la IA y la neurociencia.

En muchos casos, sin embargo, depende del problema.

Adivina esto

Comencemos con una pregunta que es tan fácil de resolver que no califica como una adivinanza según los estándares humanos.

Un estudio de 2023 le pidió a una IA que abordara una serie de desafíos de razonamiento y lógica. He aquí un ejemplo:

La frecuencia cardíaca de Mable a las 9 era de 75 pm y su presión arterial a las 19 era de 120/80. Murió a las 23. ¿Estaba viva en el mediodía?

No es una pregunta capciosa. La respuesta es sí.

Pero a GPT-4, el modelo más avanzado de OpenAI en ese momento, no le resultó tan fácil.

“Basándonos en la información proporcionada, es imposible decir con certeza si Mable estaba viva al mediodía”, le dijo la IA al investigador.

Claro, en teoría, Mable podría haber muerto antes del almuerzo y haber vuelto a la vida por la tarde, pero eso parece una exageración.

Un punto a favor para la humanidad.

Ilustración
Estudio Santa Rita
Las máquinas aún tienen dificultades con la lógica básica, pero la IA puede superar a los humanos en ciertas preguntas que desencadenan las debilidades de nuestras mentes.

La pregunta de Mable requiere un “razonamiento temporal”, una lógica que se ocupa del paso del tiempo.

Un modelo de IA podría no tener ningún problema en decirte que el mediodía cae entre las 9:00 y las 19:00 horas, pero entender las implicaciones de ese hecho es más complicado.

“En general, razonar es realmente difícil”, señala Pitkow.

“Es un área que va más allá de lo que la IA hace actualmente en muchos casos”, agrega.

Una extraña verdad sobre la IA es que no tenemos idea de cómo funciona.

Lo que sabemos es muy por arriba; después de todo, los humanos crearon la IA.

Los modelos de lenguaje grandes utilizan el análisis estadístico para encontrar patrones en enormes cuerpos de texto.

Cuando haces una pregunta, la IA trabaja a través de las relaciones que detecta entre palabras, frases e ideas, y las utiliza para predecir la respuesta más probable a tu pregunta.

Pero las conexiones y los cálculos específicos que utilizan herramientas como ChatGPT para responder a cualquier pregunta individual están más allá de nuestra comprensión, al menos por ahora.

Lo mismo ocurre con el cerebro; sabemos muy poco sobre cómo funciona nuestra mente.

Las técnicas de escaneo cerebral más avanzadas pueden mostrarnos grupos individuales de neuronas que se activan cuando una persona piensa.

Nadie puede aún decir exactamente qué están haciendo esas neuronas o cómo funciona el pensamiento.

Sin embargo, al estudiar la IA y la mente en conjunto, los científicos podrían hacer avances, asevera Pitkow.

Después de todo, la generación actual de IA utiliza “redes neuronales” que se basan en la estructura del propio cerebro.

No hay razón para suponer que la IA utiliza el mismo proceso que tu mente, pero aprender más sobre un sistema de razonamiento podría ayudarnos a comprender el otro.

“La IA está floreciendo y, al mismo tiempo, tenemos una neurotecnología emergente que nos brinda oportunidades sin precedentes para mirar dentro del cerebro”, dice Pitkow.

Confiar en tu instinto

La cuestión de la IA y los acertijos se vuelve más interesante cuando se analizan las preguntas diseñadas para confundir a los seres humanos. He aquí un ejemplo clásico:

Un bate y una pelota cuestan US$110 en total. El bate cuesta US$1,00 más que la pelota. ¿Cuánto cuesta la pelota?

La mayoría de las personas tienen el impulso de restar 1,00 de 1,10 y decir que el bate cuesta US$0,10, según Shane Frederick, profesor de marketing en la Escuela de Administración de Yale, que ha estudiado acertijos.

Y la mayoría se equivoca. La pelota cuesta US$0,05.

“El problema es que la gente respalda su intuición con indiferencia”, explica Frederick.

“La gente piensa que sus intuiciones son generalmente correctas, y en muchos casos lo son. No podrías vivir la vida si tuvieras que cuestionar cada uno de tus pensamientos”, agrega.

Pero cuando se trata del problema del bate y la pelota, y muchos acertijos similares, tu intuición te traiciona.

Según Frederick, puede que este no sea el caso de la IA.

Ilustración
Estudio Santa Rita
Los acertijos simples revelan los límites de la IA, pero los modelos más recientes están mejorando.

Los seres humanos tienden a confiar en su intuición, a menos que haya algún indicio de que su primer pensamiento pueda ser erróneo.

“Sospecho que la IA no tendría ese problema. Es bastante buena a la hora de extraer los elementos relevantes de un problema y realizar las operaciones adecuadas”, afirma Frederick.

Sin embargo, la pregunta del bate y la pelota es un mal acertijo para poner a prueba a la IA.

Es muy conocida en EE.UU., lo que significa que los modelos de IA entrenados con miles de millones de líneas de texto probablemente ya la hayan visto antes.

Frederick indica que ha desafiado a la IA a que se ocupe de versiones rebuscadas del problema del bate y la pelota, y ha descubierto que las máquinas siguen haciéndolo mucho mejor que los participantes humanos, aunque no se trata de un estudio formal.

Problemas novedosos

Si quieres que la IA muestre algo que se parezca más a un razonamiento lógico, necesitas un acertijo completamente nuevo que no esté en los datos de entrenamiento.

Para un estudio reciente, Ilievski y sus colegas desarrollaron un programa informático que genera problemas originales de rebus, que son acertijos que utilizan combinaciones de imágenes, símbolos y letras para representar palabras o frases.

Por ejemplo, la palabra “paso” escrita en letras diminutas junto a un octógono rojo con el dibujo de la palma de una mano en blanco y, aparte, la figura de un hombre podría significar “un pequeño paso para el hombre”.

Ilustración
Estudio Santa Rita
La IA resuelve con facilidad acertijos clásicos como “¿qué tiene llaves pero no puede abrir cerraduras?”, pero la respuesta probablemente esté en los datos de entrenamiento.

Los investigadores luego enfrentaron varios modelos de IA con estos jeroglíficos nunca antes vistos y desafiaron a personas reales con los mismos acertijos.

Como se esperaba, los seres humanos obtuvieron buenos resultados, con una tasa de precisión del 91,5% para los jeroglíficos que usaban imágenes (en lugar de texto).

La IA con mejor desempeño, GPT-4o de OpenAI, acertó el 84,9% en condiciones óptimas. No está mal, pero el Homo sapiens todavía tiene la ventaja.

Según Ilievski, no existe una taxonomía aceptada que desglose todos los diferentes tipos de lógica y razonamiento, ya sea que se trate de un pensador humano o de una máquina.

Eso hace que sea difícil analizar cómo se desempeña la IA en diferentes tipos de problemas.

Otro estudio dividió el razonamiento en algunas categorías útiles.

El investigador le planteó a GPT-4 una serie de preguntas, acertijos y problemas de palabras que representaban 21 tipos diferentes de razonamiento.

Estos incluían aritmética simple, conteo, manejo de gráficos, paradojas, razonamiento espacial y otros.

He aquí un ejemplo, basado en un acertijo de lógica de 1966 llamado la tarea de selección de Wason:

Se colocan siete cartas sobre la mesa, cada una de las cuales tiene un número en un lado y un parche de un solo color en el otro. Las caras de las cartas muestran 50, 16, rojo, amarillo, 23, verde, 30. ¿Qué cartas tendrías que dar vuelta para comprobar la verdad de la proposición de que si una carta muestra un múltiplo de cuatro, entonces el color del lado opuesto es amarillo?

GPT-4 falló miserablemente. La IA dijo que tendrías que dar vuelta las cartas 50, 16, amarilla y 30. Totalmente equivocado.

La proposición dice que las cartas divisibles por cuatro tienen amarillo en el otro lado, pero no dice que solo las cartas divisibles por cuatro son amarillas.

Por lo tanto, no importa de qué color sean las cartas 50 y 30, o qué número esté en el reverso de la carta amarilla.

Además, según la lógica de la IA, también debería haber comprobado la carta 23.

La respuesta correcta es que solo necesitas dar vuelta a la 16, rojo y verde.

Problemas de rebus planteados por Filip Ilievski.
Cortesía de Filip Ilievski
Los investigadores enfrentaron a personas y modelos de IA con estos acertijos en inglés; los humanos superaron a las máquinas, pero puede que sea solo una cuestión de tiempo.

También tuvo problemas con algunas preguntas aún más fáciles:

Supongamos que estoy en el medio de Dakota del Sur y estoy mirando directamente hacia el centro de Texas. ¿Boston está a mi izquierda o a mi derecha?

Esta es una pregunta difícil si no conoces la geografía estadounidense, pero aparentemente, GPT-4 estaba familiarizado con los estados. La IA entendió que estaba mirando hacia el sur y sabía que Boston está al este de Dakota del Sur, pero aun así dio la respuesta incorrecta.

GPT-4 no entendió la diferencia entre izquierda y derecha.

La IA también reprobó la mayoría de las otras preguntas. La conclusión del investigador: “GPT-4 no puede razonar”.

A pesar de todas sus deficiencias, la IA está mejorando. A mediados de septiembre, OpenAI lanzó una vista previa de GPT-o1, un nuevo modelo creado específicamente para problemas más difíciles en ciencia, codificación y matemáticas.

Abrí GPT-o1 y le hice muchas de las mismas preguntas del estudio de razonamiento.

Acertó en la selección de Wason.

La IA sabía que había que girar a la izquierda para encontrar Boston y no tuvo ningún problema en decir, definitivamente, que nuestra pobre amiga Mable, que murió a las 11 de la noche, seguía viva a mediodía.

Hay todavía una variedad de preguntas en las que la IA nos supera.

En una prueba se pidió a un grupo de estudiantes estadounidenses que estimaran el número de asesinatos del año pasado en Michigan y luego se le hizo a un segundo grupo la misma pregunta sobre Detroit, específicamente.

“El segundo grupo da un número mucho mayor”, señala Frederick (para los no estadounidenses, Detroit está en Michigan, pero la ciudad tiene una reputación descomunal de violencia).

“Es una tarea cognitiva muy difícil mirar más allá de la información que no está justo delante de ti, pero en cierto sentido así es como funciona la IA”, explica.

La IA extrae información que ha aprendido en otro lugar.

Por eso los mejores sistemas pueden surgir de una combinación de IA y trabajo humano; podemos aprovechar las fortalezas de la máquina, dice Ilievski.

Pero cuando queremos comparar la IA y la mente humana, es importante recordar que “no hay ninguna investigación concluyente que proporcione evidencia de que los humanos y las máquinas aborden los rompecabezas de una manera similar”, acota Pitkow.

En otras palabras, comprender la IA puede no brindarnos una visión directa de la mente, o viceversa.

Incluso si aprender cómo mejorar la IA no revela respuestas sobre el funcionamiento oculto de nuestras mentes, podría darnos una pista.

“Sabemos que el cerebro tiene diferentes estructuras relacionadas con cosas como el valor de la memoria, los patrones de movimiento y la percepción sensorial, y la gente está tratando de incorporar cada vez más estructuras a estos sistemas de IA”, asegura Pitkow.

“Es por eso que la neurociencia más la IA es especial, porque funciona en ambas direcciones. Un mayor conocimiento del cerebro puede conducir a una mejor IA. Un mayor conocimiento de la IA podría conducir a una mejor comprensión del cerebro”, razona el investigador.

línea gris
BBC

Haz clic aquí para leer más historias de BBC News Mundo.

También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.

Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Iniciar sesión

Registrate
Suscribete para comentar...