Pese a que la presidenta Claudia Sheinbaum aseguró que alrededor de 700 mil vacunas Patria son utilizadas en la campaña invernal de vacunación, el biológico todavía no concluye el proceso necesario para su distribución y aún no está disponible en los hospitales y centros de salud del país.
Cuatro años después de que empezó a ser desarrollada en México para combatir el Covid-19, la Secretaría de Salud (Ssa) reconoce que estos biológicos todavía no están disponibles.
“En este periodo se están utilizando, porque es el periodo de diciembre-enero-febrero”, respondió Sheinbaum en su conferencia matutina al ser cuestionada sobre cuándo se comenzaría a aplicar la vacuna Patria en México, tras cuatro años en los que el gobierno postergó su utilización.
Luego de la declaración de Claudia Sheinbaum, Animal Político buscó a la Ssa para conocer los estados de la República y los centros de salud donde las 700 mil dosis se estarían aplicando en la actual campaña de vacunación, que va de diciembre de 2024 a febrero de 2025. La dependencia informó que la vacuna sí está contemplada en el esquema nacional, aunque aún no está disponible en los centros de vacunación.
“La vacuna Patria sí está considerada para su aplicación en el esquema nacional; sin embargo, en este momento aún no está disponible en los centros de vacunación”, señaló la dependencia por medio de su área de atención a medios de comunicación.
La Ssa agregó que “en cuanto concluya el proceso necesario para su distribución, se informará oportunamente a la población sobre su disponibilidad”.
Animal Político pidió al equipo de comunicación social de la presidenta Sheinbaum una aclaración sobre sus dichos, pero hasta el cierre de la edición no hubo ninguna respuesta.
Desde el 15 de octubre de este año, la presidenta Claudia Sheinbaum aseguró en conferencia de prensa que la vacuna Patria sería utilizada en el actual periodo invernal.
Semanas después, el 6 de noviembre, Rosaura Ruiz, secretaria Ciencia, Humanidades y Tecnología, consideró que la vacuna Patria todavía no estaría lista para ser aplicada en 2024, una declaración que se sumó a las contradicciones en las que el gobierno ha incurrido cuando se refiere a la fecha en la que estará listo el biológico.
El desarrollo de la vacuna Patria comenzó en 2020 por el laboratorio mexicano Avimex, con colaboración del antiguo Consejo Nacional de Ciencia y Tecnología (Conacyt) y otros organismos públicos, como la Universidad Nacional Autónoma de México (UNAM) y el Instituto Politécnico Nacional (IPN).
La vacuna Patria fue presentada por el gobierno mexicano como un esfuerzo para regresar a la vanguardia en la fabricación de estos insumos médicos, pues desde 1999 nuestro país se había rezagado en esta área.
Pese a las buenas intenciones, y luego de cuatro años del inicio de la pandemia de Covid-19, la vacuna elaborada por Avimex sigue sin ser aplicada. De hecho su utilización se ha postergado una y otra vez.
En un primer momento el expresidente Andrés Manuel López Obrador informó que la vacuna Patria podría ser utilizada en 2022. Después el propio Conacyt calculó que las dosis estarían listas en 2023, un dato que fue respaldado por el expresidente.
A principios de este 2024, López Obrador insistió que la vacuna Patria ya estaba terminada y podría ser utilizada en los siguientes meses, pero está por terminar el año y sigue sin estar disponible en los centros de salud del país.
Ya en el nuevo gobierno, la presidenta Claudia Sheinbaum también insistió que las dosis estarían listas para aplicarse este mismo año, una promesa que hasta ahora no parece estar cerca de cumplirse.
La vacuna Patria costó al gobierno mexicano al menos 457 millones 804 mil pesos que fueron aportados por el antiguo Conacyt, según información que esa misma dependencia proporcionó a un ciudadano en la Plataforma Nacional de Transparencia, a través de la solicitud de información 330010924000780.
Este lunes 30 de diciembre, la presidenta Sheinbaum también informó que ya no se destinaron más recursos para la fabricación de la vacuna Patria, pues los niveles de contagio de Covid-19 han disminuido y ya no se requieren tantas dosis.
Claudia Sheinbaum, que está por cumplir cuatro meses como presidenta de México, mantuvo la costumbre de hacer conferencias de prensa matutinas a diario, tal como lo hizo en sus seis años de gobierno López Obrador.
Aunque sus ruedas de prensa son más cortas y sobrias, la presidenta sigue la tendencia de presentar información engañosa, como esta vez ocurrió con su aseveración de que la vacuna Patria ya se está aplicando en la temporada de vacunación invernal.
Según Claudia Sheinbaum, este insumo médico se aplicará principalmente a personas con comorbilidades y adultos mayores.
Hasta el pasado 6 de diciembre, El Sabueso de Animal Político verificó 16 frases en las que Sheinbaum, u otros funcionarios de su gobierno, usaron datos engañosos y falsos.
En las conferencias de prensa matutinas, la presidenta y su equipo de trabajo han dicho información engañosa sobre temas de seguridad, migración, Poder Judicial o el Proyecto de Presupuesto de Egresos de la Federación 2025.
Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más del avance de la informática.
La inteligencia artificial (IA) está marcando un antes y un después en la historia de la tecnología, y 2025 traerá más sorpresas.
No es fácil hacer una predicción de lo que nos espera, pero sí destacar tendencias y retos que definirán el futuro inmediato de la IA para el próximo año. Entre ellos, el desafío de los llamados “médico centauro” o “profesor centauro”, clave para los que estamos inmersos en el desarrollo de la IA.
La IA se ha convertido en una herramienta fundamental para abordar grandes desafíos científicos. Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más de lo que ya lo están haciendo.
AlphaFold (que mereció el Nobel en 2024) ha determinado la estructura tridimensional de 200 millones de proteínas, prácticamente todas las que se conocen.
Su desarrollo representa un avance significativo en biología molecular y medicina. Esto facilita el diseño de nuevos fármacos y tratamientos, y 2025 marcará la eclosión de su uso (de libre acceso, por cierto).
Por su parte, ClimateNet utiliza redes neuronales artificiales para realizar análisis espaciales y temporales precisos de grandes volúmenes de datos climáticos, esencial para entender y mitigar el calentamiento global.
El uso de ClimateNet será fundamental en 2025 para predecir eventos climáticos extremos con mayor exactitud.
La justicia y el diagnóstico médico se consideran escenarios de alto riesgo. En ellos es más urgente que en ningún otro ámbito establecer sistemas para que el humano tenga siempre la última decisión.
Los expertos en inteligencia artificial trabajamos para garantizar la confianza del usuario, que el sistema sea transparente, que proteja a las personas y que el humano esté en el centro de las decisiones.
Aquí entra en escena el reto del “doctor centauro”. Los centauros son modelos híbridos humano-algoritmo que combinan la analítica formal propia de las máquinas y la intuición humana.
Un “centauro doctor + un sistema de IA” mejora las decisiones que toman los humanos por su cuenta y los sistemas de IA por la suya.
Un médico será siempre quien dé al botón de aceptar, y un juez quien determine si la sentencia es justa.
Los agentes de inteligencia artificial autónomos basados en modelos de lenguaje son el objetivo para 2025 de las grandes empresas tecnológicas como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) o Anthropic (Claude).
Hasta ahora, estos sistemas de inteligencia artificial hacen recomendaciones, en 2025 se desea que tomen decisiones por nosotros.
Los agentes de IA realizarán actuaciones personalizadas y precisas en tareas que no sean de alto riesgo, siempre ajustadas a las necesidades y preferencias del usuario. Por ejemplo: comprarle un billete de autobús, actualizar el calendario, recomendarle una compra concreta y realizarla.
También podrán contestar nuestro correo electrónico, tarea que nos lleva mucho tiempo al día.
En esta línea, OpenAI ha lanzado AgentGPT y Google Gemini 2.0, plataformas para el desarrollo de agentes de IA autónomos.
Por su parte, Anthropic propone dos versiones actualizadas de su modelo de lenguaje Claude: Haiku y Sonnet.
Te interesa: El ‘Mozart del código’: quién es el niño prodigio de 7 años al que una empresa rusa le ofreció empleo
Sonnet puede usar una computadora como lo haría una persona. Esto significa que puede mover el cursor, hacer clic en botones, escribir texto y navegar por pantallas.
También habilita una funcionalidad para automatizar nuestro escritorio. Permite a los usuarios conceder a Claude acceso y control sobre ciertos aspectos de sus computadoras personales, como lo hacen las personas.
Esta capacidad bautizada como “uso de la computadora” podría revolucionar la manera en que automatizamos y manejamos nuestras tareas cotidianas.
En el comercio electrónico, los agentes de IA autónomos podrán hacer una compra para el usuario.
Darán asesoramiento en la toma de decisiones empresariales, gestionarán inventario de forma automática, trabajarán con proveedores de todo tipo, incluidos proveedores de logística, para optimizar el proceso de reabastecimiento, actualizarán los estados de envío hasta generar facturas, etc.
En el sector de la educación, podrán personalizar planes de estudio para estudiantes. Identificarán áreas de mejora y sugerirán recursos de aprendizaje adecuados.
Avanzaremos hacia el concepto de “profesor centauro”, ayudado por agentes de IA en educación.
La noción de agentes autónomos suscita interrogantes profundos sobre el concepto de “autonomía humana y control humano”. ¿Qué implica en realidad la “autonomía”?
Estos agentes de IA introducirán la necesidad de una preaprobación. ¿Qué decisiones permitiremos que estas entidades tomen sin nuestra aprobación directa (sin el control humano)?
Nos enfrentamos a un dilema crucial: saber cuándo es mejor ser “automáticos” en el uso de agentes de IA autónomos y cuándo necesitamos tomar la decisión, es decir, recurrir “al control humano” o la “interacción humano e IA”.
El concepto de preaprobación va a adquirir una gran relevancia en el uso de los agentes de IA autónomos.
2025 será el año de la expansión de modelos de lenguaje pequeños y abiertos (SLM, siglas de small language models).
Estos son modelos de lenguaje que en un futuro podrán estar instalados en un dispositivo móvil, permitirán controlar nuestro teléfono mediante voz de forma mucho más personal e inteligente que con asistentes como Siri y responderán al correo electrónico por nosotros.
Los SLM son compactos y más eficientes, no requieren servidores masivos para su uso. Se trata de soluciones de código abierto que se pueden entrenar para escenarios de aplicación concretos.
Pueden ser más respetuosos con la privacidad de los usuarios y resultan perfectos para su uso en computadoras de coste limitado y teléfonos celulares.
Serán de interés para para su adopción empresarial. Ello será factible porque los SLM tendrán un coste menor, más transparencia y, potencialmente, más auditabilidad.
Los SLM harán posible la integración de aplicaciones para recomendaciones médicas, en la educación, para traducción automática, resumen de textos o corrección ortográfica y gramatical instantánea. Todo desde pequeños dispositivos sin necesidad de conexión a internet.
Entre sus importantes ventajas sociales, pueden facilitar el uso de modelos de lenguaje en educación en áreas desfavorecidas.
Pueden mejorar el acceso a diagnósticos y recomendaciones con modelos SLM especializados en salud en zonas con recursos limitados.
Su desarrollo es fundamental para apoyar a comunidades con menos recursos.
Pueden acelerar la presencia del “profesor o doctor centauro” en cualquier área del planeta.
El 13 de junio de 2024 se aprobó la regulación europea de IA, que en dos años entrará en vigor. Durante 2025 se crearán normas y estándares de evaluación, incluyendo normas ISO e IEEE.
Previamente, en 2020, la Comisión Europea publicó la primera Lista de Evaluación para la IA Confiable (ALTAI). Este listado incluye siete requisitos: agencia y supervisión humanas, robustez técnica y seguridad, gobernanza de datos y privacidad, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad. Y constituyen la base de las futuras normas europeas.
Contar con normas de evaluación es clave para auditar los sistemas de IA. Veamos un ejemplo: ¿qué sucede si un vehículo autónomo tiene un accidente? ¿Quién asume la responsabilidad? El marco normativo abordará cuestiones como estas.
Dario Amodei, CEO de Anthropic, en su ensayo titulado Máquinas de Amor y Gracia (Machines of Loving Grace, octubre 2024), fija la visión de las grandes empresas tecnológicas: “Creo que es fundamental tener una visión de futuro realmente inspiradora, y no sólo un plan para apagar incendios“.
Existen visiones contrapuestas de otros pensadores más críticos. Por ejemplo, la representada por Yuval Noah Harari y debatida en su libro Nexus.
Por ello, necesitamos una regulación. Esta aporta el equilibrio necesario para el desarrollo de una IA confiable y responsable y poder avanzar en los grandes retos para el bien de la humanidad destacados por Amodei.
Y junto a ellos, tener los mecanismos de gobernanza necesarios como “plan para apagar incendios”.
*Francisco Herrera Triguero es catedrático de Inteligencia Artificial en la Universidad de Granada yt director del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional de España.
*Este artículo fue publicado en The Conversation y reproducido bajo la licencia Creative Commons. Haz clic aquí para leer la versión original.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.