El programa IMSS-Bienestar tiene sus raíces en la reforma a la Ley del Seguro Social de 1973, que otorgó al Instituto Mexicano del Seguro Social (IMSS) la facultad de brindar servicios de salud a personas sin acceso a seguridad social, especialmente aquellas en condiciones de pobreza extrema y marginación. Como resultado de esta reforma, en 1979 se creó el Programa IMSS-Coplamar mediante un convenio entre el IMSS y la Coordinación General del Plan Nacional de Zonas Deprimidas y Grupos Marginados (Coplamar) de la Presidencia de la República.
Este programa determinó requisitos de afiliación y buscó aprovechar la infraestructura existente del IMSS en todo el país, particularmente en áreas rurales, para ofrecer servicios de salud en lugares donde la entonces Secretaría de Salubridad y Asistencia Social —actualmente Secretaría de Salud— no tenía presencia.
Desde hace 45 años el programa siempre ha preservado en su nombre las siglas del IMSS, pero ha cambiado su apellido en función de la denominación de la política federal en turno para combatir la pobreza —IMSS-Solidaridad, IMSS-Progresa, IMSS-Oportunidades, IMSS-Prospera—; desde la administración del expresidente López Obrador se le llamó IMSS-Bienestar.
Actualmente el programa opera en 19 entidades de la República, otorga servicios médicos a 11.6 millones de personas que viven en zonas rurales o urbanas marginadas. Según el Informe de Labores del IMSS 2023-2024, cuenta con una infraestructura de 3,993 unidades del primer nivel de atención (3,632 unidades médicas rurales, 184 brigadas de salud, 140 unidades médicas móviles y 37 centros de atención rural obstétrica) y 82 unidades del segundo nivel de atención.
Además el Programa IMSS-Bienestar tiene 27,094 trabajadores, de los cuales 12,169 son de personal de enfermería, 7,684 de personal médico y 7,241 de personal paramédico, administrativo y de servicios generales. Para este año se le asignó con un presupuesto de 21 mil millones de pesos. El problema es que el Proyecto de Presupuesto de Egresos de la Federación 2025, enviado el viernes pasado a la Cámara de Diputados, ya no se contempla presupuesto para dicho programa y ni siquiera se establece mediante algún transitorio el proceso bajo el cual se llevará a cabo la desaparición de este programa vital, sobre todo, en localidades marginadas.
Es importante distinguir que este es un programa presupuestal al que siempre, desde su creación, se le asignaban recursos vía el Ramo 19 “Aportaciones a Seguridad Social”. Por lo que no debe confundirse con el Organismo Público Descentralizado creado en 2023 y también llamado IMSS-Bienestar, cuya función es brindar servicios de salud a la población sin seguridad social y el cual recibe presupuesto vía el Ramo 47 “Entidades no Sectorizadas”.
Pese a que, tanto el programa IMSS-Bienestar como el OPD IMSS-Bienestar tienen por objeto brindar servicios de salud a la población sin seguridad social, en distintos niveles, el programa IMSS-Bienestar asegura el acceso a los mismos en aquellas localidades en donde ni la Secretaría de Salud ni el OPD IMSS-Bienestar tienen recursos humanos y materiales para atender a la población. Solo imaginemos una mujer embarazada en una comunidad de Veracruz, dónde la única clínica disponible ahí es financiada por el programa IMSS-Bienestar. ¿Quién le brindara la atención si en 2025 esa clínica cierra por la falta de recursos presupuestales? Justo eso es lo que debe aclararse dentro del propio presupuesto, por lo menos mediante un artículo transitorio.
Esperemos que durante la discusión del presupuesto 2025, se realicen las correcciones necesarias para no solo dar certeza a los beneficiarios del programa sino también a los casi 30 mil trabajadores con los que cuenta y el destino de los recursos materiales que dispone. Al tiempo.
Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más del avance de la informática.
La inteligencia artificial (IA) está marcando un antes y un después en la historia de la tecnología, y 2025 traerá más sorpresas.
No es fácil hacer una predicción de lo que nos espera, pero sí destacar tendencias y retos que definirán el futuro inmediato de la IA para el próximo año. Entre ellos, el desafío de los llamados “médico centauro” o “profesor centauro”, clave para los que estamos inmersos en el desarrollo de la IA.
La IA se ha convertido en una herramienta fundamental para abordar grandes desafíos científicos. Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más de lo que ya lo están haciendo.
AlphaFold (que mereció el Nobel en 2024) ha determinado la estructura tridimensional de 200 millones de proteínas, prácticamente todas las que se conocen.
Su desarrollo representa un avance significativo en biología molecular y medicina. Esto facilita el diseño de nuevos fármacos y tratamientos, y 2025 marcará la eclosión de su uso (de libre acceso, por cierto).
Por su parte, ClimateNet utiliza redes neuronales artificiales para realizar análisis espaciales y temporales precisos de grandes volúmenes de datos climáticos, esencial para entender y mitigar el calentamiento global.
El uso de ClimateNet será fundamental en 2025 para predecir eventos climáticos extremos con mayor exactitud.
La justicia y el diagnóstico médico se consideran escenarios de alto riesgo. En ellos es más urgente que en ningún otro ámbito establecer sistemas para que el humano tenga siempre la última decisión.
Los expertos en inteligencia artificial trabajamos para garantizar la confianza del usuario, que el sistema sea transparente, que proteja a las personas y que el humano esté en el centro de las decisiones.
Aquí entra en escena el reto del “doctor centauro”. Los centauros son modelos híbridos humano-algoritmo que combinan la analítica formal propia de las máquinas y la intuición humana.
Un “centauro doctor + un sistema de IA” mejora las decisiones que toman los humanos por su cuenta y los sistemas de IA por la suya.
Un médico será siempre quien dé al botón de aceptar, y un juez quien determine si la sentencia es justa.
Los agentes de inteligencia artificial autónomos basados en modelos de lenguaje son el objetivo para 2025 de las grandes empresas tecnológicas como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) o Anthropic (Claude).
Hasta ahora, estos sistemas de inteligencia artificial hacen recomendaciones, en 2025 se desea que tomen decisiones por nosotros.
Los agentes de IA realizarán actuaciones personalizadas y precisas en tareas que no sean de alto riesgo, siempre ajustadas a las necesidades y preferencias del usuario. Por ejemplo: comprarle un billete de autobús, actualizar el calendario, recomendarle una compra concreta y realizarla.
También podrán contestar nuestro correo electrónico, tarea que nos lleva mucho tiempo al día.
En esta línea, OpenAI ha lanzado AgentGPT y Google Gemini 2.0, plataformas para el desarrollo de agentes de IA autónomos.
Por su parte, Anthropic propone dos versiones actualizadas de su modelo de lenguaje Claude: Haiku y Sonnet.
Te interesa: El ‘Mozart del código’: quién es el niño prodigio de 7 años al que una empresa rusa le ofreció empleo
Sonnet puede usar una computadora como lo haría una persona. Esto significa que puede mover el cursor, hacer clic en botones, escribir texto y navegar por pantallas.
También habilita una funcionalidad para automatizar nuestro escritorio. Permite a los usuarios conceder a Claude acceso y control sobre ciertos aspectos de sus computadoras personales, como lo hacen las personas.
Esta capacidad bautizada como “uso de la computadora” podría revolucionar la manera en que automatizamos y manejamos nuestras tareas cotidianas.
En el comercio electrónico, los agentes de IA autónomos podrán hacer una compra para el usuario.
Darán asesoramiento en la toma de decisiones empresariales, gestionarán inventario de forma automática, trabajarán con proveedores de todo tipo, incluidos proveedores de logística, para optimizar el proceso de reabastecimiento, actualizarán los estados de envío hasta generar facturas, etc.
En el sector de la educación, podrán personalizar planes de estudio para estudiantes. Identificarán áreas de mejora y sugerirán recursos de aprendizaje adecuados.
Avanzaremos hacia el concepto de “profesor centauro”, ayudado por agentes de IA en educación.
La noción de agentes autónomos suscita interrogantes profundos sobre el concepto de “autonomía humana y control humano”. ¿Qué implica en realidad la “autonomía”?
Estos agentes de IA introducirán la necesidad de una preaprobación. ¿Qué decisiones permitiremos que estas entidades tomen sin nuestra aprobación directa (sin el control humano)?
Nos enfrentamos a un dilema crucial: saber cuándo es mejor ser “automáticos” en el uso de agentes de IA autónomos y cuándo necesitamos tomar la decisión, es decir, recurrir “al control humano” o la “interacción humano e IA”.
El concepto de preaprobación va a adquirir una gran relevancia en el uso de los agentes de IA autónomos.
2025 será el año de la expansión de modelos de lenguaje pequeños y abiertos (SLM, siglas de small language models).
Estos son modelos de lenguaje que en un futuro podrán estar instalados en un dispositivo móvil, permitirán controlar nuestro teléfono mediante voz de forma mucho más personal e inteligente que con asistentes como Siri y responderán al correo electrónico por nosotros.
Los SLM son compactos y más eficientes, no requieren servidores masivos para su uso. Se trata de soluciones de código abierto que se pueden entrenar para escenarios de aplicación concretos.
Pueden ser más respetuosos con la privacidad de los usuarios y resultan perfectos para su uso en computadoras de coste limitado y teléfonos celulares.
Serán de interés para para su adopción empresarial. Ello será factible porque los SLM tendrán un coste menor, más transparencia y, potencialmente, más auditabilidad.
Los SLM harán posible la integración de aplicaciones para recomendaciones médicas, en la educación, para traducción automática, resumen de textos o corrección ortográfica y gramatical instantánea. Todo desde pequeños dispositivos sin necesidad de conexión a internet.
Entre sus importantes ventajas sociales, pueden facilitar el uso de modelos de lenguaje en educación en áreas desfavorecidas.
Pueden mejorar el acceso a diagnósticos y recomendaciones con modelos SLM especializados en salud en zonas con recursos limitados.
Su desarrollo es fundamental para apoyar a comunidades con menos recursos.
Pueden acelerar la presencia del “profesor o doctor centauro” en cualquier área del planeta.
El 13 de junio de 2024 se aprobó la regulación europea de IA, que en dos años entrará en vigor. Durante 2025 se crearán normas y estándares de evaluación, incluyendo normas ISO e IEEE.
Previamente, en 2020, la Comisión Europea publicó la primera Lista de Evaluación para la IA Confiable (ALTAI). Este listado incluye siete requisitos: agencia y supervisión humanas, robustez técnica y seguridad, gobernanza de datos y privacidad, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad. Y constituyen la base de las futuras normas europeas.
Contar con normas de evaluación es clave para auditar los sistemas de IA. Veamos un ejemplo: ¿qué sucede si un vehículo autónomo tiene un accidente? ¿Quién asume la responsabilidad? El marco normativo abordará cuestiones como estas.
Dario Amodei, CEO de Anthropic, en su ensayo titulado Máquinas de Amor y Gracia (Machines of Loving Grace, octubre 2024), fija la visión de las grandes empresas tecnológicas: “Creo que es fundamental tener una visión de futuro realmente inspiradora, y no sólo un plan para apagar incendios“.
Existen visiones contrapuestas de otros pensadores más críticos. Por ejemplo, la representada por Yuval Noah Harari y debatida en su libro Nexus.
Por ello, necesitamos una regulación. Esta aporta el equilibrio necesario para el desarrollo de una IA confiable y responsable y poder avanzar en los grandes retos para el bien de la humanidad destacados por Amodei.
Y junto a ellos, tener los mecanismos de gobernanza necesarios como “plan para apagar incendios”.
*Francisco Herrera Triguero es catedrático de Inteligencia Artificial en la Universidad de Granada yt director del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional de España.
*Este artículo fue publicado en The Conversation y reproducido bajo la licencia Creative Commons. Haz clic aquí para leer la versión original.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.