El cine de terror nos ha dado a varios personajes icónicos y desde 2009 tenemos a Esther, la asesina con cara de inocente con la que definitivamente no querrías cruzarte. Ahora que llegó la precuela, no podemos dejar de pensar en la historia real de La Huérfana que dio pie a esta saga.
Así es, este es de los casos en los que se usó un caso real para inspirar una película de terror y si no conoces quién es Barbora Skrlova agárrate, que esto se pone denso.
En 2009 salió la primera película de horror psicológico donde conocemos a Esther, interpretada por Isabelle Fuhrman. Y aunque desde el inicio parece bastante siniestra, nos voló la cabeza el descubrir la verdad detrás de ella.
Y es que aunque parece que es una niña que siempre busca a una familia que la acoja, en realidad es una mujer de 33 años que tiene un trastorno hipofisario que la hace parecer mucho más joven de lo que realmente es.
Además, Esther es maestra de la manipulación y del disfraz, pues realmente nadie sospecha que los crímenes a su alrededor son causados por ella.
Aunque esta película fue dirigida por Jaume Collet-Serra, fue escrita por David Leslie Johnson basándose en una historia de Alex Mace. Y sí, resulta que ambos se inspiraron en un caso que empezaba a ser medio sonado en 2007 y que resultó ser mucho más macabro.
La mujer en la que se inspiraron para desarrollar a Esther es en realidad Barbora Skrlová, quien sufre hipopituitarismo, una enfermedad que le permitía verse como una niña de 13 años a pesar de tener más de 30.
El hipopituitarismo es una afección que provoca que la glándula hipófisis no produzca las cantidades necesarias de hormonas para el crecimiento.
Gran parte de su vida adulta se hizo pasar por una niña y engañó a varias personas para que la adoptaran. Pero la historia real de La Huérfana nos lleva a República Checa en 2007.
Ahí es donde entran en el caso dos hermanas: Klara y Katherina Mauerová.
La primera tenía dos hijos –de 8 y 10 años– y se había separado de su marido, por lo que se mudó con su hermana Katherina.
En noticias de la época no está del todo claro cómo es que Barbora entró en sus vidas, pero terminaron “adoptándola“, pues se mudó con ellas y los. Y sí, desde el inicio se dice que luchó por quitarles toda la atención a los niños.
Hay notas de la BBC, Daily Mail y de Radio Prague International del 2008 donde se dice que Barbora Skrlová pertenecía a un culto (en algunos lados se dice que hasta su padre era el líder) que se había separado de otro llamado El Movimiento Grial.
Esto, además de ser tenebroso, cobra mucha importancia con lo que veníamos platicando porque, supuestamente, Barbora convenció a las Klara y Katherina que se unieran a este grupo.
Lo más macabro es que este culto abogaba por cosas como el canibalismo, el abuso sexual y el incesto.
Las dos mujeres aceptaron unirse y, lo peor del caso, es que las víctimas fueron los hijos Klara: Jakub, de 10, y Ondrej, de 8 años. Les hicieron toda clase de cosas a esos niños y hasta mandaron construir una jaula de hierro para encerrarlos ahí.
Incluso, cuando el caso llegó a los juzgados se supo que obligaban a los niños a cortarse pedazos de su propia carne para comérselos.
Para vigilar a los menores instalaron un monitor de bebés, pero sus vecinos instalaron el mismo sistema para su hijo y eso fue lo que provocó que se supiera la verdad.
De acuerdo a Radio Prague International, el hombre encargado de instalar el sistema de esta cámara/monitor descubrió que al encender el aparato este captaba la señal de otro que se ubicaba en la casa de al lado.
Supuestamente pudo ver las imágenes de los niños encerrados, desnudos y lastimados en la jaula. De inmediato llamaron a la policía e iniciaron con las investigaciones.
La policía llegó de inmediato al lugar y detuvo a las dos mujeres adultas: Klara y Katherina Mauerová. Sin embargo, junto a los niños enjaulados también estaba una niña gritando por ayuda.
Esa niña era Barbora, quien dijo a la policía que se llamaba Anika (en algunos medios citado como “Anna”) y que había sido adoptada por Klara y también había sufrido maltrato.
Sin embargo, entre el traslado al hospital y las investigaciones, Barbora/Anika desapareció. Se sabe que con ayuda de la secta escapó hasta Noruega y se hizo pasar por una adolescente de 14 años.
Sin embargo, al poco tiempo se cortó el cabello y comenzó a hacerse pasar por un niño de 13 años llamado “Adam”.
En una nota de Reuters, de enero del 2008, se dice que Barbora Skrlová logró engañar a policías, compañeros y hasta a trabajadoras de cuidado infantil durante cuatro meses con esta identidad.
“Reaccionamos al comportamiento de Adam, pero no es fácil saberlo. Los niños a esa edad pueden ser muy diferentes”, dijo el director de la escuela al periódico de Oslo Dagbladet en su momento sobre si jamás habían sospechado que Adam era una mujer de más de 30 años.
De acuerdo a CBS News, a mediados de diciembre del 2007 “Adam” estaba en un hogar para niños del cual escapó, lo que hizo que la policía comenzara a buscarle.
Esto coincidió con que la Policía Checa había enviado una orden de captura internacional y Barbora logró ser identificada y detenida.
Para no dormir: Estas 7 películas de terror están inspiradas en historias reales
La historia real de La Huérfana llegó hasta los juzgados, donde se le acusaba junto a Klara y Katherina Mauerová y otras tres personas de la secta, del abuso cometido a los dos menores de edad.
Klara, la madre de los niños, fue condenada a 9 años de prisión por sus crímenes y enviada a una prisión de alta seguridad.
Mientras que Katherina, la tía, fue enviada 10 de prisión; y Barbora solo a cinco.
Sin embargo, en 2011 y tras dos años de prisión apeló y quedó en libertad. Desde entonces es un misterio su vida y su paradero.
Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más del avance de la informática.
La inteligencia artificial (IA) está marcando un antes y un después en la historia de la tecnología, y 2025 traerá más sorpresas.
No es fácil hacer una predicción de lo que nos espera, pero sí destacar tendencias y retos que definirán el futuro inmediato de la IA para el próximo año. Entre ellos, el desafío de los llamados “médico centauro” o “profesor centauro”, clave para los que estamos inmersos en el desarrollo de la IA.
La IA se ha convertido en una herramienta fundamental para abordar grandes desafíos científicos. Áreas como la salud, la astronomía y la exploración espacial, la neurociencia o el cambio climático, entre otras, se beneficiarán aún más de lo que ya lo están haciendo.
AlphaFold (que mereció el Nobel en 2024) ha determinado la estructura tridimensional de 200 millones de proteínas, prácticamente todas las que se conocen.
Su desarrollo representa un avance significativo en biología molecular y medicina. Esto facilita el diseño de nuevos fármacos y tratamientos, y 2025 marcará la eclosión de su uso (de libre acceso, por cierto).
Por su parte, ClimateNet utiliza redes neuronales artificiales para realizar análisis espaciales y temporales precisos de grandes volúmenes de datos climáticos, esencial para entender y mitigar el calentamiento global.
El uso de ClimateNet será fundamental en 2025 para predecir eventos climáticos extremos con mayor exactitud.
La justicia y el diagnóstico médico se consideran escenarios de alto riesgo. En ellos es más urgente que en ningún otro ámbito establecer sistemas para que el humano tenga siempre la última decisión.
Los expertos en inteligencia artificial trabajamos para garantizar la confianza del usuario, que el sistema sea transparente, que proteja a las personas y que el humano esté en el centro de las decisiones.
Aquí entra en escena el reto del “doctor centauro”. Los centauros son modelos híbridos humano-algoritmo que combinan la analítica formal propia de las máquinas y la intuición humana.
Un “centauro doctor + un sistema de IA” mejora las decisiones que toman los humanos por su cuenta y los sistemas de IA por la suya.
Un médico será siempre quien dé al botón de aceptar, y un juez quien determine si la sentencia es justa.
Los agentes de inteligencia artificial autónomos basados en modelos de lenguaje son el objetivo para 2025 de las grandes empresas tecnológicas como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) o Anthropic (Claude).
Hasta ahora, estos sistemas de inteligencia artificial hacen recomendaciones, en 2025 se desea que tomen decisiones por nosotros.
Los agentes de IA realizarán actuaciones personalizadas y precisas en tareas que no sean de alto riesgo, siempre ajustadas a las necesidades y preferencias del usuario. Por ejemplo: comprarle un billete de autobús, actualizar el calendario, recomendarle una compra concreta y realizarla.
También podrán contestar nuestro correo electrónico, tarea que nos lleva mucho tiempo al día.
En esta línea, OpenAI ha lanzado AgentGPT y Google Gemini 2.0, plataformas para el desarrollo de agentes de IA autónomos.
Por su parte, Anthropic propone dos versiones actualizadas de su modelo de lenguaje Claude: Haiku y Sonnet.
Te interesa: El ‘Mozart del código’: quién es el niño prodigio de 7 años al que una empresa rusa le ofreció empleo
Sonnet puede usar una computadora como lo haría una persona. Esto significa que puede mover el cursor, hacer clic en botones, escribir texto y navegar por pantallas.
También habilita una funcionalidad para automatizar nuestro escritorio. Permite a los usuarios conceder a Claude acceso y control sobre ciertos aspectos de sus computadoras personales, como lo hacen las personas.
Esta capacidad bautizada como “uso de la computadora” podría revolucionar la manera en que automatizamos y manejamos nuestras tareas cotidianas.
En el comercio electrónico, los agentes de IA autónomos podrán hacer una compra para el usuario.
Darán asesoramiento en la toma de decisiones empresariales, gestionarán inventario de forma automática, trabajarán con proveedores de todo tipo, incluidos proveedores de logística, para optimizar el proceso de reabastecimiento, actualizarán los estados de envío hasta generar facturas, etc.
En el sector de la educación, podrán personalizar planes de estudio para estudiantes. Identificarán áreas de mejora y sugerirán recursos de aprendizaje adecuados.
Avanzaremos hacia el concepto de “profesor centauro”, ayudado por agentes de IA en educación.
La noción de agentes autónomos suscita interrogantes profundos sobre el concepto de “autonomía humana y control humano”. ¿Qué implica en realidad la “autonomía”?
Estos agentes de IA introducirán la necesidad de una preaprobación. ¿Qué decisiones permitiremos que estas entidades tomen sin nuestra aprobación directa (sin el control humano)?
Nos enfrentamos a un dilema crucial: saber cuándo es mejor ser “automáticos” en el uso de agentes de IA autónomos y cuándo necesitamos tomar la decisión, es decir, recurrir “al control humano” o la “interacción humano e IA”.
El concepto de preaprobación va a adquirir una gran relevancia en el uso de los agentes de IA autónomos.
2025 será el año de la expansión de modelos de lenguaje pequeños y abiertos (SLM, siglas de small language models).
Estos son modelos de lenguaje que en un futuro podrán estar instalados en un dispositivo móvil, permitirán controlar nuestro teléfono mediante voz de forma mucho más personal e inteligente que con asistentes como Siri y responderán al correo electrónico por nosotros.
Los SLM son compactos y más eficientes, no requieren servidores masivos para su uso. Se trata de soluciones de código abierto que se pueden entrenar para escenarios de aplicación concretos.
Pueden ser más respetuosos con la privacidad de los usuarios y resultan perfectos para su uso en computadoras de coste limitado y teléfonos celulares.
Serán de interés para para su adopción empresarial. Ello será factible porque los SLM tendrán un coste menor, más transparencia y, potencialmente, más auditabilidad.
Los SLM harán posible la integración de aplicaciones para recomendaciones médicas, en la educación, para traducción automática, resumen de textos o corrección ortográfica y gramatical instantánea. Todo desde pequeños dispositivos sin necesidad de conexión a internet.
Entre sus importantes ventajas sociales, pueden facilitar el uso de modelos de lenguaje en educación en áreas desfavorecidas.
Pueden mejorar el acceso a diagnósticos y recomendaciones con modelos SLM especializados en salud en zonas con recursos limitados.
Su desarrollo es fundamental para apoyar a comunidades con menos recursos.
Pueden acelerar la presencia del “profesor o doctor centauro” en cualquier área del planeta.
El 13 de junio de 2024 se aprobó la regulación europea de IA, que en dos años entrará en vigor. Durante 2025 se crearán normas y estándares de evaluación, incluyendo normas ISO e IEEE.
Previamente, en 2020, la Comisión Europea publicó la primera Lista de Evaluación para la IA Confiable (ALTAI). Este listado incluye siete requisitos: agencia y supervisión humanas, robustez técnica y seguridad, gobernanza de datos y privacidad, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad. Y constituyen la base de las futuras normas europeas.
Contar con normas de evaluación es clave para auditar los sistemas de IA. Veamos un ejemplo: ¿qué sucede si un vehículo autónomo tiene un accidente? ¿Quién asume la responsabilidad? El marco normativo abordará cuestiones como estas.
Dario Amodei, CEO de Anthropic, en su ensayo titulado Máquinas de Amor y Gracia (Machines of Loving Grace, octubre 2024), fija la visión de las grandes empresas tecnológicas: “Creo que es fundamental tener una visión de futuro realmente inspiradora, y no sólo un plan para apagar incendios“.
Existen visiones contrapuestas de otros pensadores más críticos. Por ejemplo, la representada por Yuval Noah Harari y debatida en su libro Nexus.
Por ello, necesitamos una regulación. Esta aporta el equilibrio necesario para el desarrollo de una IA confiable y responsable y poder avanzar en los grandes retos para el bien de la humanidad destacados por Amodei.
Y junto a ellos, tener los mecanismos de gobernanza necesarios como “plan para apagar incendios”.
*Francisco Herrera Triguero es catedrático de Inteligencia Artificial en la Universidad de Granada yt director del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional de España.
*Este artículo fue publicado en The Conversation y reproducido bajo la licencia Creative Commons. Haz clic aquí para leer la versión original.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.
Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.