El exfutbolista Gerard Piqué y Clara Chía supuestamente están en la dulce espera, por lo que se compartió cómo se verían sus hijos según la inteligencia artificial (IA). Más de una opción de rostros se conocieron, ya que la tecnología empleó varias imágenes compartidas de la pareja en línea para crear diversos resultados.
Lo llamativo de los resultados de cómo lucirán los hijos de Piqué y la joven de 23 años es la similitud con Sasha y Milán, los hijos del exjugador del Barcelona con Shakira. Por el hecho de que los resultados compartidos tratan de niños de 8 a 11 años, edad actual de los hijos de la barranquillera.
Asimismo, los hijos de Piqué y Clara tendrán mayormente el cabello castaño, ojos verdes y piel blanca. Para la opción de niñas, las pequeñas serían rubias, con rasgos muy marcados a los de Clara Chía. En la versión de niño como niña, comparten la belleza de Piqué y Chía.
Leé también: Larissa Riquelme y su conmovedor mensaje de amor propio
Ante los resultados compartidos en línea de cómo se verían los hijos de Clara y Piqué se inició un debate en redes, ya que varios indicaron que las muestras eran similares o idénticas a las fotografías del exjugador español en su infancia, mientras que otros opinaron que sería el “karma” para Chía tener a hijos iguales a Sasha y Milán, para recordarse de Shakira.
Hay que mencionar que Chía y el empresario de 36 años fueron vistos días atrás en una farmacia de Barcelona (España) comprando pruebas de embarazo, lo que desembocó en rumores de embarazo. Así también, la mediática pareja habló supuestamente de planes de matrimonio en un popular restaurante de la mencionada ciudad, donde los presentes oyeron su planificación de pisar el altar.
Te puede interesar: “Estoy súper feliz y ansiosa”: Aye Alfonso celebra primer viaje a México
Dejanos tu comentario
Los milagros se hacen con ciencia
Por: Adelaida Alcaraz
Cuando en mayo el científico sudafricano Adam Pantanowitz aterrizó en Paraguay para la segunda edición de FutureX powered by Singularity, no solo trajo innovación sino que también esperanza para personas que merecen recuperar autonomía plena de salud. Mostró cómo en tiempo real se puede controlar un brazo robótico con la mente y hasta transmitir pensamientos a través de internet.
La innovación hoy compite con la ciencia ficción. No tiene limitaciones, ni siquiera las del cuerpo humano. Desde Sudáfrica, y en el marco de la segunda edición del FutureX powered by Singularity - impulsado por itti, en alianza con Singularity University de Silicon Valley y realizado en el Centro de Convenciones Conmebol-, el científico y emprendedor tecnológico Adam Pantanowitz llegó a Paraguay para demostrar que lo que alguna vez pareció imposible, como controlar un brazo robótico con la mente o transmitir pensamientos en vivo por internet, hoy ya es realidad.
Tras su disertación ante más de 1.000 líderes, emprendedores y científicos, Adam, quien es figura clave de la Singularity University y uno de los referentes mundiales en interfaces cerebro-computadora y biotecnología aplicada, conversó en exclusiva con FOCO sobre sus proyectos más disruptivos y su visión para el futuro.
Uno de sus inventos más resonantes, y con el que conquistó a los participantes durante el evento, es el Brainternet. Se trata de una tecnología que permite transmitir en tiempo real la actividad cerebral a la red. “Queríamos probar que una interfaz bidireccional entre el cerebro y el internet es posible. Y no solo es posible, sino que redefine cómo interactuamos con el mundo, especialmente en medicina”, explicó.
La idea, según él, no es solo diagnóstica, sino transformadora, pues gracias a este descubrimiento es posible darle autonomía a personas con discapacidades para que puedan interactuar con su entorno usando solo sus pensamientos, por lo que para la medicina es un gran avance y resulta una aliada indiscutible.
Tecnología con propósito. Hoy día se cree que para concretar estas creaciones se necesita de mucha inversión. Sin embargo, esto no es así. Una muestra de ello son los primeros prototipos de Adam que se construyeron con apenas USD 30.
El especialista contó que lideró el desarrollo de soluciones como sillas de ruedas controladas por la mirada y prótesis robóticas guiadas por impulsos neuronales. ¿El motor detrás? La innovación con propósito.
Según el científico-emprendedor, la clave para convertir ideas radicales en realidad está en imponer restricciones inteligentes, como tiempo o presupuesto, que acortan el campo de posibilidades y orientan el proceso creativo. Esa “constancia” convierte lo abstracto en pasos concretos, minimiza la incertidumbre y orienta cada interacción.
Atendiendo a esta línea de pensamiento, actualmente, su trabajo se ha expandido a múltiples industrias. Y lo que es mejor, según el mismo relata, es que ya se están salvando 10 vidas por día gracias a una combinación de inteligencia artificial, datos y logística en tiempo real. “Estamos cambiando la industria de las respuestas médicas, y esto recién empieza”, señaló con orgullo Adam, quien también es cofundador de Aura, una plataforma tecnológica que redefine los servicios de emergencia en Sudáfrica y Reino Unido.
El futuro que llegó. Sobre los dilemas éticos de intervenir en los procesos cerebrales o desarrollar tecnologías de aumento humano, Adam aclara que “no se trata de imponer soluciones, sino de dar opciones. Hay que empoderar, no invadir. Lo verdaderamente ético es ofrecer caminos a quienes quieren elegir”.
En este contexto, destacó el papel de la inteligencia artificial como la tecnología más transformadora para la humanidad. “Su impacto será transversal. Hoy estoy enfocado en aplicaciones para el sector salud, como la predicción de errores médicos o tratamientos personalizados basados en RNA”, adelantó.
Adam avanzó un paso más, pintando un escenario para el 2030 en el que lo imposible se convierte en cotidiano, y donde la ciencia no es un lujo, sino una herramienta de esperanza. Según él, la convergencia entre biología y computación está a punto de entrar en una nueva era.
Tendencias 2030. El Brainternet, esa interfaz cerebral que transmite señales en tiempo real, es solo el comienzo. Con cascos equipados con electrodos y chips inteligentes, ya se puede monitorear una precrisis epiléptica o una migraña, algo que él visualiza como rutina médica, y evitar accidentes justo cuando más se necesita. “En menos de diez años, podríamos tener implantes cerebrales que ejecuten tareas digitales solo con el pensamiento”, comentó Adam, evocando una imagen de autonomía para quienes hoy dependen de otros en su día a día.
Pero hay más. Como adelanto habló de los sensores que podrían estar integrados discretamente en una vincha o unas gafas, en lugar de usar un casco. También adelantó territorios en los que aún no ha puesto el pie. “Imaginen modelos digitales del cuerpo que permitan ensayar terapias y cirugías en un entorno virtual antes de hacerlas en el quirófano; o fármacos diseñados por inteligencia artificial que actúan con precisión molecular, reduciendo tiempos y efectos secundarios”, mencionó entusiasmado.
Para él, estas no son ideas vagas, sino pasos clave en un plan ambicioso de convertir la tecnología genética y neurológica en herramientas elegibles para cualquiera; soluciones de bajo costo, alto impacto y profunda humanidad; una medicina centrada en la prevención y la autonomía, no solo el tratamiento.
Próximas tendencias
Interfaces neurales no invasivas: Esta tecnología, desarrollada por startups como Precision Neuroscience, que ya recaudó USD 155 millones y trabaja con dispositivos implantables y reversibles, promete dar autonomía a personas con parálisis o afectadas por enfermedades neurodegenerativas.
Gemelos digitales del cuerpo: Más que modelos, son “laboratorios virtuales personalizados”. Con ellos, un médico podría ensayar un tratamiento o anticipar complicaciones en un entorno seguro. Esto permitirá optimizar cirugías, reducir tratamientos fallidos y disminuir hospitalizaciones, revolucionando la medicina preventiva.
Diseño de fármacos con IA y simulación molecular: En 2030, esta capacidad dará paso a tratamientos personalizados en tiempo récord, con un impacto directo en millones de pacientes.
Dejanos tu comentario
Estudio sugiere que uso de IA hace menos críticos a los estudiantes
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora de Chicago. Sus estudiantes “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases de negocios y sociedad en la Universidad de Illinois.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica a AFP que no le sorprenden los resultados de una investigación reciente, que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas. Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró a AFP su autora principal, Nataliya Kosmyna.
Lea más: Cristina Kirchner pide permiso para que Lula la visite en su prisión domiciliaria
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo sus sesos.
Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80% de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10% de cada uno de los otros dos grupos. Al final de la tercera sesión, parecían limitarse principalmente a copiar y pegar.
Lea también: EE. UU. pone fin a la Usaid y transfiere sus funciones al Departamento de Estado
Textos sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracia a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Kosmyna matiza no obstante las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve estúpidas o más perezosas a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Es demasiado pronto para sacar conclusiones de una muestra tan pequeña, según la investigadora, que reclama más estudios sobre cómo utilizar mejor las herramientas de IA para facilitar el aprendizaje.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos [como ChatGPT] sobre el cerebro”, declara a AFP.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía, pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje. “Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Fuente: AFP.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.
Dejanos tu comentario
Grok habría fallado en respuestas sobre conflicto en Medio Oriente
Grok, el chatbot de inteligencia artificial (IA) de la empresa xAI de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán, concluyó un estudio. Con la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook, cada vez más internautas recurren a herramientas de inteligencia artificial (IA) como Grok para encontrar información fiable, pero las respuestas que obtienen a veces desinforman.
Según un estudio publicado el martes pasado por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok “durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis”.
Lea más: Fiesta de la Música en París registró 145 ataques con jeringuillas
Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste “tenía dificultades para autentificar el contenido generado por la IA”. Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.
En algunas respuestas Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán. Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump. El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un “genocidio blanco” en Sudáfrica, error que xAI achacó posteriormente a una “modificación no autorizada”.
Fuente: AFP.