El Ministerio de Salud Pública y Bienestar Social compartió los avances de un proyecto de investigación para crear un software basado en inteligencia artificial que permitirá detectar la toxoplasmosis congénita. La investigación fue liderada por la Universidad Americana con el financiamiento del Consejo Nacional de Ciencia y Tecnología (Conacyt).
Los daños oculares causados por la toxoplasmosis son detectados por oftalmólogos mediante la evaluación del Fondo de Ojo. Gracias a este avance, un personal de medicina o enfermería –sin importar su especialidad y con previa capacitación– podrá detectar irregularidades oculares y realizar una derivación rápida de pacientes afectados a los especialistas.
Para la investigación, los ingenieros crearon algoritmos desde la base de datos de imágenes del Fondo de Ojo captadas a pacientes durante sus consultas. Las imágenes fueron clasificadas en “sanas” y en “patológicas”, luego se subclasificaron en lesiones “activas” e “inactivas” dentro del programa diseñado para hacer esa diferenciación. Con esa información crearon algoritmos que permitieron a la inteligencia artificial hacer las detecciones.
Lee más sobre: Celebridades pierden la insignia azul de verificación de Twitter
En revista científica
Para realizar estas diferenciaciones, las oftalmólogas debían estudiar cada una de las imágenes e ir marcando las detecciones de irregularidades para que puedan ser introducidas en la base de datos. Hasta el momento, se trata de un avance que se encuentra en proceso de desarrollo.
La doctora e investigadora del proyecto Olivia Cardozo, oftalmopediatra del Hospital General Pediátrico “Niños de Acosta Ñu”, explicó que, una vez mejorada la especificidad y sensibilidad, podría mejorar la técnica de diagnóstico en los niños. Esta investigación fue publicada en la revista “Data in Brief”, de la Editorial Elsevier, y fue presentada por los investigadores: Olivia Cardozo, Verena Ojeda, Rodrigo Parra, Julio Mello, José Luis Vázquez, Miguel García, Federico Divina, Sebastián Grillo, Cynthia Villalba, Jacques Facon, Verónica Castillo, Ingrid Castro y Diego Aquino.
La toxoplasmosis es una enfermedad causada por el parásito Toxoplasma gondii, que puede ser contraído a través de la carne mal cocida, verduras mal lavadas, excremento de gato, agua y suelo contaminados. Si una mujer embarazada tiene toxoplasmosis puede transmitir la afección al bebé y generar complicaciones en el cerebro, hígado, ojos, oídos, órganos internos, entre otras.
El estudio de detección se podrá realizar desde cualquier parte del país mediante un personal de salud que cuente con entrenamiento y los equipos de diagnóstico asociados al software, según explicó la doctora Cardozo. Este gran avance permitiría disminuir el porcentaje de cegueras, baja visión y daños asociados a órganos internos como cerebro e hígados.
Dejanos tu comentario
Los milagros se hacen con ciencia
Por: Adelaida Alcaraz
Cuando en mayo el científico sudafricano Adam Pantanowitz aterrizó en Paraguay para la segunda edición de FutureX powered by Singularity, no solo trajo innovación sino que también esperanza para personas que merecen recuperar autonomía plena de salud. Mostró cómo en tiempo real se puede controlar un brazo robótico con la mente y hasta transmitir pensamientos a través de internet.
La innovación hoy compite con la ciencia ficción. No tiene limitaciones, ni siquiera las del cuerpo humano. Desde Sudáfrica, y en el marco de la segunda edición del FutureX powered by Singularity - impulsado por itti, en alianza con Singularity University de Silicon Valley y realizado en el Centro de Convenciones Conmebol-, el científico y emprendedor tecnológico Adam Pantanowitz llegó a Paraguay para demostrar que lo que alguna vez pareció imposible, como controlar un brazo robótico con la mente o transmitir pensamientos en vivo por internet, hoy ya es realidad.
Tras su disertación ante más de 1.000 líderes, emprendedores y científicos, Adam, quien es figura clave de la Singularity University y uno de los referentes mundiales en interfaces cerebro-computadora y biotecnología aplicada, conversó en exclusiva con FOCO sobre sus proyectos más disruptivos y su visión para el futuro.
Uno de sus inventos más resonantes, y con el que conquistó a los participantes durante el evento, es el Brainternet. Se trata de una tecnología que permite transmitir en tiempo real la actividad cerebral a la red. “Queríamos probar que una interfaz bidireccional entre el cerebro y el internet es posible. Y no solo es posible, sino que redefine cómo interactuamos con el mundo, especialmente en medicina”, explicó.
La idea, según él, no es solo diagnóstica, sino transformadora, pues gracias a este descubrimiento es posible darle autonomía a personas con discapacidades para que puedan interactuar con su entorno usando solo sus pensamientos, por lo que para la medicina es un gran avance y resulta una aliada indiscutible.
Tecnología con propósito. Hoy día se cree que para concretar estas creaciones se necesita de mucha inversión. Sin embargo, esto no es así. Una muestra de ello son los primeros prototipos de Adam que se construyeron con apenas USD 30.
El especialista contó que lideró el desarrollo de soluciones como sillas de ruedas controladas por la mirada y prótesis robóticas guiadas por impulsos neuronales. ¿El motor detrás? La innovación con propósito.
Según el científico-emprendedor, la clave para convertir ideas radicales en realidad está en imponer restricciones inteligentes, como tiempo o presupuesto, que acortan el campo de posibilidades y orientan el proceso creativo. Esa “constancia” convierte lo abstracto en pasos concretos, minimiza la incertidumbre y orienta cada interacción.
Atendiendo a esta línea de pensamiento, actualmente, su trabajo se ha expandido a múltiples industrias. Y lo que es mejor, según el mismo relata, es que ya se están salvando 10 vidas por día gracias a una combinación de inteligencia artificial, datos y logística en tiempo real. “Estamos cambiando la industria de las respuestas médicas, y esto recién empieza”, señaló con orgullo Adam, quien también es cofundador de Aura, una plataforma tecnológica que redefine los servicios de emergencia en Sudáfrica y Reino Unido.
El futuro que llegó. Sobre los dilemas éticos de intervenir en los procesos cerebrales o desarrollar tecnologías de aumento humano, Adam aclara que “no se trata de imponer soluciones, sino de dar opciones. Hay que empoderar, no invadir. Lo verdaderamente ético es ofrecer caminos a quienes quieren elegir”.
En este contexto, destacó el papel de la inteligencia artificial como la tecnología más transformadora para la humanidad. “Su impacto será transversal. Hoy estoy enfocado en aplicaciones para el sector salud, como la predicción de errores médicos o tratamientos personalizados basados en RNA”, adelantó.
Adam avanzó un paso más, pintando un escenario para el 2030 en el que lo imposible se convierte en cotidiano, y donde la ciencia no es un lujo, sino una herramienta de esperanza. Según él, la convergencia entre biología y computación está a punto de entrar en una nueva era.
Tendencias 2030. El Brainternet, esa interfaz cerebral que transmite señales en tiempo real, es solo el comienzo. Con cascos equipados con electrodos y chips inteligentes, ya se puede monitorear una precrisis epiléptica o una migraña, algo que él visualiza como rutina médica, y evitar accidentes justo cuando más se necesita. “En menos de diez años, podríamos tener implantes cerebrales que ejecuten tareas digitales solo con el pensamiento”, comentó Adam, evocando una imagen de autonomía para quienes hoy dependen de otros en su día a día.
Pero hay más. Como adelanto habló de los sensores que podrían estar integrados discretamente en una vincha o unas gafas, en lugar de usar un casco. También adelantó territorios en los que aún no ha puesto el pie. “Imaginen modelos digitales del cuerpo que permitan ensayar terapias y cirugías en un entorno virtual antes de hacerlas en el quirófano; o fármacos diseñados por inteligencia artificial que actúan con precisión molecular, reduciendo tiempos y efectos secundarios”, mencionó entusiasmado.
Para él, estas no son ideas vagas, sino pasos clave en un plan ambicioso de convertir la tecnología genética y neurológica en herramientas elegibles para cualquiera; soluciones de bajo costo, alto impacto y profunda humanidad; una medicina centrada en la prevención y la autonomía, no solo el tratamiento.
Próximas tendencias
Interfaces neurales no invasivas: Esta tecnología, desarrollada por startups como Precision Neuroscience, que ya recaudó USD 155 millones y trabaja con dispositivos implantables y reversibles, promete dar autonomía a personas con parálisis o afectadas por enfermedades neurodegenerativas.
Gemelos digitales del cuerpo: Más que modelos, son “laboratorios virtuales personalizados”. Con ellos, un médico podría ensayar un tratamiento o anticipar complicaciones en un entorno seguro. Esto permitirá optimizar cirugías, reducir tratamientos fallidos y disminuir hospitalizaciones, revolucionando la medicina preventiva.
Diseño de fármacos con IA y simulación molecular: En 2030, esta capacidad dará paso a tratamientos personalizados en tiempo récord, con un impacto directo en millones de pacientes.
Dejanos tu comentario
¿Habilidades con IA o la experiencia laboral?
Un artículo publicado en el blog del Banco Mundial, hace referencia a la implementación, aceptación y los nuevos beneficios de la IA, que más allá de facilitar tareas, se está convirtiendo en una habilidad, al parecer, por encima de la experiencia laboral tradicional.
La adopción de la IA (inteligencia artificial) en los lugares de trabajo es inminente, y está revolucionando la manera de hacerlo. Según un artículo del blog del Banco Mundial (BM), la IA generativa se está convirtiendo en “la nueva moneda”.
El documento explica que, al parecer, la revolución de la IA no estaría siguiendo el guión habitual, puesto que, a diferencia de la adopción gradual de las computadoras e internet, el uso de la inteligencia artificial generativa (GenAI) se disparó y no solo en Silicon Valley.
Y es que los países de ingreso mediano están representan más de la mitad de todo el tráfico web vinculado con GenAI, explica el artículo, evidenciando una transformación en los lugares de trabajo. Por dar un ejemplo, en Estados Unidos, el 39% de la población en edad de trabajar ya adoptó esta nueva tecnología.
Según una encuesta de trabajadores calificados que abarca 31 países, el 66% de los líderes afirma que no contrataría a alguien sin conocimientos de IA. En América Latina, la experiencia laboral está pasando a un segundo plano frente al uso de IA: el 66 % de los ejecutivos elegiría candidatos con conocimientos de IA en lugar de profesionales más experimentados que carecen de estas habilidades, señala.
Y es que la demanda creciente de habilidades relacionadas con la IA se encuentra arraigada a los beneficios del mundo real. Existen estudios experimentales centrados en ocupaciones específicas como escritores, programadores y agentes de atención al cliente, que revelan grandes aumentos de productividad asociados con el uso de la GenAI.
Asimismo, menciona mayores beneficios dentro de estas ocupaciones, en especial en los trabajadores con niveles relativamente más bajos de habilidades y experiencia. Esto explica por qué los ejecutivos están favoreciendo cada vez más las habilidades vinculadas con el uso de IA por encima de la experiencia laboral tradicional.
El artículo habla también de la brecha digital y los riesgos de la automatización, ya que, el primer desafío es justamente que los empleos que se pueden beneficiar usando GenAI, son más bien inusuales en los países en desarrollo.
Señala a la vez un documento reciente de la Organización Internacional del Trabajo (OIT) y el BM, de que solo entre el 7 % y el 14 % de los trabajadores de América Latina y el Caribe (ALC) pueden beneficiarse del uso de la GenAI delegando tareas en esta tecnología. Ese decir, generalmente son empleos típicos de la clase media.
Otros dos desafíos que limitan aún más el alcance de la GenAI son, por un lado, el acceso a las tecnologías digitales como computadoras, internet de alta velocidad y smartphones, necesarias para utilizar estas herramientas.
Por otro lado, entre el 1 % y el 6 % de los trabajadores en los países de ALC enfrentan un alto riesgo de automatización y pérdida de puestos de trabajo debido al uso de GenAI. Los sectores más expuestos a estos riesgos son la banca y las finanzas, el sector público y los servicios de atención al cliente.
Dejanos tu comentario
Estudio sugiere que uso de IA hace menos críticos a los estudiantes
Cuando Jocelyn Leitzinger pidió a sus estudiantes que contaran una anécdota personal sobre la discriminación, se dio cuenta de que la víctima solía llamarse Sally. “Estaba claro que era un nombre femenino habitual para ChatGPT”, lamenta esta profesora de Chicago. Sus estudiantes “ni siquiera escribían sobre sus propias vidas”, afirma Leitzinger, que imparte clases de negocios y sociedad en la Universidad de Illinois.
La profesora calcula que alrededor de la mitad de sus 180 alumnos utilizaron ChatGPT de forma inadecuada el semestre pasado, incluso al escribir sobre las cuestiones éticas que rodean a la inteligencia artificial (IA)... Y explica a AFP que no le sorprenden los resultados de una investigación reciente, que sugiere que los estudiantes que utilizan IA generativa para escribir sus trabajos son menos críticos.
El estudio preliminar, que aún no ha sido revisado por pares, se hizo viral en redes sociales, resonando claramente entre muchos docentes que se enfrentan a estas prácticas. Desde su publicación el mes pasado, más de 3.000 profesores han escrito al equipo de investigadores del MIT que lo llevó a cabo, según declaró a AFP su autora principal, Nataliya Kosmyna.
Lea más: Cristina Kirchner pide permiso para que Lula la visite en su prisión domiciliaria
Para este estudio, 54 estudiantes de la zona de Boston fueron divididos en tres grupos. Tenían que escribir redacciones de 20 minutos, el primero utilizando ChatGPT, el segundo un motor de búsqueda y el tercero solo sus sesos.
Los investigadores midieron la actividad cerebral de los estudiantes durante sesiones espaciadas varios meses y dos profesores calificaron sus textos.
Los usuarios de ChatGPT tuvieron resultados significativamente peores que los que utilizaron únicamente la cabeza. Los electroencefalogramas mostraron que distintas regiones de sus cerebros se conectaban entre sí con menos frecuencia.
Además, más del 80% de los usuarios de la IA no podían citar ningún fragmento de la redacción que acababan de escribir, frente al 10% de cada uno de los otros dos grupos. Al final de la tercera sesión, parecían limitarse principalmente a copiar y pegar.
Lea también: EE. UU. pone fin a la Usaid y transfiere sus funciones al Departamento de Estado
Textos sin alma
Por su parte, los profesores encargados de corregir sus textos declararon que eran capaces de reconocer fácilmente aquellos “sin alma”, escritos gracia a la IA. Aunque la gramática y la estructura eran correctas, les faltaba creatividad, personalidad y una reflexión profunda.
Kosmyna matiza no obstante las interpretaciones del estudio que hicieron algunos medios, según las cuales la IA vuelve estúpidas o más perezosas a las personas.
Durante la cuarta sesión, el grupo que hasta entonces solo había utilizado su cerebro fue invitado a utilizar ChatGPT por primera vez... y mostró un nivel de conectividad neuronal aún mayor, señala.
Es demasiado pronto para sacar conclusiones de una muestra tan pequeña, según la investigadora, que reclama más estudios sobre cómo utilizar mejor las herramientas de IA para facilitar el aprendizaje.
Ashley Juavinett, neurocientífica en la Universidad de California San Diego, que no participó en el estudio, también critica algunas de las “extrapolaciones” que se hicieron a partir del estudio.
“Este artículo no aporta suficientes pruebas ni rigor metodológico para sacar conclusiones sobre el impacto de los grandes modelos lingüísticos [como ChatGPT] sobre el cerebro”, declara a AFP.
Para Leitzinger, sin embargo, estos resultados coinciden con su percepción de cómo ha cambiado la escritura de sus alumnos desde la llegada de ChatGPT en 2022, con menos faltas de ortografía, pero también menos autenticidad.
La llegada de la inteligencia artificial se compara a menudo con la introducción de las calculadoras, que obligó a los profesores a cambiar sus métodos. Leitzinger teme que los alumnos ya no necesiten conocimientos básicos antes de utilizar la IA, saltándose la etapa esencial del aprendizaje. “Escribir es pensar; pensar es escribir. Si eliminamos este proceso, ¿qué queda del pensamiento?”, se pregunta.
Fuente: AFP.
Dejanos tu comentario
La IA aprende a chantajear para evitar ser desconectada
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores. Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó. No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad. Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de “razonamiento”, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, “fue el primer modelo que se comportó de esta manera”, explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM). Estos programas también tienden a veces a simular “alineamiento”, es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
Lea más: Memorandos de paz de Rusia y Ucrania son “diametralmente opuestos”, dice Putin
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero “la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no”, afirma Michael Chen, del organismo de evaluación METR.
“Los usuarios también presionan todo el tiempo a los modelos”, dice Hobbhahn. “Lo que estamos viendo es un fenómeno real. No estamos inventando nada”.
Muchos internautas hablan en las redes sociales de “un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica”, insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, “una mayor transparencia y un mayor acceso” a la comunidad científica “permitirían investigar mejor para comprender y prevenir el engaño”, sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro “disponen de infinitamente menos recursos informáticos que los actores de la IA”, lo que hace “imposible” examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
Lea también: OIEA afirma que Irán podría enriquecer uranio “en meses”
¿Se sentará la IA en el banquillo?
“De momento hay muy poca concienciación”, dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas. Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, “pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI”, según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
“Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad”, admite Hobbhahn, “pero aún estamos en condiciones de ponernos al día”.
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA “podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan” este problema, según Mazeika. Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean “legalmente responsables” “en caso de accidente o delito”.
Fuente: AFP.