En los últimos días, las redes sociales se están inundando del meme “El genio malinterpretó mi deseo”, que es una creación de inteligencia artificial al estilo barroco o del renacentista, que se destaca por la descripción que no cuadra con el “deseo”. En sus pedidos, los internautas usan frases y expresiones juveniles, y la IA las convierte en composiciones visuales que no coinciden con el pedido.
Los memes de “El genio malinterpretó mi deseo” combinan iluminación dramática, fondos oscuros, expresiones tristes y el chiste de que la IA no plasmó el deseo. Por ejemplo, un hombre forrado en plata y la IA crea una fotografía de una persona en una armadura de plata. Para sumarse al trend es muy fácil, se utilizan herramientas tipo ChatGPT, Gemini, Grok o Bing, que permiten crear imágenes desde descripciones textuales.
Los prompts suelen llevar indicaciones como “estilo Rembrandt”, “tono marrón”, “persona triste”, “pintura al óleo, estilo barroco o renacentista”, etc. Luego le indicas el deseo como: “Yo con un gran físico porque el genio malinterpretó mi deseo”, “Yo con un billetudo porque el genio malinterpretó mi deseo”, o “Yo con un pito grande porque el genio malinterpretó mi deseo”.
Leé también: AuronPlay reaccionó al posible papa paraguayo: “Es un mix este señor”
Este meme ha generado todo tipo de reacciones: “El meme del genio malinterpretó mi deseo me hizo reflexionar sobre lo mal que hablamos”, “Parad de subir memes de ´el genio malinterpretó mi deseo´ por favor, no puedo darle like a todos”, “Mi inicio de cualquier app está lleno de “Yo con: ´el genio malinterpretó mi deseo´ no sé cómo salir de esta, pero las risas no me están faltando”, son algunos de los comentarios.
A continuación algunos de memes de “El genio malinterpretó mi deseo”
Te puede interesar: Papa Francisco desde el cielo: IA recreó su encuentro con Jesús
Dejanos tu comentario
Asoban confirma a los expositores de su primera Convención Bancaria Paraguay 2025
La Asociación de Bancos del Paraguay (Asoban) confirmó sus disertantes del plano internacional y local de cara a su primera Convención Bancaria Paraguay 2025, a realizarse los días 7 y 8 de agosto en el Hotel Sheraton Asunción. Los expertos abordarán temas relacionados con los desafíos a futuro para el sector.
Para la Asoban, la convención marcará un hito en el sector bancario al ofrecer un espacio de reflexión y actualización sobre inteligencia artificial aplicada al negocio financiero, evolución de los medios de pago, banca y fintech, criterios ESG, tendencias en ciberseguridad y prevención de fraudes, regulación y atracción de inversiones en un contexto de mercado con grado de inversión. Asimismo, se sumará una mirada geopolítica global para analizar el impacto de las nuevas dinámicas internacionales en los mercados.
Leé también: DNIT y Conajzar: nuevos roles en las licitaciones de juegos de azar
Para el efecto, Asoban confirmó la presencia de disertantes como Marcos Troyjo, expresidente del New Development Bank del bloque BRICS y ex viceministro de Economía y Comercio Exterior de Brasil; Samar Maziad, vicepresidenta y analista senior en el Grupo de Riesgo Soberano de Moody’s en Nueva York; Juan Carlos Elorza, director de Análisis Técnico y Sectorial en el Banco de Desarrollo de América Latina y el Caribe (CAF), especialista en integración económica y acuerdos comerciales.
Otro disertante destacado será Federico Ruiz Guiñazú, socio y líder de la oficina de Buenos Aires en McKinsey & Company; Diego Flaiban, director del Sector Financiero de BID Invest; Lucas Pussetto, magister en Economía por la Pompeu Fabra de Barcelona, profesor de Economía en el IAE Business School y referente en el análisis macroeconómico; Ruth Guevara, líder de Cambio Climático y Sostenibilidad de EY Latinoamérica.
Asimismo, señalan que los temas de ciberseguridad tendrán un bloque especial de la mano de expertos, entre los que se encuentra Paulo Pérez, responsable de la Seguridad de Información del Negocio en Equifax Latam.
Del plano local, destacan a César Paredes, economista y presidente de la Cámara Paraguaya de Valores del Paraguay Cavapy, quien se referirá al desarrollo del mercado de capitales. También confirmaron a Aníbal Corina, CEO de Bancard, referente en medios de pago y transformación digital en la industria financiera local.
Liz Cramer, presidenta ejecutiva de Asoban, destacó la importancia de ofrecer al sector una plataforma de conocimiento y diálogo sobre las grandes transformaciones que impactan hoy a la banca.
“Consideramos esencial traer estos temas al ámbito local y abordarlos con referentes del sector. Queremos mejorar la comprensión sobre sus implicancias y promover el conocimiento técnico en diversos niveles”, sostuvo.
La convención está dirigida a líderes del sistema financiero, ejecutivos bancarios y empresariales, autoridades, reguladores, proveedores de servicios y estudiantes universitarios.
Dejanos tu comentario
Regulación de la IA: buscan fomentar el desarrollo de la investigación y el acceso equitativo
La Comisión de Equidad Social e Igualdad de Derechos de Hombre y la Mujer, desarrolla en la fecha una audiencia pública para analizar el proyecto de ley “que promueve el uso de la inteligencia artificial a favor del desarrollo económico y social del país”, presentado por varios diputados.
La presidenta de esta mesa asesora la diputada Rocío Abed indicó que siempre se está discutiendo sobre la necesidad o no de reglamentar y establecer un marco legal sobre la inteligencia artificial, que está trayendo la globalización.
“La IA puede ser positiva como negativa dependiendo del enfoque que se adopte como sociedad. Es conveniente el desarrollo de una legislación porque puede fomentar el desarrollo de la investigación y de la inteligencia artificial, así como garantizar el acceso equitativo a sus beneficios. Igualmente, debe promover la soberanía nacional y competitividad en este contexto globalizado”, explicó.
Recordó la referencia del secretario de Estado de Estados Unidos, Marco Rubio que hizo referencia a Paraguay y su potencial energético y a su vez vinculado a la IA; ya que cuenta con un importante excedente de la energía eléctrica que podría ser de interés de grandes inversionistas en el desarrollo de la IA, así como de tecnologías emergentes en el país.
“Este proyecto de Ley que está a discusión representa una propuesta visionaria, soberana y estratégica que permite aprovechar la ventaja geopolítica única, abierta por el reconocimiento de los Estados Unidos”, enfatizó.
La diputada Abed recordó que en paralelo a este debate, también se está llevando adelante el estudio de la Ley de Datos Personales, que actualmente cuenta con media sanción de Diputados, otorgados recientemente y que son temas de la agenda legislativa. Indicó que están estrechamente vinculados a la propuesta de legislación sobre las IA.
Transversal al día a día
El diputado Rodrigo Gamarra, uno de los proyectistas de la regulación de la IA, señaló que se plantean alternativas de discusión sobre un marco teórico para darle forma a este tema que es la IA, que de a poco va a formar parte de la cotidianeidad de las personas a través de sus celulares.
“La IA es algo transversal que se puso en nuestro camino, es algo imposible de evitar y debemos transitar a través de ella. La idea con este proyecto es darle un marco regulatorio, a fin de ser parte de este desafío para que sea verdaderamente útil a nuestro país”, explicó.
Mencionó que la IA puede ser adaptada a las necesidades que hoy se tienen, brindando soluciones a corto plazo a muchos problemas que se vienen padeciendo desde hace muchos años.
Indicó que se busca una Ley que proteja a las personas, proteja sus datos personales, que incentive el uso de la IA, fomente a los desarrolladores, y sobre todo, se pueda tener a gente especializada en el país, porque existe la capacidad en el capital humano, pero lo que falta es incentivarlo y fomentarlo.
“El gobierno nacional ha demostrado desde todas luces que está abocado en que el desarrollo del país llegue lo más pronto posible. Por eso, creo que el Mitic será un aliado estratégico para poder llevar adelante esta iniciativa”, comentó.
Es necesario quemar etapas
En tanto, el ministro de Tecnología de la Información y la Comunicación (Mitic), Gustavo Villate, valoró el desarrollo de la audiencia pública como una herramienta para poder escuchar a diferentes sectores y poder entender cómo impacta la IA en la sociedad.
Al respecto, resaltó algunos puntos relevantes, como ser que la regulación siempre va a estar detrás de la innovación y en materia de IA están en la parte inicial de lo que podría llegar a ser y cómo podría impactar en varios aspectos, como educación, salud, seguridad, entretenimiento.
No obstante, señaló que existen etapas que deben ser superadas, por eso, la importancia de contar primero con una Ley de Protección de Datos, que cuenta con media sanción de Diputados y está en estudio en el Senado.
“Debemos entender los cambios que se pudieran dar en otros proyectos de ley que son complementarios o que dependen del proyecto de Ley de Protección de Datos Personales; que en el caso de las IA dependen totalmente de los datos y del tratamiento del mismo”, indicó.
Indicó que igualmente están trabajando en otras propuestas regulatorias, y que este proyecto de Ley de IA, quieren que sea el primer paso, una herramienta, de un sandbox regulatorio que han visto que nunca se ha planteado en el país.
Explicó que un sandbox regulatorio es un entorno controlado creado por las autoridades regulatorias para permitir que empresas, especialmente startups y fintechs, prueben productos, servicios o modelos de negocio innovadores en un mercado real, pero con ciertas flexibilidades regulatorias y bajo supervisión.
“Sandbox viene del inglés arenero, donde juegan los niños. Refiere entonces, a ese entorno controlado. El objetivo es fomentar la innovación, permitiendo experimentar sin cumplir inicialmente con todas las regulaciones estrictas, mientras se protege a los consumidores y se evalúan los riesgos”, acotó.
Mencionó que existen una serie de proyectos regulatorios que deben ser analizados, pero siguiendo un orden. Por tanto, sancionar una Ley de Protección de Datos Personales, luego un sandbox regulatorio que permitirá comprender mejor el impacto regulatorio de una herramienta innovadora como es la IA, y tercero analizar los elementos que están ahí. "El orden en que salgan es importante, las discusiones se pueden tener indistintamente en cualquier orden", acotó.
Siga informado con: Peña se reunió en India con directivos de los principales bancos internacionales
Dejanos tu comentario
Científicos investigan una inteligencia artificial que pueda controlar a la IA
El profesor canadiense Yoshua Bengio, considerado uno de los padres de la inteligencia artificial, presentó el martes su nueva organización dedicada a la IA responsable, cuyo objetivo es, sobre todo, diseñar software capaz de evitar los abusos de los agentes de IA.
Desde hace varios años, este ganador del Premio Turing (2018), también conocido como el Nobel de la informática, viene advirtiendo de los riesgos asociados al desarrollo de la IA, ya sea en términos de uso malicioso o de que el propio software salga mal.
“Los sistemas más avanzados ya están mostrando signos de autopreservación y comportamiento engañoso”, explica el investigador en un comunicado publicado este martes.
“Y esto sólo va a acelerarse a medida que aumenten sus capacidades y autonomía”, anuncia. Su nueva organización sin ánimo de lucro, llamada LawZero, pretende ser “una respuesta a estos retos”.
Lea más: Hidrólogo paraguayo simula con éxito 30 años del curso del río Paraná
Varios ejemplos recientes han confirmado que la IA ha alcanzado recientemente nuevos niveles de sofisticación, entre ellos un estudio de la start-up Anthropic.
En una simulación, la nueva interfaz de IA generativa de Anthropic, Claude 4, fue advertida de su inminente sustitución por un ingeniero de software.
Acorralada, intentó por iniciativa propia chantajear al ingeniero para disuadirle de deshacerse de ella.
Una de las misiones de LawZero es “proponer una forma de supervisar a los agentes de IA”, la nueva generación de modelos generativos de IA capaces de realizar un sinfín de tareas de forma autónoma, desde buscar en Internet hasta llamar a un cliente o escribir un programa en código.
Leé también Peña promueve a Paraguay como hub regional ante más de cien CEO de India
“Uno de los primeros objetivos es desarrollar una forma de IA que pueda utilizarse como salvaguarda para garantizar que la IA se comporta bien”, describe Bengio en un vídeo de la web de LawZero.
“La IA puede ser extremadamente beneficiosa si nos aseguramos de que no va a hacer daño a la gente”, “ya sea porque esté en las manos equivocadas o de forma autónoma”, agrega.
LawZero también quiere trabajar en una IA con autonomía limitada para su uso en investigación científica.
La organización cuenta ya con más de 15 investigadores y ha recibido varias aportaciones económicas, una de ellas de Schmidt Sciences, organización benéfica creada por el ex jefe de Google Eric Schmidt y su esposa Wendy.
LawZero se puso en marcha bajo los auspicios del Instituto de Montreal para el Aprendizaje de Algoritmos (Mila), fundado en 1993 por Bengio.
Fuente: AFP
Dejanos tu comentario
La verificación con IA genera desinformación, según estudio
- Washington, Estados Unidos. AFP.
Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos. Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.
“Hola @Grok, ¿esto es verdad?”, se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales. Pero las respuestas suelen estar plagadas de desinformación.
Grok, ahora bajo un nuevo escrutinio por insertar “genocidio blanco”, una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.
Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que “probablemente” fueran la respuesta militar de Pakistán a los ataques indios. “La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos”, declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard. “Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad”, advirtió.
Repetir falsedades
La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa. En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran “generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas”.
Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.
Hace poco, Grok calificó de “auténtico” un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.
En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.
Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.
Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas “notas de la comunidad”, un mecanismo popularizado por X.
Lea también: Historiador nacionalista vence en el balotaje presidencial de Polonia
“Respuestas sesgadas”
La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.
AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.
La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.
xAI, de Musk, atribuyó a una “modificación no autorizada” la generación de publicaciones no solicitadas por Grok que hacían referencia al “genocidio blanco” en Sudáfrica.
Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable “más probable”.
Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban “incitando abiertamente al genocidio” de la población blanca.
“Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones”, declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos. “Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas”.