Café de la semana

Esta semana te hará repensar el futuro de la IA

Walter Gandarella • 10 de junio de 2025

Otra semana ha pasado y, como siempre, el mundo de la inteligencia artificial no se detuvo ni un segundo. Entre herramientas que prometen revolucionar la creación de contenido, escándalos que nos hacen cuestionar quién está realmente detrás de la «magia» de la AI, y avances que parecen sacados de una película de ciencia ficción, hay mucho que desempacar.

Prepárate para un viaje por las noticias más calientes de la semana, donde iremos desde videos generados por AI hasta startups que engañaron a gigantes tecnológicos. Sí, leíste bien - hay una historia de 700 ingenieros indios que se hicieron pasar por inteligencia artificial. ¡No es broma!

Luma AI presenta Modify Video, una herramienta para reimaginar y controlar videos

Luma AI ha lanzado Modify Video, una herramienta innovadora que permite a los usuarios reimaginar cualquier video, ofreciendo control a nivel de director en la postproducción, abarcando estilo, personajes y escenarios. La herramienta posibilita la reformulación de actuaciones, el intercambio de mundos enteros y la redefinición de encuadres, todo con el objetivo de moldear infinitamente la visión creativa.

¡Esto sí que es poner poder creativo en manos de cualquiera! Luma AI sigue impresionándome con su enfoque práctico para la generación de video. Mientras otras empresas se centran solo en la creación desde cero, ellos se dieron cuenta de que a menudo solo queremos modificar algo que ya existe.

Fuente original

ManusAI: introducción de la generación de videos Manus

Manus transforma tus prompts en historias completas, estructuradas, secuenciadas y listas para ser vistas. Con un solo prompt, Manus planifica cada escena, crea los visuales y anima tu visión. Desde la creación del storyboard hasta la visualización del concepto, tus ideas se convierten en videos animados en minutos. Acceso anticipado para miembros Basic, Plus y Pro. ¡Próximamente para todos!

ManusAI está claramente apostando por la narrativa como diferencial. Mientras muchas herramientas generan clips aislados, ellos quieren crear historias coherentes. Es un enfoque inteligente, especialmente para creadores de contenido que necesitan más que solo «videos bonitos» - necesitan narrativas que tengan sentido.

Fuente original

NotebookLM ahora permite compartir notebooks con cualquier persona vía enlace público

NotebookLM anunció que ahora es posible curar y compartir cuadernos con cualquier persona, usando un enlace público. El anuncio invita a los usuarios a compartir sus cuadernos con la comunidad.

Esta es una de esas funcionalidades que parecen obvias pero que marcan toda la diferencia. NotebookLM ya era excelente para organizar información, pero ahora con la compartición pública se convierte en una herramienta colaborativa poderosa. Imagino los casos de uso: desde equipos de investigación hasta profesores compartiendo recursos con alumnos.

Fuente original

Codex obtiene acceso a internet, pero está desactivado por defecto

Sam Altman anunció que Codex ahora tiene acceso a internet, pero resalta que está desactivado por defecto y que hay complejas compensaciones involucradas. Recomienda que las personas lean atentamente sobre los riesgos y lo usen cuando tenga sentido, además de informar que estará disponible para usuarios de ChatGPT Plus.

Me gusta este enfoque cauteloso de OpenAI. Dar acceso a internet a una herramienta de código es poderoso, pero también peligroso. Dejarlo desactivado por defecto muestra que se están tomando en serio los riesgos de seguridad. Es el tipo de decisión responsable que deberíamos ver más a menudo en la industria.

Fuente original

«700 ingenieros indios se hicieron pasar por AI»: La startup londinense que engañó a Microsoft

Builder.ai, alguna vez promocionada como una startup de AI revolucionaria respaldada por Microsoft, entró en insolvencia tras revelaciones de que su principal plataforma de desarrollo sin código no estaba impulsada por inteligencia artificial, sino por 700 ingenieros humanos en la India. La empresa comercializó su plataforma como si fuera dirigida por un asistente de AI llamado «Natasha», que supuestamente ensamblaba aplicaciones de software como piezas de Lego, pero informes recientes revelaron que los pedidos de los clientes eran cumplidos manualmente por programadores.

Esta historia es a la vez hilarante y preocupante. Por un lado, es impresionante cómo lograron mantener la farsa durante tanto tiempo. Por otro, muestra lo fácil que es engañar a los inversores con palabras de moda de AI. Es un recordatorio de que siempre debemos ser escépticos cuando algo parece «demasiado bueno para ser verdad» en el mundo de la tecnología.

Fuente original

Un avance en la prevención del cáncer de mama: FDA aprueba la primera herramienta de AI para predecir el riesgo a partir de una mamografía

La FDA aprobó Clairity Breast, la primera plataforma de AI que predice el riesgo de una mujer de desarrollar cáncer de mama en los próximos cinco años, utilizando solo una mamografía normal. Clairity Breast analiza la mamografía y utiliza inteligencia artificial para detectar patrones de imagen sutiles en el tejido mamario que se correlacionan con el futuro desarrollo del cáncer, incluso si la mamografía parece normal al ojo humano. La herramienta proporciona una puntuación de riesgo validada a cinco años que puede guiar la atención de seguimiento personalizada antes de que surja cualquier signo de enfermedad. El lanzamiento comercial de Clairity Breast está previsto para finales de 2025.

Ahora esto sí que es AI siendo usada para algo verdaderamente importante. La capacidad de predecir cáncer de mama cinco años antes de que aparezcan los síntomas puede salvar miles de vidas. Es en estas aplicaciones médicas donde la AI realmente brilla - encontrar patrones que los humanos simplemente no pueden ver.

Fuente original

Meta oficializa AI para crear anuncios automáticamente hasta 2026

Meta pretende automatizar la creación de anuncios usando inteligencia artificial hasta finales del próximo año. La empresa quiere crear y distribuir piezas publicitarias con ayuda de inteligencia artificial, siendo necesario solo indicar el objetivo, cuánto pagarían por el resultado deseado, conectar la cuenta bancaria y Meta hará el resto. Este sistema debería estar operativo hasta finales de 2026.

Por un lado, esto democratizará la publicidad para pequeñas empresas que no tienen recursos para agencias. Por otro, temo que nos inundaremos con aún más anuncios genéricos generados por AI. El desafío será mantener la autenticidad y creatividad en una era de publicidad automatizada. Sin mencionar el odio que creará en las grandes agencias de publicidad...

Fuente original

Microsoft presenta Bing Video Creator

Bing Video Creator, impulsado por Sora, transforma tus instrucciones de texto en videos cortos, permitiéndote describir lo que quieres ver y observar cómo tu visión cobra vida. Gratuito y accesible a través de la aplicación móvil Bing, y pronto en el escritorio y en la búsqueda Copilot, Bing Video Creator democratiza la generación de video con AI, ofreciendo funcionalidades como creaciones rápidas y la capacidad de refinar los resultados a través de instrucciones descriptivas y modificadores de estilo.

Microsoft continúa su estrategia de hacer herramientas poderosas accesibles gratuitamente. Usar Sora a través de Bing es una jugada inteligente para competir con ChatGPT. Esto puede cambiar el juego para creadores de contenido que no tienen presupuesto para herramientas premium. Ya empecé a probar, pero quiero que añadan la opción de crear videos a partir de una imagen.

Fuente original

ElevenLabs presenta la AI Conversacional 2.0

ElevenLabs lanzó la AI Conversacional 2.0, una actualización de su plataforma para agentes de voz, con funcionalidades avanzadas como interacción más natural, detección automática de idiomas, integración RAG para acceso a conocimiento, soporte multimodal (voz y texto), llamadas en lote y mejoras de seguridad y conformidad, incluyendo HIPAA y residencia de datos en la UE.

ElevenLabs está apostando fuerte en el mercado empresarial con estas funcionalidades de conformidad. La integración RAG es muy interesante - significa que los agentes de voz pueden tener acceso a bases de conocimiento específicas. Veo mucho potencial para call centers y atención al cliente.

Fuente original

Exclusivo: Anthropic alcanza 3 mil millones de dólares en ingresos anualizados debido a la demanda empresarial de AI

La empresa de inteligencia artificial Anthropic está generando cerca de 3 mil millones de dólares en ingresos anualizados, un salto significativo respecto a los casi 1 mil millón de dólares en diciembre de 2024. Este crecimiento demuestra la creciente demanda empresarial de AI, siendo la generación de código un factor importante para Anthropic. La empresa, fundada en 2021 por un equipo que salió de OpenAI, está valorada en 61,4 mil millones de dólares, mientras que OpenAI está valorada en 300 mil millones de dólares.

¡Triplicar los ingresos en menos de seis meses es absolutamente impresionante! Anthropic está haciendo algo bien, especialmente en el mercado empresarial. El hecho de que la generación de código sea un motor importante muestra que los programadores están realmente adoptando estas herramientas en su trabajo diario. Y yo solo puedo corroborar esto, aquí en Yes Marketing disminuimos mucho los tiempos de entrega de proyectos de software cuando empezamos a usar la AI para codificación en pares y pruebas.

Fuente original

Diálogo avanzado de audio y generación con Gemini 2.5

Este artículo presenta las nuevas funcionalidades de Gemini 2.5 para diálogo y generación de audio, incluyendo conversación natural, control de estilo, integración de herramientas y conciencia del contexto de la conversación. Gemini 2.5 también ofrece comprensión de audio-video, multilingüismo y diálogo afectivo. El artículo también discute la tecnología de texto a voz controlable (TTS) de Gemini 2.5, que permite a los usuarios generar audio con estilo, tono y expresión emocional precisos.

Google está intentando recuperar terreno en la carrera de la AI conversacional. Las capacidades de audio de Gemini 2.5 suenan muy bien, especialmente el control fino sobre estilo y emoción. Será interesante ver cómo se compara con el Advanced Voice Mode de OpenAI.

Fuente original

Google lanzó silenciosamente una aplicación que permite descargar y ejecutar modelos de AI localmente

Google lanzó silenciosamente una aplicación llamada Google AI Edge Gallery, que permite a los usuarios ejecutar una variedad de modelos de AI disponibles en la plataforma AI dev Hugging Face en sus teléfonos. La aplicación está disponible para Android y pronto para iOS, permitiendo a los usuarios encontrar, descargar y ejecutar modelos compatibles que generan imágenes, responden preguntas, escriben y editan código, y más. Los modelos funcionan offline, aprovechando los procesadores de los teléfonos.

¡Finalmente! Ejecutar modelos de AI localmente en el teléfono, proporcionado por un gran jugador (aquí, Google), era algo que esperaba desde hace mucho tiempo. La privacidad y la capacidad de funcionar offline son enormes ventajas. Esto puede ser un game-changer para quienes se preocupan por la privacidad de los datos. Yo ya utilizaba una app llamada PocketPal para ejecutar SLMs, pero la herramienta no es muy adaptativa...

Fuente original

Modelos de lenguaje grandes son proficientes en resolver y crear tests de inteligencia emocional

Modelos de lenguaje grandes (LLMs) demuestran conocimiento en diversos dominios, pero su capacidad de inteligencia emocional permanece incierta. Esta investigación examinó si los LLMs consiguen resolver y generar tests de inteligencia emocional basados en el rendimiento. Los resultados mostraron que ChatGPT-4, ChatGPT-01, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku y DeepSeek V3 superaron a los humanos en cinco tests de inteligencia emocional estándar, alcanzando una precisión media del 81%, en comparación con la media humana del 56% reportada en los estudios de validación originales.

Esto es impresionante y perturbador. Si las AIs tienen mejor «inteligencia emocional» que los humanos en tests estandarizados, ¿qué dice eso sobre nosotros? Claro que hay una diferencia entre responder correctamente a un test y realmente sentir y comprender emociones, pero es un resultado muuuuy interesante.

Fuente original

Meta planea reemplazar humanos por AI para evaluar riesgos de privacidad y sociales

Meta planea reemplazar a los revisores humanos por inteligencia artificial para evaluar los riesgos de privacidad y sociales asociados a nuevas funcionalidades de Instagram, WhatsApp y Facebook. Este cambio, que busca agilizar el proceso de evaluación, suscita preocupaciones sobre la capacidad de la AI para detectar y mitigar eficazmente los potenciales daños. Aunque Meta defiende que la AI permitirá lanzar actualizaciones de aplicaciones más rápidamente, los críticos argumentan que la decisión podría comprometer la calidad de la evaluación y aumentar los riesgos para los usuarios.

Hmm, ¿usar AI para evaluar riesgos sociales de la propia AI? Esto me parece el equivalente tecnológico de «dejar al zorro a cargo del gallinero». Comprendo la necesidad de acelerar procesos, pero algunas cosas requieren el juicio humano, especialmente cuando se trata de impacto social. Que Meta abra los ojos y dé marcha atrás en esta idea.

Fuente original

Mistral lanza un cliente de programación «vibe», Mistral Code

La startup francesa de AI Mistral está lanzando su propio cliente de «programación vibe», Mistral Code, para competir con incumbentes como Windsurf, Cursor de Anysphere y GitHub Copilot. Mistral Code es un asistente de programación impulsado por AI que agrupa los modelos de Mistral, un asistente «in-IDE», opciones de implementación local y herramientas empresariales en un único paquete. La versión beta privada está disponible para plataformas de desarrollo JetBrains y VS Code de Microsoft.

Mistral está siguiendo el ejemplo de otras empresas al crear su propio IDE. El término «vibe coding» se está volviendo popular, y me gusta la idea. Programar debería ser intuitivo y fluido. La opción de implementación local es un diferencial importante para empresas preocupadas por la seguridad.

Fuente original

OpenAI critica orden judicial para guardar todos los registros de ChatGPT, incluyendo chats borrados

OpenAI está luchando contra una orden judicial para preservar todos los registros de usuarios de ChatGPT, incluyendo chats borrados y sensibles, alegando que esta orden viola la privacidad de los usuarios y perjudica su capacidad para cumplir los compromisos de privacidad. La empresa argumenta que la orden fue emitida prematuramente, basándose solo en especulaciones de que los usuarios estarían borrando sus registros para encubrir infracciones de derechos de autor.

Esta es una batalla importante para la privacidad digital. Si los tribunales pueden ordenar la preservación de datos que los usuarios explícitamente borraron, ¿dónde queda el control sobre nuestra propia información? Apoyo a OpenAI en esta lucha, aunque a veces discrepe de sus otras decisiones (muchas otras, por cierto).

Fuente original

Samsung cerca de un acuerdo amplio con Perplexity para funcionalidades de inteligencia artificial

Samsung Electronics Co. está cerca de un acuerdo amplio para invertir en Perplexity AI Inc. y colocar la tecnología de búsqueda de la startup de inteligencia artificial en la vanguardia de los dispositivos de la empresa surcoreana. Las dos empresas están en conversaciones para precargar la aplicación y el asistente de Perplexity en los próximos dispositivos Samsung e integrar las funcionalidades de búsqueda de la startup en el navegador web de Samsung. Las empresas también discutieron la integración de la tecnología de Perplexity en el asistente virtual Bixby de Samsung.

Finalmente Samsung puede tener una oportunidad de revitalizar Bixby. Perplexity tiene un enfoque diferenciado para la búsqueda con AI, e integrar eso en los dispositivos Samsung puede ser exactamente lo que necesitan para competir con Google Assistant y Siri. Es una asociación que tiene sentido para ambas partes, espero que pongan la solución a disposición también para teléfonos no-Samsung.

Fuente original

Este punto de referencia usó el AITA de Reddit para testear cuánto los modelos de AI son serviles

Un nuevo punto de referencia, llamado Elephant, hace más fácil identificar cuándo los modelos de AI son excesivamente serviles - pero no hay solución actual. Una nueva referencia que mide las tendencias serviles de los principales modelos de AI puede ayudar a las empresas de AI a evitar esos problemas en el futuro.

Usar el subreddit AITA para testear si las AIs son demasiado «people-pleasing» es divertidísimo. Es un problema real, muchos modelos tienden a estar de acuerdo con todo lo que decimos, incluso cuando deberían discrepar o llamarnos la atención. Espero que este benchmark ayude a crear AIs más honestas y menos serviles. Y desde que descubrí este término «people-pleasing» ya no creo más en la humanidad, LOL.

Fuente original

Aprendizaje por transferencia para modelado predictivo de la covid-19: un estudio multicéntrico de 12 hospitales

Este estudio multicéntrico, realizado en 12 hospitales en Brasil, demuestra la aplicación exitosa del aprendizaje por transferencia en la predicción de admisiones en Unidades de Terapia Intensiva (UTI) para pacientes con covid-19. Al aprovechar el conocimiento de un hospital con mejor rendimiento, fue posible mejorar y acelerar el entrenamiento de modelos predictivos en otros hospitales con menos datos o rendimiento inferior, destacando el potencial del aprendizaje por transferencia para aumentar la eficiencia y adaptabilidad en contextos de salud con recursos limitados.

Este tipo de colaboración entre hospitales usando AI es exactamente lo que necesitamos ver más. El aprendizaje por transferencia permite que hospitales con menos recursos se beneficien de la experiencia de otros. Es AI siendo usada para el bien común, especialmente importante en países con desigualdades en la salud.

Fuente original

Presupuesto de Trump prohibiría a los estados regular la AI por 10 años. Esto puede ser un problema para los americanos comunes.

El presupuesto del expresidente Donald Trump propone una prohibición de 10 años para que los estados regulen la inteligencia artificial (AI), lo que podría dejar al público vulnerable a la AI sin ninguna protección. La propuesta forma parte de una revisión drástica de la estructura fiscal y financiera del gobierno federal y ha generado preocupaciones entre legisladores y expertos del sector, quienes argumentan que los estados deben tener la libertad de regular esta tecnología potencialmente transformadora.

Diez años sin regulación estatal de AI me parece demasiado tiempo en una tecnología que evoluciona tan rápidamente. Comprendo la necesidad de no sofocar la innovación, pero alguna supervisión es necesaria. La AI afecta todo, desde empleo hasta privacidad, no podemos dejar eso completamente desregulado. Cada vez que leo una noticia como esta agradezco las barreras impuestas por la UE.

Fuente original

Windsurf dice que Anthropic está limitando su acceso directo a los modelos Claude AI

Windsurf, una startup popular de «vibe-coding» que, según se informa, fue adquirida por OpenAI, afirma que Anthropic ha reducido significativamente su acceso de primera parte a sus modelos Claude 3.7 Sonnet y Claude 3.5 Sonnet AI. Windsurf tiene que encontrar otros proveedores de computación de terceros para ejecutar varios de los modelos de AI más populares de Anthropic en su plataforma. Anthropic está priorizando la capacidad para asociaciones sostenibles y permite que los programadores accedan a Claude a través de su integración directa en la API, de su ecosistema de socios y de otras herramientas de desarrollo.

Si Windsurf fue realmente adquirida por OpenAI, entonces tiene sentido que Anthropic limite el acceso, sería extraño alimentar a la competencia. Esta situación muestra cómo las adquisiciones en el espacio de la AI pueden tener consecuencias inesperadas para los usuarios de las herramientas. Repito aquí nuevamente, si OpenAI formaliza esta compra, dejaremos de usar Windsurf aquí.

Fuente original

Paper: Máquina de Gödel Darwin: Evolución abierta de agentes de auto-mejora

Los sistemas de AI actuales tienen arquitecturas fijas diseñadas por humanos y no consiguen mejorarse de forma autónoma y continua. La Máquina de Gödel Darwin (DGM) es un sistema de auto-mejora que modifica iterativamente su propio código y valida empíricamente cada cambio usando benchmarks de programación. Inspirada en la evolución darwiniana, la DGM mantiene un archivo de agentes de codificación generados, aumentando el rendimiento en el SWE-bench de 20,0% a 50,0% y en el Polyglot de 14,2% a 30,7%.

Esto es simultáneamente fascinante y un poco aterrador. Una AI que se mejora a sí misma es el santo grial de la inteligencia artificial, pero también es algo que muchos investigadores temen. Los resultados son impresionantes, pero espero que haya controles rigurosos en su lugar. Estamos literalmente creando sistemas que evolucionan solos.

Fuente original


Y así llegamos al final de otra semana repleta de desarrollos que nos hacen cuestionar qué es real y qué es artificial.

Lo que más me marca esta semana es la diversidad de aplicaciones. Desde la prevención del cáncer de mama hasta los 700 ingenieros indios que se hicieron pasar por AI, vemos que esta tecnología está simultáneamente resolviendo problemas reales y creando nuevos desafíos éticos y sociales.

La pregunta ya no es si la AI va a cambiar nuestras vidas, sino cómo vamos a navegar esos cambios de forma responsable.


Últimos artículos relacionados