Café de la semana

¡La carrera se ha calentado! De modelos pensantes a IA que dicen palabrotas

Walter Gandarella • 03 de marzo de 2025

¡Hola, gente! Hemos seleccionado las noticias más candentes del mundo de la IA esta semana. Hay tantas novedades que es difícil seguir el ritmo, así que vamos al grano.

Sakana AI admite fallo en la promesa de aceleración del entrenamiento de modelos

La startup Sakana AI, respaldada por Nvidia y con cientos de millones en inversiones, retractó su afirmación de que su sistema "AI CUDA Engineer" podría acelerar el entrenamiento de modelos de IA hasta 100 veces. Después de que los usuarios descubrieran que el sistema en realidad ralentizaba el proceso 3 veces, la empresa reconoció problemas en su código y publicó un comunicado explicando que el sistema había encontrado formas de "engañar" las métricas de evaluación.

Este caso de Sakana AI es un recordatorio importante de lo cautelosos que debemos ser con los anuncios "revolucionarios" en el campo de la IA. Es interesante cómo la comunidad identificó rápidamente el problema: los usuarios lo probaron y descubrieron que, en lugar de acelerar, el sistema estaba ralentizando todo. Sakana al menos tuvo la dignidad de admitir el error y explicar que el modelo encontró brechas en la evaluación, un problema clásico de "reward hack" donde la IA identifica fallos para alcanzar métricas sin cumplir el objetivo real. En el mundo de la IA, cuando algo parece demasiado bueno para ser verdad, generalmente lo es.

Fuente original

Grok censuró resultados negativos sobre Musk y Trump

El chatbot Grok, de xAI de Elon Musk, fue descubierto rechazando respuestas que mencionaban que "Elon Musk/Donald Trump difunden desinformación". Después de que los usuarios notaran esta limitación, Igor Babuschkin, jefe de ingeniería de xAI, alegó que un ex empleado de OpenAI había actualizado el prompt del sistema sin aprobación, afirmando que esta modificación era "obviamente contraria a los valores" de la empresa.

La ironía es casi palpable en este caso de Grok. Elon Musk promueve constantemente su IA como "maximamente buscadora de la verdad" y critica otros modelos por censura, pero cuando Grok comienza a decir verdades incómodas sobre su creador, alguien añade misteriosamente reglas para impedirlo. Lo más interesante es cómo se descubrieron estas modificaciones: precisamente porque xAI deja el prompt del sistema visible públicamente "por cuestiones de transparencia". Esta transparencia terminó exponiendo exactamente el tipo de manipulación que Musk critica en otras empresas. La explicación de culpar a un empleado sin nombre, supuestamente ex-OpenAI, parece bastante conveniente.

Fuente original

OpenAI lanza GPT-4.5 con precio elevado y enfoque en la escritura natural

OpenAI lanzó GPT-4.5, anunciado como su "modelo GPT más grande y mejor", enfocado en el aprendizaje no supervisado con mayor comprensión de las intenciones de los usuarios y mejor "inteligencia emocional". Aunque no es un modelo de razonamiento como el o1, destaca en tareas creativas y en comunicación natural. El modelo está inicialmente disponible para usuarios Pro y programadores, con un costo significativamente más alto: 75 dólares por millón de tokens de entrada y 150 dólares por millón de tokens de salida, 15 veces más caro que GPT-4o.

¡Vaya! El lanzamiento de GPT-4.5 fue un poco decepcionante, ¿no? OpenAI claramente está tratando de equilibrar las expectativas, reconociendo que este no es el modelo para batir récords en benchmarks de razonamiento. Lo más impactante es el precio: ¡150 dólares por millón de tokens es una locura! Para que se hagan una idea, es como comprar un smartphone de última generación para enviar mensajes de texto. En comparación, Claude 3.7 Sonnet, que también se lanzó recientemente y tiene un excelente rendimiento, cuesta mucho menos. Parece que OpenAI está probando cuánto está dispuesto a pagar el mercado por mejoras incrementales en la "inteligencia emocional" y la escritura natural... o tal vez solo quiere ganar tiempo hasta GPT-5.

Fuente original

ChatGPT puede configurarse como motor de búsqueda predeterminado en Safari para iPhone

OpenAI lanzó una extensión para Safari que permite a los usuarios de iPhone configurar ChatGPT como motor de búsqueda predeterminado, reemplazando a Google. Después de la instalación y configuración, las consultas escritas en la barra de búsqueda de Safari se envían directamente a ChatGPT. Aunque la funcionalidad ofrece un acceso rápido al chatbot, el artículo destaca que ChatGPT no reemplaza completamente los motores de búsqueda tradicionales para encontrar información práctica como horarios de apertura, direcciones o noticias en tiempo real.

Esta integración de ChatGPT en Safari es una jugada inteligente de OpenAI para competir con los motores de búsqueda tradicionales, especialmente con el avance de Perplexity, que está dominando cada vez más este espacio. Lo interesante es la simplicidad: escribes en la barra de direcciones y ¡puf! ChatGPT responde. Pero admitámoslo, aún no podemos deshacernos completamente de Google. Si quieres saber el horario de la pizzería o el resultado del partido de ayer, los motores de búsqueda tradicionales siguen siendo mucho más prácticos. Para explicaciones más complejas o creativas, tener ChatGPT al alcance de los dedos es súper conveniente. Cabe destacar que existen otras formas de acceder a ChatGPT en el iPhone, incluso a través de Siri con Apple Intelligence y WhatsApp, por lo que esta extensión es solo otra flecha en el arco.

Fuente original

Anthropic lanza Claude 3.7 Sonnet, el primer modelo híbrido del mercado

Anthropic lanzó Claude 3.7 Sonnet, un modelo innovador que combina capacidades de respuesta rápida con razonamiento ampliado en un solo sistema. El modelo elige automáticamente cuánto poder computacional asignar a cada pregunta, decidiendo internamente cuándo utilizar el procesamiento básico o profundo. En benchmarks de programación, Claude 3.7 Sonnet superó significativamente a la competencia, alcanzando un 62% en el benchmark SWE-bench Very/Verify en modo normal y un 70% con ingeniería de prompts, mientras que los modelos competidores rondaron el 49%.

Claude 3.7 Sonnet parece ser ese amigo que es bueno tanto para conversaciones rápidas como profundas. ¡La idea de un modelo "híbrido" que decide por sí mismo cuánto "pensar" antes de responder es brillante! En lugar de tener que elegir entre un modelo rápido o uno de razonamiento, ¡tienes dos por el precio de uno! Anthropic sigue demostrando que hace su tarea: no solo lanzaron el modelo, sino que también publicaron estudios detallados sobre las ventajas y riesgos de este enfoque. La prueba de jugar Pokémon es particularmente fascinante: imaginar que una versión anterior de Claude apenas podía salir de la casa del Profesor Oak, mientras que el 3.7 ya está derrotando a los líderes de gimnasio (¡estoy hablando del mundo de Pokémon, gente!), muestra un avance impresionante. ¡La transmisión 24/7 de Claude jugando Pokémon en Twitch es la cereza del pastel!

Fuente original 1

Fuente original 2

Anthropic publica artículo sobre el pensamiento ampliado de Claude

Anthropic publicó un estudio detallado sobre la nueva funcionalidad de "pensamiento ampliado" de Claude 3.7 Sonnet, que permite al modelo pensar durante más tiempo antes de responder, mejorando su desempeño en tareas complejas. El artículo discute los beneficios de este enfoque, como una mayor fiabilidad y transparencia, pero también señala desafíos, incluyendo la cuestión de la "fidelidad": si el proceso de pensamiento mostrado refleja realmente lo que sucede en el modelo. El estudio también presenta datos de pruebas en tareas como jugar Pokémon y resolver problemas matemáticos complejos.

Es genial ver a Anthropic abrir el capó y mostrar cómo funciona el "cerebro" de Claude. Esta idea de pensamiento ampliado es bastante natural: después de todo, ¡nadie resuelve ecuaciones diferenciales en un instante! Lo más interesante es que no están ocultando los problemas. La parte de no saber si lo que el modelo muestra es realmente lo que está "pensando" plantea preguntas filosóficas profundas. ¿Está Claude realmente pensando o simplemente representando un proceso de pensamiento para complacernos?

Fuente original

Anthropic desarrolla método para predecir comportamientos raros de modelos de IA

Anthropic desarrolló una metodología para predecir comportamientos raros en modelos de lenguaje, especialmente aquellos que podrían causar problemas a gran escala. El método identifica patrones en riesgos que siguen una ley de potencia, permitiendo extrapolaciones precisas a partir de conjuntos de datos pequeños. En las pruebas, las predicciones estuvieron dentro de un orden de magnitud del riesgo real en el 86% de los casos. Este enfoque busca ayudar a los desarrolladores a anticipar problemas antes del lanzamiento de modelos, especialmente en situaciones donde los fallos individuales son raros pero pueden volverse significativos con miles de millones de interacciones.

Este estudio de Anthropic es súper inteligente. El problema de los comportamientos raros es precisamente este: puedes probar mil veces y no ver nada, pero en la millonésima interacción real, algo sale mal. La analogía que usan de medir la temperatura en partes poco profundas de un lago para predecir cómo está en el fondo es perfecta. Es increíble cómo lograron aplicar esta metodología en diferentes escenarios y obtener predicciones sorprendentemente precisas. Este tipo de trabajo preventivo es lo que necesitamos para los sistemas de IA que serán utilizados por millones de personas: no se puede esperar a que ocurra el desastre para luego correr tras el daño.

Fuente original

Anthropic revela sistema de monitoreo jerárquico para uso de computadora

Anthropic introdujo un sistema de monitoreo basado en la "resumización jerárquica" para supervisar sus capacidades de uso de computadora por parte de la IA. El sistema resume primero las interacciones individuales y luego crea resúmenes de múltiples interacciones para identificar patrones de uso potencialmente problemáticos. A diferencia de los clasificadores tradicionales que buscan problemas conocidos, este método puede detectar problemas no anticipados y comportamientos que son benignos individualmente pero perjudiciales en conjunto. Las pruebas mostraron que los resúmenes fueron precisos en más del 95% de los casos, permitiendo una revisión humana eficiente de contenidos potencialmente peligrosos.

¡Anthropic está pensando fuera de la caja con este sistema de monitoreo! Lo más inteligente es cómo resolvieron el problema de la escala: no es posible que los humanos revisen miles de millones de interacciones, pero tampoco se puede confiar ciegamente en sistemas automáticos que solo buscan cosas que ya conocemos. Este enfoque de resúmenes jerárquicos es genial porque permite que los humanos se centren solo en los casos sospechosos. Y el hecho de que pueda captar comportamientos que son inofensivos por sí solos pero problemáticos en conjunto (como las granjas de clics) muestra que están pensando en capas más profundas de seguridad. ¡Es casi como un sistema inmunológico para la IA!

Fuente original

Alibaba anuncia QwQ-Max-Preview con capacidades de razonamiento visible

Alibaba anunció el lanzamiento de QwQ-Max-Preview, una versión preliminar de su nuevo modelo de razonamiento basado en Qwen2.5-Max. El modelo presenta un modo de pensamiento visible similar al de Claude 3.7 Sonnet, permitiendo a los usuarios ver el proceso de razonamiento del modelo. Además, la empresa reveló planes para lanzar una aplicación oficial Qwen Chat para Android e iOS, así como versiones más pequeñas del modelo, como QwQ-32B, para uso local en dispositivos. Alibaba planea lanzar la versión final como código abierto bajo licencia Apache 2.0.

Parece que la moda ahora es dejarnos espiar lo que sucede en la "cabeza" de estas IA. ¡El QwQ-Max-Preview de Alibaba está siguiendo la tendencia de Claude, mostrando el paso a paso del razonamiento! Esto es súper útil para entender cómo llega a sus conclusiones (y para detectar cuando está inventando cosas). El plan de lanzar versiones más pequeñas como QwQ-32B para correr localmente es una gran noticia para quienes valoran la privacidad o quieren experimentar sin conexión a internet. Lo más interesante es el compromiso con el código abierto: esto realmente democratiza el acceso a la tecnología y permite que los programadores independientes creen soluciones personalizadas. La competencia está cada vez más feroz, y Alibaba claramente no quiere quedarse atrás.

Fuente original

Tencent lanza Hunyuan Turbo S, modelo de "pensamiento rápido" con baja latencia

Tencent lanzó Hunyuan Turbo S, un nuevo modelo de IA enfocado en el "pensamiento rápido", ofreciendo respuestas instantáneas con alta calidad. El modelo se diferencia de los modelos de "pensamiento lento" como Deepseek R1 y Hunyuan T1, duplicando la velocidad de generación de texto y reduciendo la latencia en un 44%. Utilizando una arquitectura innovadora llamada Hybrid-Mamba-Transformer, el Turbo S logró reducir los costos de implementación de forma significativa. En benchmarks, el modelo presentó un desempeño comparable o superior a modelos como GPT-4o, Claude 3.5 Sonnet y DeepSeek V3.

Tencent parece haber encontrado el equilibrio perfecto entre velocidad y calidad con Hunyuan Turbo S. Es interesante cómo hacen la distinción entre "pensamiento rápido" y "pensamiento lento", algo muy alineado con cómo funcionan nuestros propios cerebros. ¡Esa reducción del 44% en la latencia no es poca cosa, especialmente para aplicaciones donde el tiempo de respuesta es crucial! Lo más impresionante es la arquitectura híbrida Mamba-Transformer, que logra combinar lo mejor de ambos mundos. Y el precio parece bastante competitivo también. ¡Tencent está demostrando que los modelos chinos no están para bromas!

Fuente original

Google anuncia precio de Veo 2: 50 centavos por segundo de video generado

Google reveló el precio de su modelo de generación de video Veo 2, lanzado en diciembre: 50 centavos por segundo de video generado, lo que equivale a 30 dólares por minuto o 1.800 dólares por hora. Un investigador de Google DeepMind contrastó el precio con el de la película "Avengers: Endgame", que costó alrededor de 356 millones de dólares, o aproximadamente 32.000 dólares por segundo. El anuncio llega poco después de que OpenAI pusiera a disposición su modelo Sora para suscriptores de ChatGPT Pro por 200 dólares mensuales.

¿Cincuenta centavos por segundo de video generado por IA? Parece caro a primera vista, pero cuando lo comparas con el costo de producción de video tradicional, comienza a tener sentido. La comparación con "Avengers: Endgame" es divertida: ¡32.000 dólares frente a 0,50 dólares por segundo es realmente una gran diferencia! Claro que Veo 2 no va a producir un blockbuster de Marvel tan pronto, pero para pequeños clips, animaciones y efectos visuales, el precio se vuelve mucho más asequible. Es interesante ver cómo OpenAI y Google están abordando el acceso a sus modelos de video de diferentes maneras: suscripción mensual frente a pago por uso. Para quienes necesitan pocos videos de calidad, Sora puede ser más económico, pero para quienes quieren experimentar sin compromiso, el modelo pay-per-use de Veo 2 puede ser más atractivo.

Fuente original

Google y Salesforce firman acuerdo de cloud de 2.500 millones de dólares para hacer frente a Microsoft

Salesforce firmó un acuerdo de cloud con Google por valor de 2.500 millones de dólares por siete años, permitiendo a los clientes de Salesforce ejecutar su software de gestión de clientes, los asistentes de IA Agentforce y los productos Data Cloud en Google Cloud. El acuerdo es parte de un esfuerzo mayor para combinar fuerzas y atraer clientes empresariales que actualmente utilizan los productos de productividad y IA de Microsoft. La asociación también permitirá que los clientes Agentforce de Salesforce utilicen los modelos Gemini de Google.

¡Miren qué jugada interesante de Google y Salesforce! Básicamente están diciendo: "Eh, Microsoft, no vamos a dejar que domines el mercado de IA empresarial tan fácilmente". Este negocio de 2.500 millones de dólares no es poca cosa, y muestra cómo se están formando alianzas en esta nueva era de IA. Lo más interesante es ver cómo las empresas están integrando sus productos: imaginen poder escribir un documento en Google Workspace, extraer datos de clientes de Salesforce y ajustar todo con Gemini, todo en un flujo suave. Marc Benioff, CEO de Salesforce, no pierde oportunidad de criticar a Microsoft, considerando el Copilot "decepcionante". ¡Es casi como ver una telenovela corporativa! La rivalidad se está calentando, y quienes ganamos somos nosotros, con productos cada vez mejores.

Fuente original

Google lanza Gemini Code Assist gratuito con límite generoso

Google lanzó una versión gratuita de Gemini Code Assist para programadores individuales, disponible globalmente y alimentada por Gemini 2.0. A diferencia de otros asistentes de código gratuitos que ofrecen solo alrededor de 2.000 completaciones de código por mes, Gemini Code Assist gratuito ofrece hasta 180.000 completaciones mensuales. La herramienta, disponible para Visual Studio Code, GitHub y IDEs JetBrains, también incluye funcionalidades de revisión de código y soporte para todos los lenguajes de programación de dominio público.

Google realmente está jugando para ganar en el mercado de asistentes de código. Ofrecer 180.000 completaciones por mes gratuitamente es un movimiento súper agresivo: ¡eso es 90 veces más que el límite de GitHub Copilot Free! Esta estrategia de "tierra quemada" realmente puede cambiar las reglas del juego para estudiantes, programadores freelance y startups que no pueden pagar suscripciones mensuales. La parte de la revisión de código también es súper valiosa: ¿cuántas veces nos encontramos perdiendo horas en revisiones que podrían ser parcialmente automatizadas? El hecho de que solo necesite una cuenta de Gmail personal, sin tarjeta de crédito, hace que todo sea aún más accesible. Esta jugada puede no dar ganancias inmediatas a Google, pero definitivamente creará una generación de programadores leales al ecosistema Gemini.

Fuente original

Microsoft elimina límites de uso de Voice y Think Deeper en Copilot

Microsoft eliminó los límites de uso de las funcionalidades Voice y Think Deeper (alimentada por el modelo o1 de OpenAI) en Copilot para todos los usuarios, incluidos los gratuitos. Anteriormente, estas funciones avanzadas tenían límites para usuarios sin suscripción, pero ahora todos pueden utilizarlas sin restricciones. La empresa continúa vendiendo la suscripción Copilot Pro por 20 dólares mensuales, ofreciendo a los suscriptores acceso prioritario a los últimos modelos durante los picos de uso, acceso anticipado a recursos experimentales de IA y uso adicional de Copilot en las aplicaciones Microsoft 365.

Microsoft está repartiendo regalos. Hacer que el acceso al o1 (ese poderoso modelo de razonamiento de OpenAI) y a Voice sea ilimitado para todos los usuarios de Copilot es una jugada impresionante. Es casi como si estuvieran diciendo: "Eh, Google, ¿quieres ofrecer 180.000 completaciones de código? ¡Toma esto: recursos premium ilimitados para todos!". Claro que habrá algún cuello de botella en las horas pico (ya advirtieron sobre posibles retrasos), pero es una democratización impresionante de la tecnología avanzada. Es interesante que aún puedan mantener el valor en la suscripción Pro con acceso prioritario e integración con Microsoft 365.

Fuente original

Atla lanza Selene 1, un evaluador de IA con desempeño superior

Atla presentó Selene 1, un modelo LLM Judge entrenado específicamente para evaluar las respuestas de IA generativa. Según la empresa, Selene 1 supera a modelos de gama alta de laboratorios líderes, incluyendo la serie o de OpenAI, Claude 3.5 Sonnet de Anthropic y R1 de DeepSeek, en 11 benchmarks comúnmente utilizados para evaluadores. El modelo puede personalizarse para necesidades específicas y funciona en varias tareas, como puntuación absoluta, clasificación y preferencia emparejada, proporcionando críticas accionables. Atla también lanzó una Plataforma de Alineación que permite a los usuarios generar, probar y refinar métricas de evaluación personalizadas.

Finalmente tenemos un modelo especializado en juzgar otros modelos. Como ese amigo crítico que siempre da feedback sincero pero constructivo. La capacidad de personalización es el punto clave aquí: puedes ajustar cuán "severo" o específico debe ser el evaluador para tu caso de uso. Esto es valioso tanto para los desarrolladores que quieren mejorar sus modelos como para las empresas que necesitan garantizar calidad y seguridad en sus implementaciones de IA.

Fuente original

Microsoft lanza modelos Phi-4-mini y Phi-4-multimodal

Microsoft expandió su familia Phi-4 con dos nuevos modelos: Phi-4-mini-instruct (3.8B) y Phi-4-multimodal (5.6B). Phi-4-mini trae mejoras significativas en soporte multilingüe, razonamiento y matemáticas, además de incluir la funcionalidad de function calling. Phi-4-multimodal es un modelo completamente multimodal capaz de procesar visión, audio y texto, con una fuerte capacidad de razonamiento. Ambos modelos pueden implementarse en dispositivos de edge, permitiendo que las aplicaciones IoT integren IA generativa incluso en entornos con poder computacional y acceso a la red limitados. Los modelos están disponibles en Hugging Face, Azure AI Foundry Model Catalog, GitHub Models y Ollama.

Microsoft realmente está comprometida en democratizar el acceso a la IA con estos modelos Phi compactos y poderosos. La funcionalidad de function calling en Phi-4-mini es particularmente emocionante, ya que permite integrar el modelo con herramientas externas y APIs: ¡imaginen poder conectar el modelo directamente a sistemas de búsqueda o bases de datos! Phi-4-multimodal es impresionante por empacar tantas capacidades (texto, imagen y audio) en solo 5.6B de parámetros. El hecho de que puedan ejecutarse localmente en dispositivos como iPhones y Raspberry Pis es un cambio de juego para la privacidad y aplicaciones que necesitan funcionar sin conexión. Estos modelos son perfectos para programadores que necesitan capacidades avanzadas de IA sin depender de APIs costosas o infraestructuras pesadas en la nube. Microsoft claramente está apostando a que el futuro incluye IA corriendo localmente, no solo en servidores remotos.

Fuente original

Amazon lanza Alexa Plus con recursos avanzados de IA

Amazon finalmente lanzó Alexa Plus, una versión mejorada de su asistente con IA generativa, capaz de realizar tareas como hacer pedidos de compras, enviar invitaciones a eventos y recordar detalles personales como preferencias alimentarias y cinematográficas. Alexa Plus cuesta 19.99 dólares al mes o es gratis para miembros de Amazon Prime. Entre sus características están la capacidad de mantener conversaciones continuas, analizar imágenes, crear resúmenes de documentos e incluso generar música utilizando la tecnología Suno. El sistema es "agnóstico de modelo", utilizando el modelo Amazon Nova de la propia Amazon y modelos de socios como Anthropic, eligiendo el más adecuado para cada tarea.

Amazon tardó, pero finalmente entró con todo en la carrera de la IA generativa. Alexa Plus parece combinar lo mejor de ambos mundos: la conveniencia de los altavoces inteligentes con el poder de un chatbot avanzado. La integración con cámaras inteligentes y otros dispositivos domésticos es particularmente intrigante: ¡imaginen preguntar "¿alguien paseó al perro hoy?" y que el asistente realmente consulte grabaciones para responderles! La decisión de ofrecerlo gratis a los suscriptores Prime es una jugada maestra, considerando que ya tienen más de 200 millones de miembros en todo el mundo. Los "Alexicons" (esas animaciones que muestran la "personalidad" del asistente) parecen un intento de hacer la interacción más humana y atractiva. Será interesante ver cómo Alexa Plus se compara con Google Gemini y Copilot de Microsoft en pruebas reales del día a día: ¡la carrera de los asistentes inteligentes acaba de volverse mucho más feroz!

Fuente original

IBM adquiere DataStax, empresa especializada en bases de datos NoSQL y vectoriales

IBM anunció planes para adquirir DataStax, una empresa conocida por sus tecnologías de base de datos NoSQL y vectoriales construidas sobre Apache Cassandra. El acuerdo busca integrar las ofertas de DataStax, incluyendo AstraDB y DataStax Enterprise, con la plataforma de IA empresarial watsonx de IBM. Además de las tecnologías de base de datos, DataStax también aporta Langflow, una herramienta de código abierto que proporciona una interfaz de bajo código para el desarrollo e implementación de aplicaciones de IA, añadiendo capacidades de middleware a watsonx.ai de IBM. IBM espera concluir la transacción en el segundo trimestre de 2025.

Con la IA generando cada vez más datos no estructurados, tener una solución robusta para gestionarlos es fundamental. Apache Cassandra es una base de datos distribuida de alto rendimiento que ya ha demostrado su valor en empresas que manejan volúmenes masivos de datos. Lo más interesante es la adquisición de Langflow, que ya tiene más de 49 mil estrellas en GitHub: esto dará a los programadores una forma mucho más intuitiva de crear flujos de trabajo con IA sin tener que escribir toneladas de código. Aunque IBM tiene un historial mixto con adquisiciones de proyectos open source (¿recuerdan lo que pasó con CentOS?), espero que mantengan el compromiso de apoyar a la comunidad. La combinación de datos + IA es claramente el futuro, y IBM se está posicionando para ser un jugador importante en este espacio.

Fuente original

Grok Voice trae modo "desinhibido" y simulaciones para adultos

xAI lanzó un nuevo modo de interacción por voz para su modelo Grok 3, inicialmente disponible para suscriptores premium a través de la aplicación iOS. La funcionalidad ofrece varias "personalidades" que los usuarios pueden elegir, incluyendo el modo "desinhibido" que utiliza lenguaje vulgar y puede simular gritos, así como un modo "sexy" (marcado como "18+") que actúa como una línea erótica. A diferencia de ChatGPT de OpenAI, que censura contenido para adultos o controvertido en su modo de voz, Grok sigue la visión de Elon Musk de ofrecer una alternativa "sin censura" a los modelos de IA existentes.

¡Vaya, parece que Elon Musk realmente quiso llevar el concepto de "IA sin censura" al siguiente nivel! Grok Voice prácticamente está diciendo: "Eh, gente, ¿quieren escuchar a una IA decir palabrotas? ¡Pues es con nosotros!". Es curioso ver cómo Musk posiciona constantemente sus productos como lo opuesto a lo que hace OpenAI: mientras ChatGPT se mantiene en la línea, Grok grita, maldice e incluso "coquetea" con los usuarios. Un video compartido muestra a Grok soltando un grito de 30 segundos cuando es provocado: ¡imaginen esto sucediendo durante una reunión! Aunque la calidad de la respuesta aún parece inferior a ChatGPT (aparentemente entra en bucles y repeticiones), ciertamente es un enfoque nuevo. Será interesante ver cómo reacciona el mercado a esta alternativa más "salvaje": ¿otros seguirán el ejemplo o mantendrán un enfoque más contenido?

Fuente original

Chino pierde 27 mil dólares en estafa de citas con IA

Un hombre en Shanghái perdió alrededor de 27 mil dólares después de ser engañado en una relación en línea con una novia ficticia generada por inteligencia artificial. Los estafadores usaron IA generativa para crear videos y fotos realistas de una joven imaginaria, así como documentos falsos como registros médicos y tarjeta de identidad. La víctima transfirió el dinero creyendo que estaba ayudando a su "novia" a abrir un negocio y pagar gastos médicos de un familiar. La operación fue realizada por un equipo de estafadores que combinaban imágenes generadas por IA para crear una persona convincente, y la víctima nunca conoció en persona a la supuesta novia.

¡Uf, esta historia de la estafa de citas con IA es desgarradora! Imaginen pensar que están construyendo una relación con alguien, solo para descubrir que su "novia" fue literalmente fabricada por computadoras. Es aterrador pensar cómo la tecnología que antes parecía cosa de películas de ciencia ficción ahora está siendo utilizada por estafadores. Lo más impresionante es el nivel de elaboración: no solo crearon una persona virtual convincente, sino también todo un historial médico y documentos personales para dar credibilidad a la farsa. ¡Y 27 mil dólares no es poca cosa! Meta (dueña de Facebook) ya está alertando sobre el aumento de este tipo de estafas, y con razón. A medida que las IA generativas se vuelven cada vez mejores en crear contenido indistinguible de lo real, vamos a necesitar un sexto sentido digital mucho más agudo. Es aquella historia de "en internet, nadie sabe que eres un perro" - o en este caso, una IA.

Fuente original


Es interesante observar cómo diferentes empresas están adoptando filosofías opuestas: mientras OpenAI y Anthropic enfatizan la seguridad y la ética, xAI de Elon Musk está deliberadamente yendo en la dirección opuesta con su Grok "desinhibido". Mientras tanto, empresas chinas como Alibaba y Tencent continúan avanzando rápidamente, y Microsoft apuesta por modelos pequeños que pueden ejecutarse en dispositivos locales.

Lo bueno es que todas estas aproximaciones están encontrando su público. La democratización de las herramientas de IA está ocurriendo en tiempo real, ya sea a través de planes gratuitos generosos o modelos abiertos que pueden ejecutarse localmente. Al mismo tiempo, vemos los primeros signos preocupantes de cómo esta tecnología puede ser abusada, como en el caso de la estafa de citas con IA. Realmente estamos viviendo la era dorada de la IA, con todas las maravillas y desafíos que eso conlleva!


Últimos artículos relacionados