👑 ChatGPT pierde su corona como mejor IA y más noticias

Descubre las últimas noticias impactantes del mundo de la IA: OpenAI lanza herramienta de clonación de voz; Claude 3 supera a GPT-4; Stanford crea Quiet-Star, y Databricks presenta DBRX, un LLM eficiente.

👑 ChatGPT pierde su corona como mejor IA y más noticias

Una semana más que pasa, y las noticias del mundo de la Inteligencia Artificial no se detienen, así que les traemos el resumen de noticias de IA en un minuto con lo más relevante que pasó durante la semana.

La Herramienta de Clonación de Voz de OpenAI

OpenAI nos sorprende con el inesperado anuncio de su herramienta para clonación de voz. 

Aunque todavía no está disponible para el público, este avance sugiere un futuro donde podremos tener voces personalizadas para asistentes virtuales, videojuegos, y mucho más.

OpenAI built a voice cloning tool, but you can’t use it... yet | TechCrunch
OpenAI’s new tool in pilot, Custom Voices, allows developers to create a clone of any voice with a 15-second sample.

Claude 3 supera a GPT4 en Chatbot Arena

Claude 3, el LLM de Anthropic superó en el Ranking de Chatbot Arena a GPT 4 en todos sus sabores. 

En este ranking miles de usuarios de todo el mundo votan entre los modelos usando el famoso sistema ELO al comparar chatbots entre ellos. 

Es la primera vez que alguien le quita el trono a GPT-4, así que tenemos nuevo campeón de la lucha libre.

LMSys Chatbot Arena Leaderboard - a Hugging Face Space by lmsys
Discover amazing ML apps made by the community

Quiet-STaR un nuevo método para hacer que las IA piensen mejor

La Universidad de Stanford reveló Quiet-STaR, un método de entrenamiento para modelos de IA que les permite "pensar antes de hablar", lo que suena lógico para un humano, pero es algo nuevo para las máquinas. 

Lo probaron con el modelo de código abierto Mistral 7B y lograron que bajo el nuevo método , Mistral duplicara sus resultados en los benchmarks de matemáticas y sentido común. Si ya consideramos a la IA “inteligente” ahora, imagínense en el futuro!

Quiet-STaR trains AI to think before it speaks, promising a leap in machine understanding
Researchers at Stanford University have developed a method called “Quiet-STaR” that enables AI systems to learn to think between the lines. This could pave the way for more versatile and efficient AI that can better solve complex tasks.

Accede al paper acá:

Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking

DBRX empuja a la eficiencia computacional

DBRX, un nuevo LLM presentado por Databricks, promete revolucionar la inteligencia artificial. 

Destaca por usar el método de “mix de expertos” y lograr una alta eficiencia computacional al tener resultados al nivel de GPT 3.5 y Gemini Pro, es decir, mejor que todos los modelos de código abierto, pero a una fracción del costo.

Introducing DBRX: A New State-of-the-Art Open LLM | Databricks