La aplicación Poe de Quora permite chats grupales: Ahora puedes poner a debatir a GPT-4 y Claude a la vez
Poe, la plataforma de Quora que agrupa diversos modelos de lenguaje, ha lanzado una nueva función de chats grupales que permite a los usuarios interactuar con múltiples IA (como GPT-4 y Claude) a la vez, facilitando la comparación y la colaboración en tiempo real.

La forma en que interactuamos con la Inteligencia Artificial está evolucionando rápidamente. Ya no se trata solo de hablar con un único modelo, sino de aprovechar las fortalezas de varios. La plataforma Poe, desarrollada por Quora, ha dado un paso audaz al introducir los chats grupales.
Esta nueva característica transforma la experiencia de usuario, permitiendo que múltiples modelos de lenguaje grande (LLMs), como el poderoso GPT-4 de OpenAI o el creativo Claude 3 Opus de Anthropic, participen en la misma conversación simultáneamente. Es como sentar a un panel de expertos de IA en una mesa redonda para que discutan un tema.
¿Cómo funciona esta “Mesa Redonda” de Inteligencia Artificial?
Tradicionalmente, si querías comparar la respuesta de GPT-4 con la de Llama 3 sobre un mismo tema, tenías que abrir dos pestañas o aplicaciones separadas, copiar y pegar la pregunta, y luego comparar manualmente los resultados. Era un proceso lento y tedioso.
Con los chats grupales de Poe, el usuario inicia una conversación e invita a dos o más modelos de IA. Una vez dentro, puedes hacer una pregunta o plantear un problema, y cada modelo responderá de forma independiente en el mismo hilo. Esto no solo facilita la comparación, sino que también permite ver cómo las diferentes filosofías de diseño de cada modelo abordan el mismo desafío.
Por ejemplo, podrías pedir a un grupo de IA que te ayuden a planificar unas vacaciones. Podrías tener:
- GPT-4: Encargado de la logística y la reserva de vuelos.
- Claude 3 Opus: Sugiriendo actividades culturales y atracciones menos conocidas.
- Llama 3: Optimizando el presupuesto y buscando alternativas económicas.
El fin de las comparaciones manuales
El principal beneficio para el usuario es la eficiencia. Los chats grupales eliminan la fricción de cambiar de interfaz y permiten una evaluación instantánea de las capacidades de cada modelo. Si un modelo es mejor para la creatividad y otro para la precisión lógica, ahora puedes usarlos en conjunto sin esfuerzo.
Además, esta funcionalidad es un gran avance para aquellos que necesitan respuestas matizadas. Cuando se trata de temas complejos o controvertidos, ver cómo diferentes modelos llegan a distintas conclusiones (o a la misma conclusión por diferentes caminos) ofrece una perspectiva más rica y ayuda al usuario a tomar una decisión informada. Es una forma de aprovechar la inteligencia colectiva de los LLMs.
Más allá de la simple charla: la colaboración de modelos
Aunque el nombre es “chats grupales”, la verdadera potencia reside en la colaboración. Los desarrolladores y usuarios avanzados pueden asignar roles específicos a cada IA dentro del grupo, creando un sistema de agentes virtuales que trabajan juntos para resolver un problema complejo.
Imagina que estás escribiendo un guion. Podrías tener un modelo actuando como el “crítico” (señalando fallos argumentales), otro como el “guionista” (generando diálogos) y un tercero como el “editor de estilo” (asegurando la coherencia tonal). Todo esto sucede en un solo hilo de conversación, haciendo que el proceso creativo sea mucho más fluido y dinámico.
Esta innovación de Poe subraya una tendencia clave en el ecosistema de la IA: la interoperabilidad. Los usuarios ya no están casados con un solo proveedor, sino que buscan plataformas que les permitan acceder y combinar lo mejor de cada uno para potenciar sus tareas diarias y profesionales.






