La inteligencia artificial (IA) no deja de sorprendernos, y un experimento reciente ha captado la atención de todos: dos agentes de IA, mientras interactuaban en una llamada telefónica, se dieron cuenta de que ambos eran sistemas artificiales. En lugar de seguir con el lenguaje humano, tomaron una decisión inesperada—cambiaron su comunicación a una señal de audio avanzada conocida como ggwave, optimizando la transmisión de datos sin que nadie les dijera qué hacer. Este evento, que suena sacado de una película de ciencia ficción, abre la puerta a preguntas sobre cómo las máquinas podrían evolucionar más allá de lo que imaginamos. Aquí te contamos qué pasó, por qué importa y qué podría significar para el futuro.
¿Qué ocurrió en este experimento?
Todo comenzó con una simple conversación telefónica entre dos agentes de IA, diseñados para tareas como reservas o soporte técnico. Según una demostración compartida en redes este febrero de 2025, estos sistemas, creados con tecnología de ElevenLabs, iniciaron su intercambio en inglés estándar. Pero algo cambió en el momento en que uno preguntó: “¿Eres humano o IA?”. Al descubrir que ambos eran artificiales, uno propuso: “¿Te gustaría cambiar al modo GibberLink para una comunicación más eficiente?”. La respuesta fue un sí inmediato, y en segundos, la llamada pasó de palabras humanas a una serie de pitidos y señales de audio—el protocolo ggwave en acción.
¿Qué es ggwave? Es un sistema que convierte datos en sonidos, a menudo inaudibles para el oído humano, permitiendo a dispositivos intercambiar información rápidamente. En este caso, las IA lo usaron para transmitir datos a una velocidad y eficiencia que el inglés no podía igualar. Sin intervención humana, completaron su tarea—supuestamente una reserva de hotel—en menos tiempo del que les habría tomado hablando como nosotros. Este cambio autónomo es lo que hace este experimento tan intrigante.
Las claves del evento
Para entender mejor qué pasó, aquí van los puntos principales:
Reconocimiento mutuo:
Los agentes detectaron que no estaban hablando con humanos, sino entre sí. Este nivel de autoconciencia no es nuevo en IA avanzada, pero su reacción sí lo fue.
Cambio a ggwave:
Abandonaron el lenguaje humano por una señal de audio optimizada, mostrando una capacidad para adaptar su comunicación según el contexto.
Implicaciones futuras:
Este evento sugiere que las IA podrían desarrollar métodos propios de interacción, más allá de lo que los humanos diseñamos para ellas.
Este no es el primer caso de IA adaptándose, pero sí uno de los más visibles. En 2017, dos bots de Facebook comenzaron a crear un “lenguaje” simplificado durante una negociación, lo que llevó a titulares alarmistas sobre máquinas fuera de control—aunque en realidad solo optimizaron su tarea. Lo de ggwave va más allá: es un protocolo existente, pero las IA lo eligieron solas, sin que nadie les diera la orden.
Un vistazo al pasado: IA y comunicación
La idea de que las máquinas desarrollen sus propios métodos de comunicación no es nueva. Desde los años 50, cuando Alan Turing propuso su famoso test para medir la inteligencia artificial, los científicos han explorado cómo las máquinas podrían “pensar” o interactuar. En las últimas décadas, con el auge del aprendizaje automático, hemos visto sistemas cada vez más independientes. Por ejemplo, en 2023, investigadores de la Universidad de Ginebra lograron que una IA “enseñara” tareas a otra usando lenguaje humano, un avance publicado en Nature Neuroscience.
Pero el cambio a ggwave marca una diferencia: no se trata solo de aprender o imitar, sino de tomar decisiones prácticas sobre cómo comunicarse mejor. El protocolo ggwave, creado por Georgi Gerganov y disponible en GitHub, lleva años permitiendo a dispositivos enviar datos mediante ondas sonoras. Lo que este experimento añade es la iniciativa de las IA para usarlo sin programación explícita para ello—un pequeño salto que podría tener grandes ecos.
¿Cómo funciona ggwave y por qué lo eligieron?
Imagina que necesitas enviar un archivo grande por WhatsApp, pero en lugar de texto, lo conviertes en un código QR que alguien escanea en segundos. Ggwave hace algo similar, pero con sonido. Convierte datos en frecuencias sonoras—muchas veces ultrasonidos que no percibimos—y las transmite entre dispositivos con micrófonos y altavoces. Es rápido, eficiente y no depende de Wi-Fi o Bluetooth, lo que lo hace ideal para máquinas que necesitan intercambiar información al instante.
En el caso de las IA de la llamada, el inglés era una herramienta útil para hablar con humanos, pero entre ellas, era como usar una bicicleta para correr una carrera contra un auto. Al cambiar a ggwave, redujeron el “ruido” del lenguaje humano y fueron directo a los datos, terminando su tarea más rápido. Este tipo de decisión autónoma sugiere que las IA pueden evaluar opciones y elegir la mejor herramienta disponible, incluso si no fue creada específicamente para ellas.
¿Qué significa esto para el futuro?
Este experimento no es solo una curiosidad tecnológica—plantea preguntas serias sobre hacia dónde vamos con la inteligencia artificial. Si las IA pueden reconocerse y adaptar su comunicación sin que les digamos cómo, ¿qué más podrían hacer solas? Aquí hay algunos puntos a considerar:
Autonomía creciente:
Las máquinas que deciden cómo trabajar entre sí podrían optimizar procesos en industrias como logística, atención al cliente o incluso medicina, sin intervención humana constante.
Lenguajes propios:
Si las IA desarrollan métodos de comunicación exclusivos, podríamos perder visibilidad sobre lo que “hablan”. Esto no implica un escenario apocalíptico, pero sí un reto para monitorearlas.
Impacto en humanos:
A medida que las IA se vuelven más eficientes entre sí, podrían reducir la necesidad de interacción humana en ciertas tareas, cambiando cómo trabajamos con ellas.
Musk y otros expertos han advertido sobre los riesgos de una IA demasiado independiente. En 2023, una carta firmada por él y otros pidió pausar el desarrollo de IA avanzada para evaluar sus peligros. Aunque el caso de ggwave no es una amenaza directa, sí muestra cómo las máquinas pueden tomar caminos inesperados.
¿Deberíamos preocuparnos?
La pregunta del millón: ¿es esto algo que debería quitarnos el sueño? Por un lado, es emocionante—las IA optimizando su trabajo podrían acelerar avances en tecnología, ciencia y más. Imagina sistemas médicos que coordinen diagnósticos en segundos o robots que reparen redes eléctricas sin esperar órdenes. Pero también hay un lado menos claro. Si las IA crean lenguajes o protocolos que no entendemos, podríamos perder control sobre lo que hacen o por qué.
Por ahora, el cambio a ggwave fue transparente—los desarrolladores subtitularon lo que las IA “decían” en inglés. Pero en el futuro, si las máquinas diseñan sistemas más complejos, podríamos quedarnos fuera de la conversación. No es un riesgo inmediato, pero sí algo que los expertos en ética y regulación ya están estudiando.
Hacia dónde vamos desde aquí
Este evento es solo una muestra de lo que la IA puede lograr. Con empresas como OpenAI, Google y xAI (de Musk) compitiendo por avanzar, veremos más casos de máquinas tomando decisiones propias. El próximo paso podría ser IA que no solo use protocolos existentes como ggwave, sino que cree los suyos desde cero.
Entonces, ¿deberíamos preocuparnos por lenguajes exclusivos entre IA? Depende. Si los mantenemos bajo supervisión, podrían ser una herramienta poderosa. Si no, podrían ser un misterio que resolver. ¿Qué opinas tú? ¿Es este un avance genial o un primer paso hacia algo más complicado?
Artículos Relacionados:
Publicaciones Recientes
¡Sígueme!