Google, junto al Wild Dolphin Project (WDP) y el Georgia Institute of Technology, ha presentado DolphinGemma, el primer modelo de lenguaje grande (LLM) diseñado específicamente para decodificar el lenguaje de los delfines. El modelo ha sido entrenado con una base de datos acústica recolectada por el WDP durante 40 años y centrada en delfines manchados atlánticos (Stenella frontalis) residentes en las Bahamas.
DolphinGemma emplea tecnologías de audio avanzadas de Google, como el tokenizador SoundStream, optimizadas para el reconocimiento y representación eficiente de los sonidos de los delfines. El modelo contiene aproximadamente 400 millones de parámetros y ha sido diseñado para operar en dispositivos móviles de la línea Pixel, comenzando con el Pixel 6 y transicionando próximamente al Pixel 9. Esta actualización permitirá la ejecución simultánea de modelos de inteligencia artificial y algoritmos de coincidencia de patrones, facilitando el procesamiento de los datos acústicos en tiempo real durante la investigación de campo.
Entre sus capacidades, DolphinGemma puede predecir la secuencia de sonidos emitidos por los delfines, identificando patrones estructurales y generando nuevas cadenas sonoras que incluyen clics, silbidos y pulsos de ráfaga característicos de la comunicación cefalópoda. El modelo posibilita una predicción y generación de sonidos similares a los utilizados por los delfines, lo que representa un avance notable respecto a los métodos previos de análisis manual.
A la par de DolphinGemma, el equipo desarrolló el sistema CHAT (Cetacean Hearing Augmentation Telemetry) para propiciar la comunicación bidireccional con los delfines. Este sistema, basado en un ordenador submarino, detecta las vocalizaciones de los animales y reproduce silbidos artificiales asociados a objetos específicos como juguetes o comida, permitiendo evaluar si los delfines responden de forma imitativa a estos estímulos auditivos.
Uno de los hallazgos más relevantes señala que los delfines emplean silbidos y clics individuales que funcionan como “nombres”, y que muestran la capacidad de reconocerlos, aunque existen variaciones aún no totalmente comprendidas. El volumen de información recolectada en 40 años implica un desafío considerable: analizar manualmente todo el material acústico tomaría cerca de 150 años, lo que subraya la importancia de la IA para acelerar la investigación.
El despliegue de DolphinGemma está previsto para la temporada de campo de 2025, y se anticipa ofrecer el modelo de forma abierta para el uso de la comunidad científica global. La colaboración iniciada en 1985 por el WDP proporcionó el contexto y los datos necesarios para este avance. Con la adopción de tecnologías de inteligencia artificial y audio de última generación, la investigación sobre la comunicación de los delfines se encamina hacia la posibilidad real de establecer un vocabulario compartido entre especies por primera vez.