En un avance significativo para la medicina y la tecnología, científicos de Google han desarrollado una herramienta de inteligencia artificial (IA) denominada Representaciones Acústicas de Salud (HeAR). Este sistema, entrenado con millones de clips de audio de sonidos humanos, como la tos y la respiración, tiene el potencial de detectar y monitorear condiciones de salud, incluyendo COVID-19 y tuberculosis. La singularidad de HeAR reside en su amplio conjunto de datos y su habilidad para adaptarse y ejecutar múltiples tareas, lo que podría marcar una diferencia sustancial en el diagnóstico de enfermedades.
La formación de HeAR no se basó en el aprendizaje supervisado tradicional, sino que se aprovechó de un enfoque auto-supervisado utilizando datos no etiquetados de videos públicos de YouTube, abarcando más de 300 millones de clips cortos de sonidos humanos. Este método innovador ha permitido a Google crear un modelo fundamental adaptable a una variedad de tareas relacionadas con la salud.
HeAR ha mostrado en pruebas preliminares ser extraordinariamente eficaz, superando a modelos existentes en la detección de COVID-19 y tuberculosis. Sus puntuaciones indican una precisión superior en las predicciones, lo que no solo demuestra la fiabilidad del modelo sino también su aplicabilidad general dada la diversidad de los datos de entrenamiento.
El potencial de HeAR y la ciencia acústica en el ámbito de la salud es inmenso, abriendo nuevas vías para el diagnóstico, el cribado y el monitoreo de enfermedades de manera no invasiva y eficiente. Aunque aún es prematuro determinar si HeAR se convertirá en un producto comercial, el plan de Google de proporcionar acceso al modelo a investigadores interesados sugiere un futuro prometedor para la innovación en este campo emergente.