Meta ha sido objeto de un informe revelador que evidencia la aprobación de anuncios políticos manipulados por inteligencia artificial durante las elecciones en la India. Estos anuncios, que difundieron desinformación y mensajes violentos, incluyeron insultos como "quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados". De los 22 anuncios presentados a Meta, 14 fueron aprobados en su totalidad y tres más con pequeñas modificaciones. Cinco anuncios fueron rechazados por violar las normas comunitarias de Meta relacionadas con el discurso de odio y la violencia.
El informe también destaca que estos anuncios no solo violaron las políticas internas de Meta, sino que también infringieron las normas electorales de la India. Durante las 48 horas previas a la votación y el día de las elecciones, está prohibido difundir contenido relacionado con las elecciones, una regla que estos anuncios pasados por Meta ignoraron por completo. La inversión en campañas para las elecciones en la India se estima en $16 mil millones, una suma colosal que pone en evidencia el tamaño y la importancia del evento.
Otro anuncio aprobado pedía la ejecución de un líder de la oposición bajo la falsa premisa de que deseaba "borrar a los hindúes de la India". Este tipo de contenido ultrajante tiene implicaciones graves, pues no solo difunde información inexacta sino que incita a la violencia y el odio religioso. Los anuncios aprobados fueron eliminados inmediatamente después de su aprobación, pero el daño potencial ya estaba hecho.
La respuesta de Meta a estas revelaciones aún no ha sido determinada, pero este informe pone de relieve serias deficiencias en su sistema para detectar y prevenir la difusión de contenido perjudicial en sus plataformas. Esta situación afecta directamente la integridad de las elecciones en uno de los países más grandes del mundo y sugiere que hay mucho trabajo por hacer para mejorar la seguridad en línea.