Tecnología

Meta Aprobó Anuncios Políticos en India que Incitaban a la Violencia Durante Elecciones

Un informe compartido con The Guardian revela que Meta, propietaria de Facebook e Instagram, aprobó anuncios políticos manipulados por inteligencia artificial en la India, difundiendo desinformación y contenido incendiario. De los 22 anuncios presentados, 14 fueron aprobados, incitando a la violencia religiosa y violando normas electorales.

Tecnología

Meta Aprobó Anuncios Políticos en India que Incitaban a la Violencia Durante Elecciones

Un informe compartido con The Guardian revela que Meta, propietaria de Facebook e Instagram, aprobó anuncios políticos manipulados por inteligencia artificial en la India, difundiendo desinformación y contenido incendiario. De los 22 anuncios presentados, 14 fueron aprobados, incitando a la violencia religiosa y violando normas electorales.

"Quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados", son algunos de los insultos aprobados, según el informe.

20/5/2024

Meta ha sido objeto de un informe revelador que evidencia la aprobación de anuncios políticos manipulados por inteligencia artificial durante las elecciones en la India. Estos anuncios, que difundieron desinformación y mensajes violentos, incluyeron insultos como "quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados". De los 22 anuncios presentados a Meta, 14 fueron aprobados en su totalidad y tres más con pequeñas modificaciones. Cinco anuncios fueron rechazados por violar las normas comunitarias de Meta relacionadas con el discurso de odio y la violencia.

El informe también destaca que estos anuncios no solo violaron las políticas internas de Meta, sino que también infringieron las normas electorales de la India. Durante las 48 horas previas a la votación y el día de las elecciones, está prohibido difundir contenido relacionado con las elecciones, una regla que estos anuncios pasados por Meta ignoraron por completo. La inversión en campañas para las elecciones en la India se estima en $16 mil millones, una suma colosal que pone en evidencia el tamaño y la importancia del evento.

Otro anuncio aprobado pedía la ejecución de un líder de la oposición bajo la falsa premisa de que deseaba "borrar a los hindúes de la India". Este tipo de contenido ultrajante tiene implicaciones graves, pues no solo difunde información inexacta sino que incita a la violencia y el odio religioso. Los anuncios aprobados fueron eliminados inmediatamente después de su aprobación, pero el daño potencial ya estaba hecho.

La respuesta de Meta a estas revelaciones aún no ha sido determinada, pero este informe pone de relieve serias deficiencias en su sistema para detectar y prevenir la difusión de contenido perjudicial en sus plataformas. Esta situación afecta directamente la integridad de las elecciones en uno de los países más grandes del mundo y sugiere que hay mucho trabajo por hacer para mejorar la seguridad en línea.

Algo Curioso
Evidencia Global y Comparativa

Impacto en la Sociedad y la Reacción Pública

Las revelaciones del informe han generado una ola de reacciones tanto en India como a nivel internacional. Las organizaciones de derechos humanos y los grupos de vigilancia de medios han condenado enérgicamente a Meta por su aparente falta de supervisión y control sobre el contenido difundido en sus plataformas.

Una de las críticas más vehementes proviene de los líderes religiosos y comunitarios en la India, quienes argumentan que estos anuncios no solo incitaron la violencia, sino que amenazaron con desintegrar la coexistencia pacífica entre diferentes grupos religiosos. Los principales medios de comunicación también se han hecho eco de estas preocupaciones, sugiriendo que la responsabilidad de los gigantes tecnológicos como Meta es mucho mayor de lo que estos están dispuestos a admitir.

En respuesta a las acusaciones, Meta declaró que se obliga a mantener sus plataformas seguras y que está implementando mejoras contínuas en sus sistemas de detección de contenido dañino. Sin embargo, muchos críticos consideran estas declaraciones insuficientes. La confianza pública en la capacidad de Meta para gestionar este tipo de problemas está significativamente erosionada.

Por otro lado, las autoridades electorales de la India están emprendiendo investigaciones para determinar el alcance del daño causado por estos anuncios, tanto en términos de influencia en los votantes como en la violación de las leyes electorales. La posibilidad de que otros actores políticos también hayan utilizado tácticas similares añade una capa adicional de preocupación.

El primer ministro de la India, Narendra Modi, con el jefe de Facebook, Mark Zuckerberg. Fotografía: Bloomberg/Getty Images

Medidas Propuestas y Soluciones Futuras

Ante la creciente presión, se están evaluando posibles medidas y soluciones para evitar que situaciones similares ocurran en el futuro. Una de las propuestas más destacadas es la implementación de un sistema de verificación humana más riguroso antes de aprobar cualquier anuncio político en plataformas de redes sociales.

Otra recomendación incluye la colaboración estrecha entre las empresas tecnológicas y los órganos reguladores electorales de las diferentes naciones. La idea es establecer estándares internacionales que prohíban la difusión de desinformación y el contenido incendiario, especialmente durante períodos electorales críticos. Los defensores de la regulación argumentan que sin medidas más estrictas, las redes sociales seguirán siendo un vector para la manipulación política y la división social.

Además, se sugiere el uso de inteligencia artificial avanzada combinada con intervención humana para la detección y eliminación de contenido dañino de manera efectiva. Esta imbricación de tecnología y supervisión humana podría ofrecer un equilibrio entre la velocidad de procesamiento y la precisión en la identificación de contenidos que violen las normativas.

No obstante, estas medidas también han sido objeto de debate, ya que algunos expertos en privacidad y derechos digitales temen que puedan llevar a una censura excesiva y a la supresión de legítima libertad de expresión.

"Quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados", son algunos de los insultos aprobados, según el informe.

May 20, 2024
Colglobal News

Meta ha sido objeto de un informe revelador que evidencia la aprobación de anuncios políticos manipulados por inteligencia artificial durante las elecciones en la India. Estos anuncios, que difundieron desinformación y mensajes violentos, incluyeron insultos como "quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados". De los 22 anuncios presentados a Meta, 14 fueron aprobados en su totalidad y tres más con pequeñas modificaciones. Cinco anuncios fueron rechazados por violar las normas comunitarias de Meta relacionadas con el discurso de odio y la violencia.

El informe también destaca que estos anuncios no solo violaron las políticas internas de Meta, sino que también infringieron las normas electorales de la India. Durante las 48 horas previas a la votación y el día de las elecciones, está prohibido difundir contenido relacionado con las elecciones, una regla que estos anuncios pasados por Meta ignoraron por completo. La inversión en campañas para las elecciones en la India se estima en $16 mil millones, una suma colosal que pone en evidencia el tamaño y la importancia del evento.

Otro anuncio aprobado pedía la ejecución de un líder de la oposición bajo la falsa premisa de que deseaba "borrar a los hindúes de la India". Este tipo de contenido ultrajante tiene implicaciones graves, pues no solo difunde información inexacta sino que incita a la violencia y el odio religioso. Los anuncios aprobados fueron eliminados inmediatamente después de su aprobación, pero el daño potencial ya estaba hecho.

La respuesta de Meta a estas revelaciones aún no ha sido determinada, pero este informe pone de relieve serias deficiencias en su sistema para detectar y prevenir la difusión de contenido perjudicial en sus plataformas. Esta situación afecta directamente la integridad de las elecciones en uno de los países más grandes del mundo y sugiere que hay mucho trabajo por hacer para mejorar la seguridad en línea.

Meta ha sido objeto de un informe revelador que evidencia la aprobación de anuncios políticos manipulados por inteligencia artificial durante las elecciones en la India. Estos anuncios, que difundieron desinformación y mensajes violentos, incluyeron insultos como "quememos esta basura" y "sangre hindú está derramándose, estos invasores deben ser quemados". De los 22 anuncios presentados a Meta, 14 fueron aprobados en su totalidad y tres más con pequeñas modificaciones. Cinco anuncios fueron rechazados por violar las normas comunitarias de Meta relacionadas con el discurso de odio y la violencia.

El informe también destaca que estos anuncios no solo violaron las políticas internas de Meta, sino que también infringieron las normas electorales de la India. Durante las 48 horas previas a la votación y el día de las elecciones, está prohibido difundir contenido relacionado con las elecciones, una regla que estos anuncios pasados por Meta ignoraron por completo. La inversión en campañas para las elecciones en la India se estima en $16 mil millones, una suma colosal que pone en evidencia el tamaño y la importancia del evento.

Otro anuncio aprobado pedía la ejecución de un líder de la oposición bajo la falsa premisa de que deseaba "borrar a los hindúes de la India". Este tipo de contenido ultrajante tiene implicaciones graves, pues no solo difunde información inexacta sino que incita a la violencia y el odio religioso. Los anuncios aprobados fueron eliminados inmediatamente después de su aprobación, pero el daño potencial ya estaba hecho.

La respuesta de Meta a estas revelaciones aún no ha sido determinada, pero este informe pone de relieve serias deficiencias en su sistema para detectar y prevenir la difusión de contenido perjudicial en sus plataformas. Esta situación afecta directamente la integridad de las elecciones en uno de los países más grandes del mundo y sugiere que hay mucho trabajo por hacer para mejorar la seguridad en línea.

Algo Curioso
Evidencia Global y Comparativa

Impacto en la Sociedad y la Reacción Pública

Las revelaciones del informe han generado una ola de reacciones tanto en India como a nivel internacional. Las organizaciones de derechos humanos y los grupos de vigilancia de medios han condenado enérgicamente a Meta por su aparente falta de supervisión y control sobre el contenido difundido en sus plataformas.

Una de las críticas más vehementes proviene de los líderes religiosos y comunitarios en la India, quienes argumentan que estos anuncios no solo incitaron la violencia, sino que amenazaron con desintegrar la coexistencia pacífica entre diferentes grupos religiosos. Los principales medios de comunicación también se han hecho eco de estas preocupaciones, sugiriendo que la responsabilidad de los gigantes tecnológicos como Meta es mucho mayor de lo que estos están dispuestos a admitir.

En respuesta a las acusaciones, Meta declaró que se obliga a mantener sus plataformas seguras y que está implementando mejoras contínuas en sus sistemas de detección de contenido dañino. Sin embargo, muchos críticos consideran estas declaraciones insuficientes. La confianza pública en la capacidad de Meta para gestionar este tipo de problemas está significativamente erosionada.

Por otro lado, las autoridades electorales de la India están emprendiendo investigaciones para determinar el alcance del daño causado por estos anuncios, tanto en términos de influencia en los votantes como en la violación de las leyes electorales. La posibilidad de que otros actores políticos también hayan utilizado tácticas similares añade una capa adicional de preocupación.

El primer ministro de la India, Narendra Modi, con el jefe de Facebook, Mark Zuckerberg. Fotografía: Bloomberg/Getty Images

Medidas Propuestas y Soluciones Futuras

Ante la creciente presión, se están evaluando posibles medidas y soluciones para evitar que situaciones similares ocurran en el futuro. Una de las propuestas más destacadas es la implementación de un sistema de verificación humana más riguroso antes de aprobar cualquier anuncio político en plataformas de redes sociales.

Otra recomendación incluye la colaboración estrecha entre las empresas tecnológicas y los órganos reguladores electorales de las diferentes naciones. La idea es establecer estándares internacionales que prohíban la difusión de desinformación y el contenido incendiario, especialmente durante períodos electorales críticos. Los defensores de la regulación argumentan que sin medidas más estrictas, las redes sociales seguirán siendo un vector para la manipulación política y la división social.

Además, se sugiere el uso de inteligencia artificial avanzada combinada con intervención humana para la detección y eliminación de contenido dañino de manera efectiva. Esta imbricación de tecnología y supervisión humana podría ofrecer un equilibrio entre la velocidad de procesamiento y la precisión en la identificación de contenidos que violen las normativas.

No obstante, estas medidas también han sido objeto de debate, ya que algunos expertos en privacidad y derechos digitales temen que puedan llevar a una censura excesiva y a la supresión de legítima libertad de expresión.

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa