Tecnología

OpenAI Afirma que un Grupo Iraní Utilizó ChatGPT para Intentar Influir en las Elecciones Estadounidenses

OpenAI ha desactivado un grupo de cuentas de ChatGPT asociadas con la operación de desinformación iraní Storm-2035, que intentaba influir en las elecciones presidenciales de EE. UU. de 2024 mediante la generación y distribución de contenido polarizador.

Tecnología

OpenAI Afirma que un Grupo Iraní Utilizó ChatGPT para Intentar Influir en las Elecciones Estadounidenses

OpenAI ha desactivado un grupo de cuentas de ChatGPT asociadas con la operación de desinformación iraní Storm-2035, que intentaba influir en las elecciones presidenciales de EE. UU. de 2024 mediante la generación y distribución de contenido polarizador.

"La amenaza de desinformación extranjera, especialmente de actores estatales como Irán, se ha intensificado en el contexto de estas elecciones"

- Afirmó un portavoz de OpenAI.

17/8/2024

En un reciente esfuerzo por combatir la desinformación, OpenAI ha desactivado una serie de cuentas de ChatGPT implicadas en la operación de desinformación conocida como Storm-2035. Esta operación, ligada a Irán, tenía como objetivo influir en las elecciones presidenciales de Estados Unidos programadas para el 5 de noviembre de 2024, generando contenido engañoso sobre temas delicados como los candidatos presidenciales, el conflicto en Gaza y la presencia de Israel en los Juegos Olímpicos.

La operación Storm-2035, identificada por OpenAI y respaldada por un informe de inteligencia de Microsoft, lleva operativa desde 2020. Durante este tiempo, la red ha creado sitios web que imitan medios de comunicación y han utilizado mensajes polarizadores para influir en la opinión pública sobre temas como los derechos LGBTQ y el conflicto Israel-Hamas.

El contenido generado por estas cuentas incluía tanto artículos de larga duración como comentarios breves pensados para redes sociales. Un ejemplo destacado es un artículo titulado “Por qué Kamala Harris eligió a Tim Walz como su compañero de fórmula: una elección calculada para la unidad”. Además, se identificó un tweet que erróneamente atribuía a Harris la afirmación de que los “costos de inmigración aumentados” se debían al cambio climático. A pesar de la cantidad de contenido generado, la mayoría de las publicaciones en redes sociales no lograron una participación significativa, mostrando pocos o ningún "me gusta", compartidos o comentarios. OpenAI no observó amplias propagaciones de estos artículos.

OpenAI ha identificado y prohibido un número no especificado de cuentas en X (anteriormente Twitter) y una cuenta de Instagram. Un portavoz de Meta confirmó la desactivación de la cuenta de Instagram, que estaba vinculada a una campaña iraní de 2021. Esta acción se suma a medidas previas de la compañía; en mayo de 2024, OpenAI desactivó cinco campañas similares que buscaban manipular la opinión pública empleando sus modelos.

Este esfuerzo se enmarca en un contexto complejo. La carrera presidencial entre Kamala Harris y Donald Trump sigue en curso, y la amenaza de desinformación extranjera, particularmente de actores estatales como Irán, ha aumentado significativamente. OpenAI ha adoptado una estrategia proactiva para identificar y desactivar cuentas relacionadas con operaciones de desinformación. La empresa utiliza herramientas desarrolladas recientemente para detectar y contrarrestar estas actividades, y continúa monitoreando la situación para prevenir futuros intentos de violación de sus políticas. El uso de inteligencia artificial para generar desinformación no es un fenómeno nuevo, pero su creciente sofisticación ha obligado a las empresas tecnológicas a desarrollar métodos avanzados para contrarrestar estos esfuerzos.

Algo Curioso

"La amenaza de desinformación extranjera, especialmente de actores estatales como Irán, se ha intensificado en el contexto de estas elecciones"

- Afirmó un portavoz de OpenAI.

Aug 17, 2024
Colglobal News

En un reciente esfuerzo por combatir la desinformación, OpenAI ha desactivado una serie de cuentas de ChatGPT implicadas en la operación de desinformación conocida como Storm-2035. Esta operación, ligada a Irán, tenía como objetivo influir en las elecciones presidenciales de Estados Unidos programadas para el 5 de noviembre de 2024, generando contenido engañoso sobre temas delicados como los candidatos presidenciales, el conflicto en Gaza y la presencia de Israel en los Juegos Olímpicos.

La operación Storm-2035, identificada por OpenAI y respaldada por un informe de inteligencia de Microsoft, lleva operativa desde 2020. Durante este tiempo, la red ha creado sitios web que imitan medios de comunicación y han utilizado mensajes polarizadores para influir en la opinión pública sobre temas como los derechos LGBTQ y el conflicto Israel-Hamas.

El contenido generado por estas cuentas incluía tanto artículos de larga duración como comentarios breves pensados para redes sociales. Un ejemplo destacado es un artículo titulado “Por qué Kamala Harris eligió a Tim Walz como su compañero de fórmula: una elección calculada para la unidad”. Además, se identificó un tweet que erróneamente atribuía a Harris la afirmación de que los “costos de inmigración aumentados” se debían al cambio climático. A pesar de la cantidad de contenido generado, la mayoría de las publicaciones en redes sociales no lograron una participación significativa, mostrando pocos o ningún "me gusta", compartidos o comentarios. OpenAI no observó amplias propagaciones de estos artículos.

OpenAI ha identificado y prohibido un número no especificado de cuentas en X (anteriormente Twitter) y una cuenta de Instagram. Un portavoz de Meta confirmó la desactivación de la cuenta de Instagram, que estaba vinculada a una campaña iraní de 2021. Esta acción se suma a medidas previas de la compañía; en mayo de 2024, OpenAI desactivó cinco campañas similares que buscaban manipular la opinión pública empleando sus modelos.

Este esfuerzo se enmarca en un contexto complejo. La carrera presidencial entre Kamala Harris y Donald Trump sigue en curso, y la amenaza de desinformación extranjera, particularmente de actores estatales como Irán, ha aumentado significativamente. OpenAI ha adoptado una estrategia proactiva para identificar y desactivar cuentas relacionadas con operaciones de desinformación. La empresa utiliza herramientas desarrolladas recientemente para detectar y contrarrestar estas actividades, y continúa monitoreando la situación para prevenir futuros intentos de violación de sus políticas. El uso de inteligencia artificial para generar desinformación no es un fenómeno nuevo, pero su creciente sofisticación ha obligado a las empresas tecnológicas a desarrollar métodos avanzados para contrarrestar estos esfuerzos.

En un reciente esfuerzo por combatir la desinformación, OpenAI ha desactivado una serie de cuentas de ChatGPT implicadas en la operación de desinformación conocida como Storm-2035. Esta operación, ligada a Irán, tenía como objetivo influir en las elecciones presidenciales de Estados Unidos programadas para el 5 de noviembre de 2024, generando contenido engañoso sobre temas delicados como los candidatos presidenciales, el conflicto en Gaza y la presencia de Israel en los Juegos Olímpicos.

La operación Storm-2035, identificada por OpenAI y respaldada por un informe de inteligencia de Microsoft, lleva operativa desde 2020. Durante este tiempo, la red ha creado sitios web que imitan medios de comunicación y han utilizado mensajes polarizadores para influir en la opinión pública sobre temas como los derechos LGBTQ y el conflicto Israel-Hamas.

El contenido generado por estas cuentas incluía tanto artículos de larga duración como comentarios breves pensados para redes sociales. Un ejemplo destacado es un artículo titulado “Por qué Kamala Harris eligió a Tim Walz como su compañero de fórmula: una elección calculada para la unidad”. Además, se identificó un tweet que erróneamente atribuía a Harris la afirmación de que los “costos de inmigración aumentados” se debían al cambio climático. A pesar de la cantidad de contenido generado, la mayoría de las publicaciones en redes sociales no lograron una participación significativa, mostrando pocos o ningún "me gusta", compartidos o comentarios. OpenAI no observó amplias propagaciones de estos artículos.

OpenAI ha identificado y prohibido un número no especificado de cuentas en X (anteriormente Twitter) y una cuenta de Instagram. Un portavoz de Meta confirmó la desactivación de la cuenta de Instagram, que estaba vinculada a una campaña iraní de 2021. Esta acción se suma a medidas previas de la compañía; en mayo de 2024, OpenAI desactivó cinco campañas similares que buscaban manipular la opinión pública empleando sus modelos.

Este esfuerzo se enmarca en un contexto complejo. La carrera presidencial entre Kamala Harris y Donald Trump sigue en curso, y la amenaza de desinformación extranjera, particularmente de actores estatales como Irán, ha aumentado significativamente. OpenAI ha adoptado una estrategia proactiva para identificar y desactivar cuentas relacionadas con operaciones de desinformación. La empresa utiliza herramientas desarrolladas recientemente para detectar y contrarrestar estas actividades, y continúa monitoreando la situación para prevenir futuros intentos de violación de sus políticas. El uso de inteligencia artificial para generar desinformación no es un fenómeno nuevo, pero su creciente sofisticación ha obligado a las empresas tecnológicas a desarrollar métodos avanzados para contrarrestar estos esfuerzos.

Algo Curioso

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa