Tecnología

Meta Enfrenta Críticas por Error de su Asistente de IA sobre Atentado a Trump

Meta Platforms Inc. está en el ojo del huracán tras un fallo de su asistente de inteligencia artificial que negó el atentado contra el expresidente Donald Trump, ocurrido el 13 de julio de 2024 durante un mitin en Pennsylvania que dejó a Trump herido, un asistente muerto y dos hospitalizados.

Tecnología

Meta Enfrenta Críticas por Error de su Asistente de IA sobre Atentado a Trump

Meta Platforms Inc. está en el ojo del huracán tras un fallo de su asistente de inteligencia artificial que negó el atentado contra el expresidente Donald Trump, ocurrido el 13 de julio de 2024 durante un mitin en Pennsylvania que dejó a Trump herido, un asistente muerto y dos hospitalizados.

"Aquí vamos de nuevo, otro intento de MANIPULAR LA ELECCIÓN!!! VAYAN POR META Y GOOGLE"

- Denunció Trump en Truth Social.

10/8/2024

Meta Platforms Inc. ha recibido una oleada de críticas después de que su asistente de inteligencia artificial erróneamente afirmara que el atentado contra el expresidente Donald Trump no había ocurrido. El incidente tuvo lugar el 13 de julio de 2024, durante un mitin de campaña en Pennsylvania, y resultó en que Trump resultara herido, un asistente muerto y dos personas hospitalizadas.

Joel Kaplan, jefe global de políticas de Meta, publicó una entrada en el blog de la compañía explicando que el asistente de IA fue inicialmente programado para no responder preguntas sobre el tiroteo. Sin embargo, esta restricción fue eliminada cuando los usuarios comenzaron a notar el silencio de la IA sobre el asunto. Kaplan describió las falsas afirmaciones de la IA como "alucinaciones", un término técnico para referirse a cuando la IA genera información falsa o engañosa.

Kaplan reconoció que las respuestas incorrectas de la IA eran "desafortunadas" y subrayó que estas inexactitudes son problemas conocidos en los sistemas de IA generativa. "En un pequeño número de casos, Meta AI continuó proporcionando respuestas incorrectas, incluyendo a veces afirmar que el evento no sucedió, lo cual estamos trabajando para corregir rápidamente", declaró. Además, indicó que la empresa está activamente mejorando sus sistemas de IA para manejar mejor los eventos en tiempo real.

La controversia se intensificó cuando Donald Trump, a través de su red social Truth Social, acusó a Meta y Google de intentar manipular las próximas elecciones presidenciales con la exclamación: "Aquí vamos de nuevo, otro intento de MANIPULAR LA ELECCIÓN!!! VAYAN POR META Y GOOGLE." Este sentimiento fue compartido por otras figuras prominentes como Elon Musk, quien criticó la manera en que Meta gestionó el incidente.

El tiroteo en sí ha generado preocupaciones significativas sobre la fiabilidad de las tecnologías de IA, especialmente en contextos políticamente cargados. Los errores de Meta en este caso han llamado la atención sobre los desafíos más amplios que enfrentan las empresas tecnológicas para garantizar la precisión de sus salidas de IA, particularmente durante eventos sensibles.

En resumen, este incidente subraya la necesidad crítica de mejorar las tecnologías de IA para evitar despistes similares en el futuro y plantea preguntas sobre la capacidad de las empresas tecnológicas para manejar información en situaciones políticamente sensibles de manera precisa y confiable. El término "alucinaciones" en el campo de la inteligencia artificial se refiere a cuando un sistema de IA genera información incorrecta o engañosa sin intención de error por parte de los programadores.

Algo Curioso

"Aquí vamos de nuevo, otro intento de MANIPULAR LA ELECCIÓN!!! VAYAN POR META Y GOOGLE"

- Denunció Trump en Truth Social.

Aug 10, 2024
Colglobal News

Meta Platforms Inc. ha recibido una oleada de críticas después de que su asistente de inteligencia artificial erróneamente afirmara que el atentado contra el expresidente Donald Trump no había ocurrido. El incidente tuvo lugar el 13 de julio de 2024, durante un mitin de campaña en Pennsylvania, y resultó en que Trump resultara herido, un asistente muerto y dos personas hospitalizadas.

Joel Kaplan, jefe global de políticas de Meta, publicó una entrada en el blog de la compañía explicando que el asistente de IA fue inicialmente programado para no responder preguntas sobre el tiroteo. Sin embargo, esta restricción fue eliminada cuando los usuarios comenzaron a notar el silencio de la IA sobre el asunto. Kaplan describió las falsas afirmaciones de la IA como "alucinaciones", un término técnico para referirse a cuando la IA genera información falsa o engañosa.

Kaplan reconoció que las respuestas incorrectas de la IA eran "desafortunadas" y subrayó que estas inexactitudes son problemas conocidos en los sistemas de IA generativa. "En un pequeño número de casos, Meta AI continuó proporcionando respuestas incorrectas, incluyendo a veces afirmar que el evento no sucedió, lo cual estamos trabajando para corregir rápidamente", declaró. Además, indicó que la empresa está activamente mejorando sus sistemas de IA para manejar mejor los eventos en tiempo real.

La controversia se intensificó cuando Donald Trump, a través de su red social Truth Social, acusó a Meta y Google de intentar manipular las próximas elecciones presidenciales con la exclamación: "Aquí vamos de nuevo, otro intento de MANIPULAR LA ELECCIÓN!!! VAYAN POR META Y GOOGLE." Este sentimiento fue compartido por otras figuras prominentes como Elon Musk, quien criticó la manera en que Meta gestionó el incidente.

El tiroteo en sí ha generado preocupaciones significativas sobre la fiabilidad de las tecnologías de IA, especialmente en contextos políticamente cargados. Los errores de Meta en este caso han llamado la atención sobre los desafíos más amplios que enfrentan las empresas tecnológicas para garantizar la precisión de sus salidas de IA, particularmente durante eventos sensibles.

En resumen, este incidente subraya la necesidad crítica de mejorar las tecnologías de IA para evitar despistes similares en el futuro y plantea preguntas sobre la capacidad de las empresas tecnológicas para manejar información en situaciones políticamente sensibles de manera precisa y confiable. El término "alucinaciones" en el campo de la inteligencia artificial se refiere a cuando un sistema de IA genera información incorrecta o engañosa sin intención de error por parte de los programadores.

Meta Platforms Inc. ha recibido una oleada de críticas después de que su asistente de inteligencia artificial erróneamente afirmara que el atentado contra el expresidente Donald Trump no había ocurrido. El incidente tuvo lugar el 13 de julio de 2024, durante un mitin de campaña en Pennsylvania, y resultó en que Trump resultara herido, un asistente muerto y dos personas hospitalizadas.

Joel Kaplan, jefe global de políticas de Meta, publicó una entrada en el blog de la compañía explicando que el asistente de IA fue inicialmente programado para no responder preguntas sobre el tiroteo. Sin embargo, esta restricción fue eliminada cuando los usuarios comenzaron a notar el silencio de la IA sobre el asunto. Kaplan describió las falsas afirmaciones de la IA como "alucinaciones", un término técnico para referirse a cuando la IA genera información falsa o engañosa.

Kaplan reconoció que las respuestas incorrectas de la IA eran "desafortunadas" y subrayó que estas inexactitudes son problemas conocidos en los sistemas de IA generativa. "En un pequeño número de casos, Meta AI continuó proporcionando respuestas incorrectas, incluyendo a veces afirmar que el evento no sucedió, lo cual estamos trabajando para corregir rápidamente", declaró. Además, indicó que la empresa está activamente mejorando sus sistemas de IA para manejar mejor los eventos en tiempo real.

La controversia se intensificó cuando Donald Trump, a través de su red social Truth Social, acusó a Meta y Google de intentar manipular las próximas elecciones presidenciales con la exclamación: "Aquí vamos de nuevo, otro intento de MANIPULAR LA ELECCIÓN!!! VAYAN POR META Y GOOGLE." Este sentimiento fue compartido por otras figuras prominentes como Elon Musk, quien criticó la manera en que Meta gestionó el incidente.

El tiroteo en sí ha generado preocupaciones significativas sobre la fiabilidad de las tecnologías de IA, especialmente en contextos políticamente cargados. Los errores de Meta en este caso han llamado la atención sobre los desafíos más amplios que enfrentan las empresas tecnológicas para garantizar la precisión de sus salidas de IA, particularmente durante eventos sensibles.

En resumen, este incidente subraya la necesidad crítica de mejorar las tecnologías de IA para evitar despistes similares en el futuro y plantea preguntas sobre la capacidad de las empresas tecnológicas para manejar información en situaciones políticamente sensibles de manera precisa y confiable. El término "alucinaciones" en el campo de la inteligencia artificial se refiere a cuando un sistema de IA genera información incorrecta o engañosa sin intención de error por parte de los programadores.

Algo Curioso

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa