Actuales y ex empleados de OpenAI y Google DeepMind han alzado sus voces en una carta abierta conjunta que advierte sobre las insuficiencias en la supervisión de la inteligencia artificial dentro de la industria. La carta, firmada por once empleados de OpenAI y dos de Google DeepMind, enfatiza la necesidad de implementar protecciones para los denunciantes y asegurar que los trabajadores puedan alertar sobre los peligros asociados sin temor a represalias. La misiva demanda un incremento en la transparencia de las compañías de IA, proporcionando información vital sobre los riesgos de sus sistemas tanto al público como a los gobiernos.
La preocupación sobre los potenciales perjuicios de la IA ha crecido de manera significativa en los últimos años, llevando a llamados enfáticos por una mayor responsabilidad y apertura. Los signatarios del documento, que incluyen a investigadores prominentes del sector, proponen que las empresas de IA se comprometan a no castigar a los empleados que denuncien problemas y a establecer canales que permitan la retroalimentación anónima. A pesar de la relevancia del tema, ni OpenAI ni Google han emitido una respuesta inmediata a la solicitud de comentarios.
Se destaca en la carta que un factor esencial para la seguridad es la capacidad de los empleados de sostener a las empresas responsables públicamente. Además, se insta a compartir las informaciones sobre los riesgos de los sistemas de IA no solo al interior de las empresas sino también con el gobierno y la sociedad en general, resaltando la exigencia de un mayor control y supervisión.