Tecnología

California Avanza en la Regulación Histórica de Grandes Modelos de IA

California aprobó un proyecto de ley pionero para regular modelos de inteligencia artificial (IA) de gran escala. La legislación, que obtuvo un voto crucial en la Asamblea de California el 28 de agosto de 2024, requiere que las empresas prueben sus modelos de IA y revelen públicamente sus protocolos de seguridad.

Tecnología

California Avanza en la Regulación Histórica de Grandes Modelos de IA

California aprobó un proyecto de ley pionero para regular modelos de inteligencia artificial (IA) de gran escala. La legislación, que obtuvo un voto crucial en la Asamblea de California el 28 de agosto de 2024, requiere que las empresas prueben sus modelos de IA y revelen públicamente sus protocolos de seguridad.

"Las reglas de seguridad son fundamentales para prevenir desastres potenciales con la IA"

- Sostuvo el asambleísta republicano Devon Mathis.

31/8/2024

En un movimiento sin precedentes, California ha dado un paso significativo hacia la regulación de la inteligencia artificial (IA) al aprobar un proyecto de ley centrado en la seguridad de los modelos de IA de gran escala. El 28 de agosto de 2024, la Asamblea de California dio luz verde a esta legislación innovadora, que ahora se encamina al Senado Estatal para una votación final antes de llegar al escritorio del gobernador Gavin Newsom. Newsom tiene hasta finales de septiembre para firmar, vetar o permitir que el proyecto de ley se convierta en ley sin su firma.

La legislación, elaborada por el senador demócrata Scott Wiener, tiene como objetivo mitigar los riesgos asociados con el uso indebido de la IA, tal como amenazas a la red eléctrica del estado o la creación de armas químicas. El proyecto de ley es específico para sistemas de IA que necesitan más de 100 millones de dólares en datos para su entrenamiento. Actualmente, no existe ningún modelo de IA que cumpla con esta exigente norma de datos, lo que subraya la orientación hacia futuros desarrollos tecnológicos.

El respaldo al proyecto ha venido de diferentes sectores, con la startup de IA Anthropic subrayando los beneficios de la ley por encima de sus costos. Sin embargo, la legislación ha suscitado oposición por parte de gigantes tecnológicos como OpenAI, Google y Meta. Estos actores influyentes argumentan que la regulación de la seguridad de la IA debería ser una responsabilidad federal y critican al proyecto de ley por concentrarse en los desarrolladores en lugar de en los usuarios que podrían explotar estos sistemas de IA.

El proyecto ha sido descrito como un paso necesario para establecer normas de seguridad en la utilización de IA a gran escala en los Estados Unidos, una postura apoyada por figuras como el asambleísta republicano Devon Mathis, quien insistió en la necesidad de marcos regulatorios para evitar catástrofes potenciales. Por otro lado, detractores del proyecto, incluida la ex presidenta de la Cámara de Representantes, Nancy Pelosi, han calificado la medida como "bien intencionada pero mal informada," comparando sus bases con escenarios exagerados propios de la ciencia ficción.

Esta legislación es parte de un esfuerzo legislativo más amplio en California, orientado a incrementar la confianza pública, combatir la discriminación algorítmica y regular la creación de deepfakes. El impacto de esta ley puede llegar a sentar precedentes a nivel nacional, especialmente considerando que California alberga a 35 de las 50 empresas de IA más importantes del mundo y ha liderado en la adopción de tecnologías de inteligencia artificial.

En resumen, el resultado de esta ley no solo podría transformar la regulación de la IA en California, sino también establecer una guía que otros estados podrían seguir.

Algo Curioso

"Las reglas de seguridad son fundamentales para prevenir desastres potenciales con la IA"

- Sostuvo el asambleísta republicano Devon Mathis.

Aug 31, 2024
Colglobal News

En un movimiento sin precedentes, California ha dado un paso significativo hacia la regulación de la inteligencia artificial (IA) al aprobar un proyecto de ley centrado en la seguridad de los modelos de IA de gran escala. El 28 de agosto de 2024, la Asamblea de California dio luz verde a esta legislación innovadora, que ahora se encamina al Senado Estatal para una votación final antes de llegar al escritorio del gobernador Gavin Newsom. Newsom tiene hasta finales de septiembre para firmar, vetar o permitir que el proyecto de ley se convierta en ley sin su firma.

La legislación, elaborada por el senador demócrata Scott Wiener, tiene como objetivo mitigar los riesgos asociados con el uso indebido de la IA, tal como amenazas a la red eléctrica del estado o la creación de armas químicas. El proyecto de ley es específico para sistemas de IA que necesitan más de 100 millones de dólares en datos para su entrenamiento. Actualmente, no existe ningún modelo de IA que cumpla con esta exigente norma de datos, lo que subraya la orientación hacia futuros desarrollos tecnológicos.

El respaldo al proyecto ha venido de diferentes sectores, con la startup de IA Anthropic subrayando los beneficios de la ley por encima de sus costos. Sin embargo, la legislación ha suscitado oposición por parte de gigantes tecnológicos como OpenAI, Google y Meta. Estos actores influyentes argumentan que la regulación de la seguridad de la IA debería ser una responsabilidad federal y critican al proyecto de ley por concentrarse en los desarrolladores en lugar de en los usuarios que podrían explotar estos sistemas de IA.

El proyecto ha sido descrito como un paso necesario para establecer normas de seguridad en la utilización de IA a gran escala en los Estados Unidos, una postura apoyada por figuras como el asambleísta republicano Devon Mathis, quien insistió en la necesidad de marcos regulatorios para evitar catástrofes potenciales. Por otro lado, detractores del proyecto, incluida la ex presidenta de la Cámara de Representantes, Nancy Pelosi, han calificado la medida como "bien intencionada pero mal informada," comparando sus bases con escenarios exagerados propios de la ciencia ficción.

Esta legislación es parte de un esfuerzo legislativo más amplio en California, orientado a incrementar la confianza pública, combatir la discriminación algorítmica y regular la creación de deepfakes. El impacto de esta ley puede llegar a sentar precedentes a nivel nacional, especialmente considerando que California alberga a 35 de las 50 empresas de IA más importantes del mundo y ha liderado en la adopción de tecnologías de inteligencia artificial.

En resumen, el resultado de esta ley no solo podría transformar la regulación de la IA en California, sino también establecer una guía que otros estados podrían seguir.

En un movimiento sin precedentes, California ha dado un paso significativo hacia la regulación de la inteligencia artificial (IA) al aprobar un proyecto de ley centrado en la seguridad de los modelos de IA de gran escala. El 28 de agosto de 2024, la Asamblea de California dio luz verde a esta legislación innovadora, que ahora se encamina al Senado Estatal para una votación final antes de llegar al escritorio del gobernador Gavin Newsom. Newsom tiene hasta finales de septiembre para firmar, vetar o permitir que el proyecto de ley se convierta en ley sin su firma.

La legislación, elaborada por el senador demócrata Scott Wiener, tiene como objetivo mitigar los riesgos asociados con el uso indebido de la IA, tal como amenazas a la red eléctrica del estado o la creación de armas químicas. El proyecto de ley es específico para sistemas de IA que necesitan más de 100 millones de dólares en datos para su entrenamiento. Actualmente, no existe ningún modelo de IA que cumpla con esta exigente norma de datos, lo que subraya la orientación hacia futuros desarrollos tecnológicos.

El respaldo al proyecto ha venido de diferentes sectores, con la startup de IA Anthropic subrayando los beneficios de la ley por encima de sus costos. Sin embargo, la legislación ha suscitado oposición por parte de gigantes tecnológicos como OpenAI, Google y Meta. Estos actores influyentes argumentan que la regulación de la seguridad de la IA debería ser una responsabilidad federal y critican al proyecto de ley por concentrarse en los desarrolladores en lugar de en los usuarios que podrían explotar estos sistemas de IA.

El proyecto ha sido descrito como un paso necesario para establecer normas de seguridad en la utilización de IA a gran escala en los Estados Unidos, una postura apoyada por figuras como el asambleísta republicano Devon Mathis, quien insistió en la necesidad de marcos regulatorios para evitar catástrofes potenciales. Por otro lado, detractores del proyecto, incluida la ex presidenta de la Cámara de Representantes, Nancy Pelosi, han calificado la medida como "bien intencionada pero mal informada," comparando sus bases con escenarios exagerados propios de la ciencia ficción.

Esta legislación es parte de un esfuerzo legislativo más amplio en California, orientado a incrementar la confianza pública, combatir la discriminación algorítmica y regular la creación de deepfakes. El impacto de esta ley puede llegar a sentar precedentes a nivel nacional, especialmente considerando que California alberga a 35 de las 50 empresas de IA más importantes del mundo y ha liderado en la adopción de tecnologías de inteligencia artificial.

En resumen, el resultado de esta ley no solo podría transformar la regulación de la IA en California, sino también establecer una guía que otros estados podrían seguir.

Algo Curioso

PODRÍA INTERESARTE
 

No tienes acceso

Necesitas una membresía para acceder al contenido de este sitio.
Por favor Regístrate o Ingresa