OpenAI apoya leyes de seguridad infantil e IA en Estados Unidos

OpenAI apoya leyes de seguridad infantil e IA en Estados Unidos

Sigue a MadridActual en Google
Añadir a mis fuentes favoritas

OpenAI respalda KOSA y la iniciativa SB 315 de Illinois para establecer obligaciones sobre protección de menores y regulación de modelos avanzados de IA.

OpenAI ha manifestado su respaldo a dos iniciativas legislativas estadounidenses destinadas a fortalecer la seguridad de menores en plataformas digitales y a establecer estándares regulatorios para la Inteligencia Artificial.

La empresa tecnológica considera que ambas propuestas constituyen un avance hacia un marco regulatorio nacional de seguridad para la IA, con énfasis especial en la defensa de la infancia y en las responsabilidades que deben asumir las organizaciones que desarrollan o administran estas tecnologías.

La primera es la Ley de Seguridad en Línea para Niños, conocida como KOSA, impulsada por la senadora republicana de Tennessee Marsha Blackburn y el senador demócrata de Connecticut Richard Blumenthal.

KOSA propone que las plataformas implementen opciones de configuración específicas para menores y refuercen los mecanismos de control parental para garantizar experiencias digitales seguras, incluso en servicios vinculados a la IA, además de asumir responsabilidad más exigente por los daños ocasionados en línea.

"Los jóvenes deben poder beneficiarse de la IA de forma segura, adecuada a su edad y con apoyo real, incluyendo derivaciones a recursos de crisis y notificaciones a los padres en situaciones de seguridad graves", subraya OpenAI en un comunicado publicado en su blog de asuntos globales 'The Prompt'.

La compañía sostiene que estas medidas de protección deben integrarse desde el diseño inicial de los servicios digitales, "antes de que estas tecnologías se integren por completo en la vida cotidiana", una lección que, según advierte, ya debería haberse aprendido con la experiencia de las redes sociales.

El segundo proyecto respaldado por OpenAI es el SB 315 de Illinois, una propuesta de regulación de la inteligencia artificial que sigue la estructura de leyes ya aprobadas en California y Nueva York y que, en opinión de la empresa, "promueve un enfoque basado en el riesgo, centrado en los modelos más capaces y los daños de mayor gravedad".

Esta iniciativa establece requisitos específicos sobre prácticas de seguridad, transparencia en operaciones, notificación de incidentes y mecanismos de rendición de cuentas para los sistemas de IA más sofisticados.

OpenAI afirma además que el SB 315 de Illinois tiene potencial para contribuir al desarrollo de "un marco coherente a nivel nacional".