#CienciaYTecnologia •
Uno de los mercados más estrictos en cuanto a la regulación de la Inteligencia Artificial es el de la Unión Europea (UE) y tanto ha sido su escrutinio que el CEO de OpenAI, Sam Altman, reconoció que la compañía podría dejar de operar en esa región como respuesta a la regulación que se está desarrollando ahí.
De acuerdo con Altman, esta nueva Ley de IA en la Unión Europea le genera “muchas preocupaciones”, pues está orientada al funcionamiento de los modelos con los que operan ChatGPT o el generador de imágenes, DALL-E..
“Los detalles realmente importan. Intentaremos cumplir, pero si no lo logramos, dejaremos de operar”, dijo Alrtman, según un reporte de The Financial Times. El ejecutivo se mostró preocupado por los requisitos que le hará cumplir la legislación. “Aquí hay límites técnicos a lo que es posible”.
Recientemente, el Parlamento Europeo aprobó el borrador de una regulación que busca ser referente de Occidente para controlar esta tecnología. De acuerdo con la legislación, hay cuatro niveles de riesgo que puede plantear la IA: inaceptable, alto, limitado y riesgo mínimo o nulo. Si una tecnología tiene potencial de generar un riesgo inaceptable deben estar prohibidas, señala el documento.
Según declaraciones de Altman, ChatGPT podría ser considerado como un sistema de “alto riesgo”, algo que le obligaría a cumplir con una serie de requisitos de seguridad y transparencia. Sin embargo, ese no es el único problema para la plataforma, pues la ley también podría representar posibles amenazas comerciales para OpenAI.
El borrador actual de la legislación señala que los creadores de este tipo de sistemas deben divulgar detalles sobre el diseño de su sistema, así como “resúmenes de los datos protegidos por derechos de autor que son utilizados para su entrenamiento”.
Tal información era compartida por la empresa anteriormente, pero ahora que el modelo GPT es una herramienta bastante popular se ha mantenido en secreto para evitar que sus rivales copien su trabajo. Asimismo, esto podría generar demandas de derechos de autor hacia OpenAI.
Sundar Pichai se reúne con la UE
Por su parte, el CEO de Google, Sundar Pichai, se comprometió a llevar a cabo un “Pacto de IA” luego de una reunión con el comisionado europeo para el mercado interno, Thierry Breton. Esto significa que Google va a colaborar con otras compañías en la autorregulación para garantizar que las herramientas de IA se desarrollen de forma responsable.
“Esperamos que la tecnología en Europa respete todas nuestras reglas sobre protección de datos, seguridad en línea e inteligencia artificial. En Europa, no se trata de escoger. Me complace que Sundar Pichai reconozca esto y se comprometa a cumplir con todas las normas de la UE”, tuiteó Breton.
Posteriormente, en una reunión con Vera Jourova, vicepresidenta de la Comisión Europea, el ejecutivo se comprometió a garantizar que los productos de IA tengan en cuenta el impacto que pueden generar en términos de desinformación, por lo “que todos deberían estar preparados para una nueva ola de amenazas generadas por la IA”.
Al respecto, las partes concluyeron que se deben mejorar los esfuerzos por transparentar todo el contenido que generan las IA, mientras que Pichai advirtió que es una de las principales preocupaciones que tienen para garantizar el lanzamiento seguro de sus nuevos productos.
Expansión