El Corporate Europe Observatory (CEO) ha advertido hoy de la influencia de los gigantes tecnológicos en la primera ley sobre inteligencia artificial (IA) de la Unión Europea (UE), en debate entre colegisladores, que podría conducir a una «reducción de las obligaciones en materia de seguridad».
El observatorio de la UE advierte sobre la influencia de la tecnología en la ley de inteligencia artificial
En un informe publicado hoy, el grupo de presión europeo afirma haber obtenido «documentos que revelan la forma impresionante en que las empresas de tecnología han tratado de influir en la [nueva] ley de IA […] al tratar de reducir las obligaciones de seguridad y alejarse de las preocupaciones de derechos humanos».
Después de que, en abril de 2021, la Comisión Europea propusiera la primera legislación en la UE para la IA (la primera también en el mundo), defendiendo unos estrictos controles de seguridad, esta asociación sin ánimo de lucro destaca que «los gigantes tecnológicos han apostado en una feroz batalla de cabildeo para salvaguardarse de cualquier responsabilidad».
Según el Corporate Europe Observatory, los esfuerzos de cabildeo, es decir, la participación de los grupos de interés en la formulación de políticas, se hicieron más visibles después del lanzamiento del sistema ChatGPT en noviembre pasado.
Subrayando que «los sistemas de IA conllevan grandes riesgos», el observatorio señala que plataformas como ChatGPT (conversación basada en inteligencia artificial) «a menudo no funcionan según lo previsto o pueden ser desacreditables».
En un momento en que se negocia la nueva ley de IA entre los colegisladores del Consejo y el Parlamento, el consejero delegado destaca que hay «más espacio para el cabildeo de las empresas tecnológicas», ya que se trata de debates a puerta cerrada.
«Google, Facebook y Microsoft han estado utilizando grupos secretos, expertos financiados por tecnología y organismos de estándares para presionar a las instituciones europeas, un esfuerzo que ha llevado años y que parece probable que tenga éxito cuando el proyecto de ley llegue a su etapa final», agrega. .
En el informe, el observatorio informa de más de 1.000 reuniones de cabildeo con miembros del Parlamento Europeo, de las cuales el 56 % son con la industria y grupos de interés.
En abril de 2021, la Comisión Europea propuso la primera legislación de la UE para la inteligencia artificial, defendiendo controles estrictos sobre los sistemas considerados de riesgo, como el reconocimiento facial o las huellas dactilares, y la prohibición del «riesgo inaceptable», como la manipulación del comportamiento humano.
Tras varias recomendaciones adoptadas en los últimos tres años para el área de IA y una consulta de mercado, el ejecutivo comunitario propuso «nuevas reglas y acciones encaminadas a transformar Europa en el centro mundial de confianza», mediante la combinación de las «primeras marco de siempre» y un nuevo plan de coordinación entre los Estados miembros.
El objetivo es «garantizar la seguridad y los derechos fundamentales de las personas y las empresas, al tiempo que se refuerza la adopción, la inversión y la innovación de la IA en toda la UE», explicó entonces Bruselas, defendiendo un «enfoque basado en el riesgo».
La propuesta ya pasó el escrutinio del Parlamento Europeo, que mostró preocupaciones relacionadas con la videovigilancia, y el Consejo de la UE ya compartió su posición sobre la Ley de Inteligencia Artificial, definiendo nuevas obligaciones pero también excepciones en áreas donde la industria consideró que la legislación podría ser un lastre para la innovación.
La IA se ha utilizado cada vez más en áreas como entretenimiento (personalización de contenidos), comercio ‘online’ (predicción de los gustos de los consumidores), electrodomésticos (programación inteligente) y equipos electrónicos (uso de asistentes virtuales como Siri, Alexa, entre otros) .
También se utiliza para el reconocimiento facial, una técnica basada en la recopilación de datos de imágenes características.