TECNOLOGÍA

Llegada de Bard, la Inteligencia Artificial de Google, es parada por la UE

***Disponible hace varias semanas en algunas regiones del mundo, Bard, la inteligencia artificial de Google, se enfrenta a un enorme desafío para llegar a la Unión Europea***

Aunque su desarrollo lleva largos años en proceso, la carrera por llevar la inteligencia artificial generativa a las masas comenzó con la gran acogida de ChatGPT de OpenAI, obligando a las grandes compañías tecnológicas a moverse en la misma dirección para no ceder terreno. Mientras Microsoft prefirió realizar una millonaria inversión en OpenAI, Google aceleró su trabajo y anunció también su propio chatbot, Bard, con el que busca competir contra ChatGPT y otras plataformas que están siendo usadas por millones de usuarios de internet.

Al igual que le ocurrió a ChatGPT, bloqueado en Italia y sujeto a una serie de reglas de protección de privacidad, ahora la inteligencia artificial de Google se enfrenta al exigente rigor con el que la Unión Europea está mirando este tipo de tecnologías.

Bard fue anunciado como un producto resultado de años de investigación en modelos de lenguaje generativos. Al igual que otras plataformas similares, puede crear discursos y textos de marketing, código de programación, ensayos e incluso mantener conversaciones fluidas y coherentes sobre cualquier tema. La compañía promete ser una herramienta conversacional capaz de acceder a información actualizada de internet y responder preguntas en un lenguaje natural similar al humano.

Reguladores frenan la llegada de Bard a la UE

Desde que millones de personas comenzaron a utilizar este tipo de plataformas los reguladores han manifestado preocupaciones de privacidad. Es aquí donde las compañías deben responder y demostrar que tienen todo para garantizar que la privacidad y la seguridad de los usuarios no se verán afectadas, tal y como tuvo que hacer OpenAI para que su ChatGPT pudiera volver a habilitarse en Italia, país en el que fue bloqueado.

Precisamente en la Unión Europea están cada vez más preocupados por el despliegue de estas herramientas de IA generativa, por lo que han comenzado a tomar medidas aceleradas para regularlas. En medio de la necesidad de establecer reglas claras, el lanzamiento Bard en la UE se ha visto frenado ante las preocupaciones planteadas por la Comisión de Protección de Datos de Irlanda. El regulador dijo que Google no había descrito cómo planea cumplir con las normas de protección de datos de la UE, como el Reglamento General de Protección de Datos (GDPR), y le pidió que respondiera a una serie de preguntas antes de poder lanzar su chatbot en la región.

De acuerdo con Business Insider, un portavoz de Google dijo a ese medio que la compañía sí ha tenido conversaciones con la Comisión de Protección de Datos para establecer la confianza necesaria: «En mayo dijimos que queríamos que Bard estuviera más ampliamente disponible, incluso en la Unión Europea, y que lo haríamos de manera responsable, después de un compromiso con expertos, reguladores y legisladores.  Como parte de ese proceso, hemos estado hablando con los reguladores de privacidad para abordar sus preguntas y escuchar comentarios».

Aunque de momento no se sabe cuándo Bard estará disponible en los países miembros de la Unión Europea, lo cierto es que en ese territorio las empresas deben llegar a acuerdos claros y dar un parte de tranquilidad ante las preocupaciones (a falta de una regulación).

¿Cuáles son los peligros de plataformas como Bard?

Aunque no se puede negar el potencial de la IA generativa para mejorar la productividad, apoyar y facilitar muchos de los trabajos de la actualidad, las preocupaciones van mucho más allá de una ola de desempleo -que seguramente se equilibrará con la creación de nuevos puestos-.

Una de ellas es la pérdida de privacidad y seguridad de los datos personales que son usados por los sistemas de IA para aprender y tomar decisiones. Estos datos pueden ser filtrados, robados o manipulados por actores maliciosos que buscan obtener ventajas o causar daños a las personas o a las mismas organizaciones.

También se pone en duda la falta de transparencia de los algoritmos de IA que determinan el comportamiento y el resultado de los sistemas. Estos algoritmos pueden contener errores, sesgos o criterios ocultos que afecten negativamente a la calidad, la equidad y la confianza de los servicios o productos basados en inteligencia artificial.

Regular la IA: una necesidad global

Para evitar o mitigar estos riesgos, es necesario establecer normas éticas, legales y sociales que regulen el desarrollo y el uso de la IA, así como fomentar la participación y la responsabilidad de todos los actores involucrados: investigadores, desarrolladores, usuarios, gobiernos, empresas y sociedad civil.

Aquí es donde cobran valor iniciativas como el Reglamento de la Inteligencia Artificial, una propuesta legislativa de la Unión Europea que tiene como objetivo regular el uso de la inteligencia artificial (IA) en todos los sectores (excepto el militar) y garantizar que los sistemas de IA sean seguros y respeten los derechos fundamentales y los valores de la UE. La propuesta se presentó en abril de 2021 por la Comisión Europea y está basada en un enfoque orientado a los riesgos, que establece diferentes niveles de exigencia según el potencial impacto de los sistemas de IA en las personas y la sociedad. La propuesta también prohíbe algunas prácticas de IA que se consideran inaceptables, como la puntuación ciudadana o la identificación biométrica remota en tiempo real por parte de las autoridades encargadas de la aplicación de la ley, salvo en casos excepcionales.

El Reglamento de la Inteligencia Artificial ha pasado por varias etapas de tramitación dentro de los organismos europeos. En mayo de 2021, el Parlamento Europeo aprobó un primer borrador con más de 3.000 enmiendas. En diciembre de 2022, el Consejo adoptó su posición común, que introdujo algunos cambios en la definición de los sistemas de IA, las prácticas prohibidas y las obligaciones para los proveedores y usuarios de IA. Esta semana la Eurocámara dio luz verde al proyecto del reglamento.

Más regiones o países deben establecer reglas claras que protejan a los usuarios al tiempo que se estimula el desarrollo de esta tecnología que sin duda transformará el futuro.

Por Sergio Ramos, editor en Social Geek, y contribuidor en Entrepreneur y Forbes en Español. Experto en temas de tecnología que disfruta aprendiendo sobre startups, emprendimiento e innovación.

(Con información de El Nacional)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *