Grupo de consumidores pide a la UE que investigue urgentemente ‘los riesgos de la IA generativa’

Grupo de consumidores pide a la UE que investigue urgentemente ‘los riesgos de la IA generativa’

Los reguladores europeos se encuentran en una encrucijada sobre cómo se regulará la IA (y, en última instancia, se utilizará con fines comerciales y no comerciales) en la región, y hoy en día el grupo de consumidores más grande de la UE, BEUC, pesado con posición propia: deje de arrastrar los pies y «inicie investigaciones urgentes sobre los riesgos de la IA generativa» ahora, dijo.

«La IA generativa como ChatGPT ha abierto todo tipo de posibilidades para los consumidores, pero existen serias preocupaciones sobre cómo estos sistemas podrían engañar, manipular y dañar a las personas. También pueden usarse para difundir información errónea, perpetuar los sesgos existentes que amplifican la discriminación o ser utilizado con fines fraudulentos «, dijo la directora general adjunta de BEUC, Ursula Pachl, en un comunicado. «Hacemos un llamado a las autoridades de seguridad, datos y protección del consumidor para que abran una investigación ahora y no se queden de brazos cruzados hasta que se haya producido algún tipo de daño al consumidor antes de actuar. Estos Las leyes se aplican a todos los productos y servicios, ya sea que funcionen con IA o no, y las autoridades deben hacerlas cumplir.

BEUC, que representa a las organizaciones de consumidores de 13 países de la UE, lanzó la convocatoria para coincidir con una informe hoy de uno de sus miembros, Forbrukerrådet en Noruega.

LEER  SoundCloud lanza herramienta de participación de fans para artistas

Este informe noruego es inequívoco en su posición: la IA está perjudicando a los consumidores (el título del informe lo dice todo: “Fantasma en la máquina: arreglando el daño al consumidor mediante la IA generativa”) y plantea muchos problemas.

Si bien algunos tecnólogos han hecho sonar la alarma sobre la IA como instrumento de extinción humana, el debate en Europa se ha centrado en cambio en los impactos de la IA en áreas como el acceso equitativo a los servicios, la desinformación y la competencia.

Señala, por ejemplo, cómo «algunos desarrolladores de IA, incluidas las grandes empresas de tecnología», han cerrado los sistemas al escrutinio externo, lo que dificulta ver cómo se recopilan los datos o cómo funcionan los algoritmos; el hecho de que algunos sistemas producen información errónea tan alegremente como corrigen los resultados, sin que los usuarios a menudo sepan nada al respecto; IA diseñada para engañar o manipular a los usuarios; el problema del sesgo basado en la información que se introduce en un modelo de IA particular; y seguridad, particularmente cómo la IA podría armarse para defraudar a las personas o violar los sistemas.

Aunque el lanzamiento de ChatGPT de OpenAI ha colocado firmemente a la IA y el potencial de su alcance en la conciencia pública, el énfasis de la UE en el impacto de la IA no es nuevo. Dijo que está debatiendo cuestiones de «riesgo» en 2020, aunque esos esfuerzos iniciales se establecieron como base para aumentar la «confianza» en la tecnología.

LEER  Las pérdidas criptográficas se redujeron a la mitad en el segundo trimestre de 2023 a USD 204 millones

En 2021, hablaba más específicamente sobre aplicaciones de IA de «alto riesgo», y algunas 300 organizaciones unidas para opinar para defender las prohibiciones absolutas de algunas formas de IA.

Los sentimientos se han vuelto más críticos con el tiempo a medida que la UE hace cumplir sus leyes a nivel regional. La semana pasada, la jefa de competencia de la UE, Margarethe Vestager, se pronunció específicamente cómo la IA planteó riesgos de sesgo cuando se aplica en áreas críticas como servicios financieros como hipotecas y otras solicitudes de préstamos.

Sus comentarios llegaron justo después de que la UE aprobó su ley oficial de IAque divide tentativamente las aplicaciones de IA en categorías tales como riesgo inaceptable, alto y limitado, cubriendo un amplia gama de parámetros para determinar a qué categoría pertenecen.

La Ley de IA, una vez implementada, será el primer intento del mundo de tratar de codificar algún tipo de comprensión y aplicación legal de cómo se usa la IA con fines comerciales y no comerciales.

El próximo paso en el proceso es que la UE se comprometa con los países de la UE individualmente para definir la forma final que tomará la ley, en particular para identificar qué (y quién) entraría en sus categorías y qué no. La pregunta será qué tan fácil se llevan los diferentes países. La UE quiere finalizar este proceso para fines de este año, dijo.

LEER  Spotify presenta un widget de pantalla de bloqueo de iPhone para acceder fácilmente a su aplicación

“Es crucial que la UE haga que esta ley sea lo más estricta posible para proteger a los consumidores”, dijo Pachl en su declaración. «Todos los sistemas de IA, incluida la IA generativa, deben estar sujetos al escrutinio público, y las autoridades públicas deben reafirmar el control. Los legisladores deben exigir que el resultado de cualquier sistema de IA generativa sea seguro, justo y transparente para los consumidores.

BEUC es conocido por intervenir en momentos críticos y hacer llamadas influyentes que reflejan la dirección que están tomando los reguladores en última instancia. Fue una de las primeras voces, por ejemplo, en contra de Google en investigaciones antimonopolio de larga duración contra el gigante de las búsquedas y los dispositivos móviles, sonando años antes de que se tomaran medidas contra la empresa. Este ejemplo, sin embargo, subraya algo más: es probable que el debate sobre la IA y sus impactos, y el papel que podría desempeñar la regulación en él, sea largo.

Más contenidos sobre empresas en América Latina

Deja una respuesta