Los especialistas en ética respondieron a la carta ‘AI Pause’ que dicen que ‘ignora el daño real’

Los especialistas en ética respondieron a la carta ‘AI Pause’ que dicen que ‘ignora el daño real’

Un grupo de conocidos expertos en ética de la IA escribió un contrapunto a la controvertida carta de esta semana pidiendo una «pausa» de seis meses en el desarrollo de la IA, criticándola por centrarse en futuras amenazas hipotéticas mientras que el daño real es atribuible al mal uso de la tecnología actual. .

Miles de personas, incluidos nombres conocidos como Steve Wozniak y Elon Musk, firmaron la carta abierta del instituto Future of Life a principios de esta semana, proponiendo que se suspenda el desarrollo de modelos de IA como GPT-4 para evitar «la pérdida de control de nuestra civilización», entre otras amenazas.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major y Margaret Mitchell son figuras destacadas en los campos de la IA y la ética, conocidas (además de por su trabajo) por haber sido expulsadas de Google tras un papel criticar las capacidades de la IA. Actualmente están trabajando juntos en el Instituto DAIR, un nuevo equipo de investigación destinado a estudiar, exponer y prevenir los daños asociados con la IA.

LEER  Resumen de TechCrunch+: Ponerse al día con la IA generativa, tácticas de arranque, contratación de un gerente de crecimiento

Pero no estaban en la lista de signatarios y ahora tienen publicó una queja llamando al fracaso de la carta para abordar los problemas existentes causados ​​por la tecnología.

«Estos riesgos hipotéticos están en el centro de una ideología peligrosa llamada a largo plazo que ignora los daños reales que resultan del despliegue de los sistemas de IA hoy», escribieron, citando la explotación de los trabajadores, el robo de datos, los medios sintéticos que respaldan las estructuras de poder existentes y el búsqueda de la concentración. de estas estructuras de poder en menos manos.

La elección de preocuparse por un apocalipsis robótico de Terminator o Matrix es una pista falsa cuando tenemos, al mismo tiempo, informes de compañías como Clearview AI. siendo utilizado por la policía para atrapar esencialmente a un hombre inocente. No es necesario un T-1000 cuando tiene cámaras Ring en todas las puertas de entrada accesibles a través de fábricas de garantía en línea.

Si bien el equipo de DAIR está de acuerdo con algunos de los objetivos de la carta, como identificar los medios sintéticos, enfatizan que se deben tomar medidas ahora, sobre los problemas de hoy, con los remedios que tenemos:

Lo que necesitamos es una regulación que garantice la transparencia. No solo siempre debe quedar claro cuando nos encontramos con medios sintéticos, sino que también se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen datos de capacitación y arquitecturas de modelos. La responsabilidad de crear herramientas que sean seguras de usar debe recaer en las empresas que construyen e implementan sistemas generativos, lo que significa que los desarrolladores de esos sistemas deben ser responsables de los resultados producidos por sus productos.

La carrera actual hacia «experimentos de IA» cada vez más grandes no es un camino predeterminado en el que nuestra única opción es la velocidad de ejecución, sino un conjunto de decisiones impulsadas por las ganancias. Las acciones y elecciones corporativas deben estar moldeadas por una regulación que proteja los derechos e intereses de las personas.

De hecho, es hora de actuar: pero el foco de nuestras preocupaciones no debe ser imaginarias «mentes digitales poderosas». En cambio, deberíamos centrarnos en las prácticas explotadoras muy reales y muy presentes de las corporaciones que dicen construirlas, que rápidamente centralizan el poder y aumentan la desigualdad social.

Por cierto, esta carta hace eco de un sentimiento que escuché de la fundadora de Uncharted Power, Jessica Matthews, en el evento AfroTech de ayer en Seattle: «No debes tener miedo a la IA. Deberías tener miedo de las personas que lo construyen. (Su solución: convertirse en las personas que lo construyen).

LEER  Los vehículos eléctricos están cayendo | crisis tecnológica

Si bien es extremadamente improbable que alguna empresa importante acepte suspender sus esfuerzos de investigación de acuerdo con la carta abierta, está claro, a juzgar por el compromiso que ha recibido, que los riesgos (reales e hipotéticos) de la IA son motivo de gran preocupación. en muchos segmentos de la sociedad. Pero si no lo hacen, tal vez alguien tendrá que hacerlo por ellos.

Más contenidos sobre empresas en América Latina

Deja una respuesta