Obtenga una pista, dice el panel sobre tecnología de inteligencia artificial: se ‘implementa como vigilancia’

Obtenga una pista, dice el panel sobre tecnología de inteligencia artificial: se ‘implementa como vigilancia’

Hoy temprano, en una conferencia de Bloomberg en San Francisco, aparecieron algunos de los nombres más importantes de la IA, incluidos, brevemente, Sam Altman de OpenAI, quien acaba de concluir su gira mundial de dos meses, y el fundador de Stability AI, Emad Mostaque. Sin embargo, una de las conversaciones más convincentes tuvo lugar más tarde, durante un panel de discusión sobre la ética de la IA.

Con Meredith Whittaker, presidenta de la aplicación de mensajería segura Signal; Navrina Singh, cofundadora y directora ejecutiva de Credo AI; y Alex Hanna, director de investigación del Distributed AI Research Institute, los tres tenían un mensaje unificado para el público: no se distraiga tanto con las promesas y amenazas asociadas con el futuro de la IA. No es magia, no está completamente automatizado y, según Whittaker, en este momento es intrusivo más allá de lo que la mayoría de los estadounidenses parecen entender.

Hannah, por ejemplo, señaló a las muchas personas en todo el mundo que ayudan a entrenar los grandes modelos lingüísticos de la actualidad, sugiriendo que estas personas se pasan por alto en parte de la impresionante cobertura de la IA generativa en parte porque el trabajo no tiene glamour y en parte porque no no se ajusta a la narrativa actual sobre la IA.

Dijo Hannah: «Sabemos por informes . . .que hay un ejército de trabajadores que hacen anotaciones detrás de escena para incluso hacer que esto funcione en cualquier grado: trabajadores que trabajan con Amazon Mechanical Turk, personas que trabajan con [the training data company Sama — in Venezuela, Kenya, the U.S., actually all over the world . . .They are actually doing the labeling, whereas Sam [Altman] y Emad [Mostaque] y todas estas otras personas que van a decir que estas cosas son mágicas, no. Hay humanos. . . Estas cosas tienen que parecer independientes y tienen ese barniz, pero hay mucho trabajo humano debajo.

LEER  Hoy se debe tomar una decisión importante sobre la legalidad de las transferencias de datos entre la UE y los EE. UU. de Facebook.

Los comentarios hechos por separado por Whittaker, quien anteriormente trabajó en Google, cofundó el AI Now Institute de la NYU y fue asesor de la Comisión Federal de Comercio, fueron aún más directos (y también impactantes debido a la entusiasta reacción del público). Su mensaje fue que, por muy encantado que esté el mundo hoy en día con chatbots como ChatGPT y Bard, la tecnología detrás de ellos es peligrosa, especialmente porque el poder se concentra cada vez más en aquellos que se sientan en la cima de la pirámide avanzada de IA.

Whittaker dijo: «Diría que tal vez algunas personas en esa audiencia son usuarios de IA, pero la mayoría de la población es la sujeto de IA. . .No es una cuestión de elección individual. La mayoría de las formas en que la IA interpola nuestras vidas toma decisiones que dan forma a nuestro acceso a los recursos y las oportunidades se toman detrás de escena de formas que probablemente ni siquiera conocemos.

Whittaker dio el ejemplo de una persona que entra en un banco y pide un préstamo. Esta persona puede ser rechazada y «no tener idea de que hay un sistema en [the] probablemente impulsado por una API de Microsoft que determinó, según las redes sociales recuperadas, que no era solvente. nunca lo sabré [because] no hay ningún mecanismo para que yo sepa. Hay formas de cambiar eso, continuó, pero superar la actual jerarquía de poder para hacerlo es casi imposible, sugirió. “He estado en la mesa durante unos 15 años, 20 años. yo tengo ha sido en la mesa. Estar en la mesa sin poder no es nada.

LEER  Hablando con Future Ventures sobre su nuevo fondo, el hype de la IA y Siri chupando (siempre)

Seguramente, muchas personas impotentes podrían estar de acuerdo con Whittaker, incluidos los empleados actuales y anteriores de OpenAI y Google que a veces habrían desconfiado del enfoque de su empresa para lanzar productos de IA.

De hecho, la moderadora de Bloomberg, Sarah Friar, preguntó al panel cómo los empleados afectados pueden hablar sin temor a perder sus trabajos, a lo que Singh, cuya puesta en marcha ayuda a las empresas con el gobierno de la IA, respondió: «Creo que mucho depende de la administración y la empresa». . valores, para ser honesto. . . . Hemos visto instancia tras instancia durante el último año de despidos de equipos de IA responsables.

Mientras tanto, hay mucha más gente común que no entiende lo que está pasando, sugirió Whittaker, llamando a la IA «tecnología de vigilancia». De cara a la multitud, explicó, señalando que la IA «requiere vigilancia en la forma de estos conjuntos de datos masivos que afianzan y amplían la necesidad de más y más datos y más y más recopilación más íntima. La solución a todo es más datos, más conocimiento». en manos de estas empresas. Pero estos sistemas también se están implementando como dispositivos de vigilancia. Y creo que es muy importante reconocer que no importa si un resultado de un sistema de IA se produce mediante una estimación estadística probabilística, o si son datos de una torre celular que triangula mi ubicación. Esos datos se convierten en datos sobre mí. No es necesario que sean correctos. No es necesario que reflejen quién soy o dónde estoy. Pero tienen un poder sobre mi vida. eso es importante, y que el poder se ponga en manos de estas empresas.

LEER  Glystn permite a los creadores responder en masa a múltiples seguidores en las plataformas de redes sociales

De hecho, agregó, el «diagrama de Venn de la IA y las preocupaciones sobre la privacidad es un círculo».

Whittaker obviamente tiene su propia agenda hasta cierto punto. Como ella misma dijo en el evento, «hay un mundo en el que Signal y otras tecnologías legítimas de preservación de la privacidad perseveran» porque las personas se sienten menos cómodas con esta concentración de poder.

Pero también, si no hay suficiente retrospectiva y pronto, a medida que se aceleran los avances en IA, también lo hacen los impactos sociales, continuaremos dirigiéndonos por un «camino lleno de exageraciones». el poder está arraigado y naturalizado bajo la apariencia de inteligencia y somos monitoreados hasta el punto [of having] muy, muy poca acción en nuestras vidas individuales y colectivas.

Esta “preocupación es existencial, y es mucho más grande que el marco de la IA que a menudo se da”.

Encontramos la discusión interesante; si quieres ver todo, Bloomberg lo publicó desde aquí.

Arriba: Presidente de Comunicaciones Meredith Whittaker

Más contenidos sobre empresas en América Latina

Deja una respuesta