La justicia procesal puede resolver el problema de confianza/legitimidad de la IA generativa
La tan cacareada llegada de la IA generativa ha reavivado un debate familiar sobre la confianza y la seguridad: ¿se puede confiar en los ejecutivos tecnológicos para que mantengan los mejores intereses de la sociedad en el corazón?
Debido a que sus datos de entrenamiento son creados por humanos, la IA es inherentemente propensa al sesgo y, por lo tanto, está sujeta a nuestras propias formas emocionales y defectuosas de ver el mundo. Conocemos muy bien los riesgos, desde reforzar la discriminación racial y la desigualdad hasta promover la polarización.
El CEO de OpenAI, Sam Altman, ha pidió nuestra «paciencia y buena fe» mientras trabajan para «hacerlo bien».
Durante décadas, hemos confiado pacientemente en los líderes tecnológicos a riesgo nuestro: ellos lo crearon, así que les creímos cuando dijeron que podían solucionarlo. La confianza en las empresas de tecnología sigue cayendo y, según el Barómetro de confianza de Edelman de 2023, en general, el 65% está preocupado la tecnología hará que sea imposible saber si lo que la gente ve o escucha es real.
Es hora de que Silicon Valley adopte un enfoque diferente para ganarse nuestra confianza, un enfoque que ha demostrado su eficacia en el sistema legal del país.
Un enfoque procedimental de la confianza y la legitimidad
Arraigada en la psicología social, la justicia procesal se basa en investigaciones que muestran que las personas creen que las instituciones y los actores son más confiables y legítimos cuando son escuchados y experimentan una toma de decisiones neutral, imparcial y transparente.
Los cuatro elementos clave de la justicia procesal son:
- Neutralidad: las decisiones son imparciales y guiadas por un razonamiento transparente.
- Respeto: Todos son tratados con respeto y dignidad.
- Voz: Todos pueden contar su versión de la historia.
- Confiabilidad: Los tomadores de decisiones comunican razones confiables a aquellos afectados por sus decisiones.
Mediante el uso de este marco, la policía ha mejorado la confianza y la cooperación en sus comunidades y algunas empresas de redes sociales están comenzando a utilizar estas ideas para dar forma a la gobernanza y la moderación enfoques.
Aquí hay algunas ideas sobre cómo las empresas de IA pueden adaptar este marco para generar confianza y legitimidad.
Cree el equipo correcto para responder las preguntas correctas
Como Profesora de UCLA Safiya Noble argumenta que las preguntas que rodean el sesgo algorítmico no pueden ser resueltas por los ingenieros solos, ya que son problemas sociales sistémicos que requieren perspectivas humanísticas, fuera de cualquier empresa, para garantizar la conversación social, el consenso y, en última instancia, la regulación, tanto para autónomos como para gobiernos.
Dentro «Error del sistema: dónde se equivocó Big Tech y cómo podemos reiniciar», tres profesores de Stanford discuten críticamente las deficiencias de la educación en informática y la cultura de la ingeniería por su obsesión con la optimización, a menudo haciendo retroceder los valores fundamentales de una sociedad democrática.
En una entrada de blog, Open AI dice que valora el aporte de la compañía«Debido a que el beneficio de AGI es tan grande, no creemos que sea posible o deseable que la empresa detenga el desarrollo para siempre; en cambio, la empresa y los desarrolladores de AGI deben descubrir cómo hacer las cosas bien.
Sin embargo, la página de contratación y el fundador de la empresa tuits de Sam Altman muestran que la compañía está contratando una gran cantidad de ingenieros de aprendizaje automático y científicos informáticos porque «ChatGPT tiene un historial ambicioso y se ve obstaculizado por la ingeniería».
¿Están estos científicos informáticos e ingenieros equipados para tomar decisiones que, como lo expresó OpenAI, «requerirá mucha más cautela de la que la sociedad suele aplicar a las nuevas tecnologías”?
Las empresas de tecnología deben contratar equipos multidisciplinarios que incluyan científicos sociales que comprendan los impactos humanos y sociales de la tecnología. Con una variedad de perspectivas sobre cómo entrenar aplicaciones de IA e implementar métricas de seguridad, las empresas pueden articular un razonamiento transparente para sus decisiones. Esto, a su vez, puede reforzar la percepción pública de la tecnología como neutral y confiable.
Incluir perspectivas externas
Otro elemento de la justicia procesal es dar a las personas la oportunidad de participar en un proceso de toma de decisiones. En una reciente Blog En una publicación sobre cómo OpenAI está abordando el sesgo, la compañía dijo que estaba buscando «información externa sobre nuestra tecnología», señalando un ejercicio reciente del equipo rojo, un proceso de evaluación de riesgos por medio de un enfoque contradictorio.
Aunque el equipo rojo es un proceso importante para evaluar el riesgo, debe incluir aportes externos. Dentro Ejercicio del equipo rojo de OpenAI, 82 de los 103 participantes eran empleados. De los 23 participantes restantes, la mayoría eran académicos de informática principalmente de universidades occidentales. Para obtener diversas perspectivas, las empresas deben mirar más allá de sus propios empleados, disciplinas y geografías.
También pueden permitir una retroalimentación más directa en los productos de IA al brindar a los usuarios un mayor control sobre el rendimiento de la IA. También podrían considerar brindar oportunidades para comentarios públicos sobre nuevas políticas o cambios de productos.
Garantizar la transparencia
Las empresas deben asegurarse de que todas las reglas y los procesos de seguridad asociados sean transparentes y transmitan razones confiables sobre cómo se tomaron las decisiones. Por ejemplo, es importante proporcionar al público información sobre cómo se entrenan las aplicaciones, de dónde se extraen los datos, qué papel tienen los humanos en el proceso de entrenamiento y qué capas de seguridad existen para minimizar el abuso.
Permitir que los investigadores auditen y comprendan los modelos de IA es clave para generar confianza.
Altman entendió bien en un reciente ABC Noticias entrevista cuando dijo: «Creo que la sociedad tiene un tiempo limitado para descubrir cómo reaccionar ante esto, cómo regularlo, cómo manejarlo».
A través de un enfoque de justicia procesal, en lugar de la opacidad y la fe ciega del enfoque de los predecesores tecnológicos, las empresas que construyen plataformas de IA pueden involucrar a la sociedad en el proceso y ganar, no exigir, confianza y legitimidad.