
A medida que la IA elimina puestos de trabajo, una forma de mantener a la gente financieramente a flote y motivada
En Silicon Valley, algunas de las mentes más brillantes creen que una Renta Básica Universal (UBI) que garantice a las personas pagos en efectivo sin restricciones los ayudará a sobrevivir y prosperar a medida que las tecnologías de punta acaban con más carreras como las que conocemos, cuello blanco y creatividad. trabajos – abogados, periodistas, artistas, ingenieros de software – para roles de trabajo. La idea ganó suficiente tracción que docenas Los programas de ingresos garantizados se han lanzado en ciudades de EE. UU. desde 2020.
Sin embargo, incluso Sam Altman, el CEO de OpenAI y uno de los más destacados promotores de UBI, no creas que es una solución completa. Como dijo durante una sentarse a principios de este año, «Creo que esa es una pequeña parte de la solución. Creo que eso es genial. pienso como [advanced artificial intelligence] participa cada vez más en la economía, debemos distribuir mucha más riqueza y recursos de los que tenemos y esto será importante con el tiempo. Pero no creo que eso solucione el problema. No creo que tenga sentido para la gente, no creo que signifique que la gente dejará de intentar crear y hacer cosas nuevas y lo que sea. Así que consideraría esto como una tecnología habilitadora, pero no como un modelo para la sociedad. »
La pregunta que se plantea es cómo debería ser un plan de empresa entonces, y el informático Jaron Lanier, fundador en el campo de la realidad virtual, escribe en la edición de esta semana. neoyorquino que la “dignidad de los datos” podría ser una solución, si no EL responder.
Estos son los conceptos básicos: en este momento, en su mayoría regalamos nuestros datos de forma gratuita a cambio de servicios gratuitos. Lanier soutient qu’à l’ère de l’IA, devons-nous arrêter de faire cela, que les modèles puissants qui se frayent actuellement un chemin dans la société «soient connectés avec les humains» qui leur donnent tant à ingérer et à apprendre en primer lugar.
La idea es que a las personas “se les pague por lo que crean, incluso cuando se filtran y recombinan” en algo irreconocible.
El concepto no es completamente nuevo, ya que Lanier introdujo por primera vez la noción de dignidad de los datos en un artículo de Harvard Business Review de 2018 titulado «Un plan para una mejor sociedad digital.”
Como escribió en ese momento con el coautor y economista Glen Weyl, «[R]La historia del sector tecnológico sugiere una ola de subempleo por venir debido a la inteligencia artificial (IA) y la automatización. Pero las predicciones de los defensores de la RBU «solo dejan espacio para dos resultados» y son extremas, observaron Lanier y Weyl. “O habrá pobreza masiva a pesar de los avances tecnológicos, o gran parte de la riqueza tendrá que estar bajo control central y nacional a través de un fondo de riqueza social para proporcionar a los ciudadanos un ingreso básico universal”.
El problema es que ambos «enfocan demasiado el poder y socavan o ignoran el valor de los creadores de datos», escribieron los dos.
desentrañar mi mente
Por supuesto, otorgar a las personas la cantidad correcta de crédito por sus innumerables contribuciones a todo lo que existe en el mundo no es un desafío pequeño (aunque uno puede imaginarse a las nuevas empresas de auditoría de IA prometiendo abordar el problema). Lanier reconoce que incluso los investigadores de la dignidad de los datos no pueden ponerse de acuerdo sobre cómo desenredar todo lo que han absorbido los modelos de IA o cuán granular debe ser una contabilidad.
Pero él piensa, quizás con optimismo, que podría suceder gradualmente. «El sistema no necesariamente daría cuenta de los miles de millones de personas que han hecho contribuciones ambientales a modelos grandes, aquellos que han agregado a la competencia gramatical simulada de un modelo, por ejemplo. [It] podría tratar sólo con el pequeño número de contribuyentes especiales que surgen en una situación dada. Con el tiempo, sin embargo, “se podría incluir a más personas, como organizaciones de defensa intermediarias: sindicatos, gremios, grupos profesionales, etc. – comenzará a jugar un papel”.
Por supuesto, el desafío más inmediato es la naturaleza de caja negra de las herramientas de IA actuales, dice Lanier, quien cree que “los sistemas deben ser más transparentes. Necesitamos mejorar en decir lo que está pasando dentro de ellos y por qué.
Si bien OpenAI había publicado al menos algunos de sus datos de entrenamiento en años anteriores, desde entonces cerró el kimono por completo. De hecho, Greg Brockman le dijo a TechCrunch el mes pasado sobre GPT-4, su último y más poderoso modelo de lenguaje grande hasta la fecha, que sus datos de entrenamiento provienen de una «variedad de fuentes de datos con licencia, creadas y disponibles públicamente, que pueden incluir información personal disponible públicamente». información. información», pero se negó a ofrecer algo más específico.
Me gusta OpenAI declarado cuando se lanza GPT-4, hay demasiados inconvenientes para que el atuendo revele más de lo que revela. «Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similares.»
Lo mismo es cierto para todos los principales modelos de lenguaje en la actualidad. El chatbot Bard de Google, por ejemplo, se basa en el modelo de lenguaje LaMDA, que se entrena en conjuntos de datos basados en contenido de Internet llamados Infiniset. Pero poco más se sabe al respecto aparte de lo que dice el equipo de investigación de Google escribiendo hace un año, es decir, en algún momento del pasado, incorporó 2970 millones de documentos y 1120 millones de diálogos con 13390 millones de enunciados.
Los reguladores se preguntan qué hacer. OpenAI, cuya tecnología en particular se está extendiendo como la pólvora, ya está en la mira de un número creciente de países, incluida la autoridad italiana, que ha bloqueado el uso de ChatGPT. Los reguladores de datos franceses, alemanes, irlandeses y canadienses también están investigando cómo recopila y utiliza los datos.
Pero como Margaret Mitchell, una investigadora de IA que anteriormente fue codirectora de ética de IA en Google, dijo al medio. Revisión de tecnologíaEn este punto, podría ser casi imposible para estas empresas identificar los datos de las personas y eliminarlos de sus modelos.
Como explica el medio: OpenAI «podría haberse ahorrado un gran dolor de cabeza al incorporar una sólida retención de datos desde el principio, [according to Mitchell]. En cambio, es común en la industria de la IA crear conjuntos de datos para modelos de IA raspando indiscriminadamente la web y luego subcontratando el trabajo de eliminar duplicados o puntos de datos no relacionados, filtrando elementos no deseados y corrigiendo errores tipográficos.
Cómo salvar una vida
El hecho de que estas empresas de tecnología en realidad tengan una comprensión limitada de lo que hay ahora en sus modelos es un desafío obvio para la propuesta de «dignidad de los datos» de Lanier, que llama a Altman un «colega y amigo» en su artículo New Yorker.
Si eso lo hace imposible es algo que solo el tiempo dirá.
Sin duda, hay mérito en querer dar a las personas la propiedad de su trabajo, y la frustración con el problema ciertamente podría aumentar a medida que el mundo se reconfigura con estas nuevas herramientas.
Ya sea que OpenAI y otros tuvieran o no el derecho de rastrear todo Internet para impulsar sus algoritmos, ya está en el centro de la cuestión. muchos y a gran escala demandas por infracción de derechos de autor contra ellos.
Pero esta supuesta dignidad de los datos también podría contribuir en gran medida a preservar la cordura humana a lo largo del tiempo, sugiere Lanier en su fascinante artículo del New Yorker.
Según él, la renta básica universal “es como dejar a todo el mundo sin trabajo para conservar la idea de la inteligencia artificial en una caja negra”. Mientras tanto, poner fin a la «naturaleza de caja negra de nuestros modelos de IA actuales» facilitaría el recuento de las contribuciones de las personas, lo que aumentaría las probabilidades de que continúen haciendo contribuciones.
Es importante destacar que, agrega Lanier, también podría ayudar a «establecer una nueva clase creativa en lugar de una nueva clase dependiente». ¿Y de quién preferirías formar parte?