
Esta semana en IA: empresas que se someten voluntariamente a las pautas de IA, por ahora
Mantenerse al día con una industria tan acelerada como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, además de algunas investigaciones y experimentos notables que no hemos cubierto por sí solos.
Esta semana en AI, vimos a OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon comprometerse voluntariamente con objetivos comunes de seguridad y transparencia de AI antes de una orden ejecutiva esperada de la administración Biden.
Como escribe mi colega Devin Coldewey, aquí no hay una regla o aplicación propuesta: las prácticas acordadas son puramente voluntarias. Pero los compromisos describen, a grandes rasgos, los enfoques y políticas regulatorios de IA que cada proveedor puede encontrar modificables en los Estados Unidos y en el extranjero.
Entre otros compromisos, las empresas se han ofrecido como voluntarias para realizar pruebas de seguridad de los sistemas de IA antes del lanzamiento, compartir información sobre técnicas de mitigación de IA y desarrollar técnicas de marca de agua que faciliten la identificación del contenido generado por IA. También dijeron que invertirían en ciberseguridad para proteger los datos privados de la IA y facilitar el informe de vulnerabilidades, así como priorizar la investigación sobre riesgos sociales, como sesgos sistémicos y problemas de privacidad.
Los compromisos son un paso importante, por supuesto, incluso si no son exigibles. Pero uno se pregunta si hay motivos ocultos por parte del abajo firmante.
Aparentemente, OpenAI ha escrito un memorando de política interna que muestra que la compañía apoya la idea de exigir licencias gubernamentales a cualquiera que quiera desarrollar sistemas de IA. El CEO Sam Altman planteó la idea por primera vez durante una audiencia en el Senado de los EE. UU. en mayo, donde respaldó la creación de una agencia que pudiera emitir licencias para productos de IA y revocarlas si alguien infringiera las reglas establecidas.
En una entrevista de prensa reciente, Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, insistió en que OpenAI no está «presionando» para obtener licencias y que la empresa solo admite esquemas de licencias para modelos de IA más potentes que el actual GPT-4 de OpenAI. Pero las licencias emitidas por el gobierno, si se implementan de la manera que propone OpenAI, preparan el escenario para un choque potencial con las nuevas empresas y los desarrolladores de código abierto que pueden verlos como un intento de dificultar que otros ingresen al espacio.
Creo que Devin lo dijo mejor cuando me lo describió como «tirar clavos en el camino detrás de ellos mientras corren». Por lo menos, ilustra la naturaleza de dos caras de las empresas de IA que buscan apaciguar a los reguladores mientras configuran la política a su favor (en este caso, perjudicando a los retadores más pequeños) detrás de escena.
Es una situación preocupante. Pero, si los formuladores de políticas intervienen, todavía hay esperanza de suficientes salvaguardias sin interferencia indebida del sector privado.
Aquí hay algunas otras historias de IA de los últimos días:
- Renuncia el director de confianza y seguridad de OpenAI: Dave Willner, un veterano de la industria que fue jefe de confianza y seguridad en OpenAI, anunció en un publicar en LinkedIn que renunció a su trabajo y pasó a un papel de asesor. OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati liderará el equipo de manera interina.
- Instrucciones personalizadas para ChatGPT: En otras noticias de OpenAI, la compañía ha lanzado instrucciones personalizadas para los usuarios de ChatGPT para que no tengan que escribir las mismas instrucciones en el chatbot cada vez que interactúan con él.
- Google AI para redacción de noticias: Google está probando una herramienta que usa IA para escribir noticias y ha comenzado a demostrarlo en publicaciones, según un nuevo informe del New York Times. El gigante tecnológico presentó el sistema de IA al propietario de The New York Times, Washington Post y Wall Street Journal, News Corp.
- Apple está probando un chatbot similar a ChatGPT: Apple está desarrollando IA para desafiar a OpenAI, Google y otros, según un nuevo reporte por Mark Gurman de Bloomberg. Específicamente, el gigante tecnológico creó un chatbot que algunos ingenieros llaman internamente «Apple GPT».
- Metahechizo Llama 2: Meta presentó una nueva familia de modelos de IA, Llama 2, diseñado para impulsar aplicaciones modeladas a partir de ChatGPT de OpenAI, Bing Chat y otros chatbots modernos. Entrenado en una combinación de datos disponibles públicamente, Meta afirma que el rendimiento de Llama 2 ha mejorado significativamente con respecto a la generación anterior de modelos Llama.
- Los autores protestan contra la IA generativa: Los sistemas de IA generativa como ChatGPT se entrenan con datos disponibles públicamente, incluidos libros, y no todos los creadores de contenido están contentos con el arreglo. En una carta abierta firmada por más de 8.500 autores Ficción, no ficción y poesía, las compañías de tecnología detrás de grandes modelos de lenguaje como ChatGPT, Bard, LLaMa y más están siendo reprendidas por usar su escritura sin permiso ni compensación.
- Microsoft trae Bing Chat a la empresa: En su conferencia anual Inspire, Microsoft anunció Bing Chat Enterprise, una versión de su chatbot impulsada por Bing Chat AI con controles de gobierno de datos y privacidad centrados en la empresa. Con Bing Chat Enterprise, los datos del chat no se guardan, Microsoft no puede mostrar los datos de los empleados o de la empresa de un cliente, y los datos de los clientes no se usan para entrenar los modelos de IA subyacentes.
Más aprendizaje automático
Técnicamente, esto también fue una noticia, pero vale la pena mencionarlo aquí en la sección de investigación. Fable Studios, que previamente hizo cortos CG y 3D para realidad virtual y otros medios, mostró un modelo de IA al que llama Showrunner que (dice) puede escribir, dirigir, protagonizar y editar un programa de televisión completo; en su demostración, era South Park.
Estoy dividido en este punto. Por un lado, creo que continuar con esto, sin mencionar una gran huelga de Hollywood que involucre problemas salariales y de inteligencia artificial, es de muy mal gusto. Aunque el CEO Edward Saatchi ha dicho que cree que la herramienta pone el poder en manos de los creadores, lo contrario también es discutible. En cualquier caso, no fue especialmente bien recibido por la gente de la industria.
Por otro lado, si alguien en el lado creativo (que es Saatchi) no explora y demuestra estas habilidades, entonces serán exploradas y demostradas por otros con menos reparos en usarlas. Aunque las afirmaciones de Fable son un poco amplias para lo que realmente mostraron (lo que tiene serias limitaciones), es como el DALL-E original en el sentido de que generó discusión e incluso preocupación a pesar de que no era un reemplazo para un artista real. La IA tendrá un lugar en la producción de medios de una forma u otra, pero por una gran cantidad de razones debe abordarse con precaución.
Por el lado de la política, hace algún tiempo tuvimos la Ley de Autorización de la Defensa Nacional pasando (como de costumbre) por enmiendas políticas realmente ridículas que no tienen nada que ver con la defensa. Pero entre ellos se agregó que el gobierno debe organizar un evento donde los investigadores y las empresas puedan hacer todo lo posible para detectar contenido generado por IA. Este tipo de cosas definitivamente se está acercando a los niveles de «crisis nacional», por lo que probablemente sea bueno que se haya deslizado allí.
En investigación de Disney, todavía están tratando de encontrar una manera de unir lo digital y lo real, presumiblemente para fines de parque. En este caso, desarrollaron una forma de mapear los movimientos virtuales de un personaje o captura de movimiento (por ejemplo, para un perro CG en una película) en un robot real, incluso si ese robot tiene una forma o tamaño diferente. Se basa en dos sistemas de optimización, cada uno informando al otro de lo que es ideal y lo que es posible, un poco como un pequeño ego y un superego. Esto debería hacer que sea mucho más fácil lograr que los perros robot actúen como perros normales, pero, por supuesto, también se puede generalizar a otras cosas.
Y esperamos que la IA pueda ayudarnos a alejar al mundo de la extracción de minerales en el fondo del mar, porque definitivamente es una mala idea. Una multiinstitucional estudio puso la capacidad de AI para filtrar la señal del ruido para predecir la ubicación de minerales preciosos en todo el mundo. Como escriben en el resumen:
En este trabajo, adoptamos la complejidad inherente y el «desorden» de los sistemas geológicos, químicos y biológicos entrelazados de nuestro planeta mediante el uso del aprendizaje automático para caracterizar patrones integrados en la multidimensionalidad de la ocurrencia y las asociaciones minerales.
El estudio en realidad predijo y verificó las ubicaciones de uranio, litio y otros minerales valiosos. Y qué tal esto para una línea final: el sistema «mejorará nuestra comprensión de la mineralización y los entornos de mineralización en la Tierra, en todo nuestro sistema solar y a través del tiempo profundo». Impresionante.