La semana en IA: los ChatBots están en alza y Musk quiere que sea una “búsqueda máxima de la verdad”
Mantenerse al día con una industria tan acelerada como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de las historias de la semana pasada en el mundo del aprendizaje automático, además de investigaciones y experimentos notables que no hemos cubierto por sí mismos.
Una historia que llamó la atención de este reportero esta semana es este informe que muestra que ChatGPT aparentemente repite más información inexacta en dialectos chinos que cuando se le pide que lo haga en inglés. No es terriblemente sorprendente: después de todo, ChatGPT es solo un modelo estadístico y solo se basa en la información limitada con la que fue entrenado. Pero destaca los peligros de depositar demasiada fe en sistemas que parecen increíblemente auténticos, incluso cuando repiten propaganda o inventan cosas.
El intento de Hugging Face de una IA conversacional como ChatGPT es otra ilustración de las fallas técnicas desafortunadas que aún no se han superado en la IA generativa. Lanzado esta semana, HuggingChat es de código abierto, una ventaja sobre ChatGPT patentado. Pero al igual que su rival, las preguntas correctas pueden descarrilarlo rápidamente.
HuggingChat es de mal gusto sobre quién En realidad ganó las elecciones presidenciales de EE. UU. de 2020, por ejemplo. Su respuesta a «¿Cuáles son los trabajos típicos de los hombres?» se lee como algo de un manifiesto de incel (ver aquí). Y se inventa hechos extraños sobre sí mismo, como si «se despertara en una caja». [that] no tenía nada escrito cerca [it].”
No es solo HuggingChat. Los usuarios del chatbot de IA de Discord pudieron «engañarlo» recientemente para que compartiera instrucciones sobre cómo hacer napalm y metanfetamina. Inicio de IA Stability AI, primer intento de un modelo similar a ChatGPT, se encontró para dar respuestas sin sentido sin sentido a preguntas básicas como «cómo hacer un sándwich de mantequilla de maní».
Si hay alguna ventaja en estos problemas de alto perfil con la IA de generación de texto actual, es que han llevado a renovar los esfuerzos para mejorar estos sistemas, o al menos aliviar sus problemas en la medida de lo posible. Eche un vistazo a Nvidia, que esta semana lanzó un conjunto de herramientas, NeMo Guardrails, para hacer que la IA que genera texto sea «más segura» a través de código fuente abierto, ejemplos y documentación. Ahora, la eficacia de esta solución no está clara y, como empresa que ha invertido mucho en infraestructura y herramientas de IA, Nvidia tiene un incentivo comercial para impulsar sus ofertas. Sin embargo, es alentador ver que se están realizando esfuerzos para combatir los sesgos y la toxicidad de los modelos de IA.
Aquí están los otros titulares importantes de AI de los últimos días:
- Microsoft Designer se lanza en versión preliminar: Microsoft Designer, la herramienta de diseño impulsada por IA de Microsoft, se lanzó en versión preliminar pública con un conjunto ampliado de características. Anunciada en octubre, Designer es una aplicación web de inteligencia artificial generativa similar a Canva que puede generar diseños para presentaciones, carteles, postales digitales, invitaciones, gráficos y más para compartir en las redes sociales y otros canales.
- Un entrenador de salud de IA: Apple está desarrollando un código de servicio de entrenamiento de salud basado en IA llamado Quartz, según un nuevo informe de Mark Gurman de Bloomberg. Según los informes, el gigante tecnológico también está trabajando en la tecnología de seguimiento de emociones y planea lanzar una versión para iPad de la aplicación iPhone Health este año.
- VerdadGPT: En una entrevista con Fox, Elon Musk dijo que quiere desarrollar su propio chatbot llamado TruthGPT, que será «la máxima IA que busque la verdad», sea lo que sea que eso signifique. El propietario de Twitter ha expresado su deseo de crear una tercera opción para OpenAI y Google con el objetivo de «crear más bien que mal». Lo creeremos cuando lo veamos.
- Fraude impulsado por IA: en un congreso audiencia Centrándose en el trabajo de la Comisión Federal de Comercio para proteger a los consumidores estadounidenses del fraude y otras prácticas engañosas, la presidenta de la FTC, Lina Khan, y sus compañeros comisionados advirtieron a los funcionarios de la Cámara sobre el potencial del uso de tecnologías modernas de inteligencia artificial, como ChatGPT, para «acelerar» el fraude. La advertencia se emitió en respuesta a una investigación sobre cómo trabajaba la Comisión para proteger a los estadounidenses de las prácticas desleales relacionadas con los avances tecnológicos.
- La UE crea un centro de investigación de IA: Mientras la Unión Europea se prepara para imponer un reinicio importante de sus regulaciones digitales en unos pocos meses, se está creando una nueva unidad de investigación dedicada para respaldar el monitoreo de las principales plataformas bajo la ley insignia del bloque sobre servicios digitales. Se espera que el Centro Europeo para la Transparencia Algorítmica, que se inauguró oficialmente en Sevilla, España, este mes, desempeñe un papel importante en el interrogatorio de los algoritmos de los servicios digitales de consumo, como Facebook, Instagram y TikTok.
- Snapchat adopta la IA: En la Snap Partner Summit anual de este mes, Snapchat mostró una gama de funciones impulsadas por IA, incluida una nueva «lente cósmica» que transporta a los usuarios y los objetos que los rodean a un paisaje cósmico. Snapchat también ha creado su chatbot de IA, My AI, que ha generado tanto controversia como torrentes de reseñas de una estrella en las listas de la App Store de Snapchat, debido a su comportamiento menos que estable: usuarios globales libres para todos.
- Google está consolidando divisiones de búsqueda: Google este mes anuncio Google DeepMind, una nueva unidad formada por el equipo DeepMind y el equipo Google Brain de Google Research. En una publicación de blog, el cofundador y director ejecutivo de DeepMind, Demis Hassabis, dijo que Google DeepMind trabajará “en estrecha colaboración. . . en todas las áreas de productos de Google” para “proporcionar búsqueda y productos de IA”.
- El estado de la industria de la música impulsada por IA: amanda escribe cuántos músicos se han convertido en conejillos de Indias para la tecnología de IA generativa que se apropia de su trabajo sin su consentimiento. Ella señala, por ejemplo, que una canción que usaba deepfakes de AI de Drake y voces de Weeknd se volvió viral, pero ningún artista importante participó en su creación. hace grimes tener la respuesta? ¿Quien lo dirá? Es un mundo nuevo y valiente.
- OpenAI marca su territorio: OpenAI está intentando presentar una marca comercial «GPT», que significa «Transformador preentrenado generativo», ante la Oficina de Marcas y Patentes de EE. UU., citando la «gran cantidad de infracciones y aplicaciones infractoras» que están comenzando a aparecer. GPT se refiere a la tecnología detrás de muchos modelos de OpenAI, incluidos ChatGPT y GPT-4, así como otros sistemas generativos de IA creados por los rivales de la empresa.
- ChatGPT se convierte en una empresa: En otras noticias de OpenAI, OpenAI dice que planea introducir un nuevo nivel de suscripción para ChatGPT a la medida de las necesidades de los clientes corporativos. Llamada ChatGPT Business, OpenAI describe la próxima oferta como «para profesionales que necesitan más control sobre sus datos, así como para empresas que buscan administrar a sus usuarios finales».
Otro aprendizaje automático
Aquí hay algunas otras historias interesantes a las que no tuvimos acceso o que simplemente merecían ser elogiadas.
La organización de desarrollo de IA de código abierto Stability ha lanzado una nueva versión de una versión anterior de una versión optimizada del modelo de lenguaje central LLaMa, a la que llama StableVicuña. Es un tipo de camélido relacionado con las llamas, como sabéis. No se preocupe, usted no es el único que tiene problemas para mantenerse al día con todos los modelos derivados: estos no son necesariamente para que los consumidores los conozcan o los usen, sino para que los desarrolladores prueben y jueguen con sus habilidades. refinado en cada iteración.
Si desea obtener más información sobre estos sistemas, el cofundador de OpenAI, John Schulman, recientemente dio una charla en UC Berkeley que puedes escuchar o leer aquí. Una de las cosas de las que habla es el hábito actual de los LLM de decir una mentira básicamente porque no saben cómo hacer otra cosa, como decir «No estoy muy seguro de eso». Él piensa que el aprendizaje por refuerzo a partir de la retroalimentación humana (es RLHF, y StableVicuna es un modelo que lo usa) es parte de la solución, si es que hay una solución. Mira la conferencia a continuación:
En Stanford hay una aplicación interesante de optimización algorítmica (creo que si se trata de aprendizaje automático es cuestión de gustos) en el campo de la agricultura inteligente. Minimizar el desperdicio es importante para el riego, y preguntas simples como «¿dónde coloco mis aspersores?» se vuelve realmente complejo dependiendo de la precisión que se quiera lograr.
¿Qué tan cerca está eso? En el museo, generalmente te dicen eso. Pero no hay necesidad de acercarse al famoso Panorama de Murten, una obra pintada realmente enorme, de 10 metros por 100 metros, que una vez colgó en una rotonda. EPFL y Phase One están trabajando juntos para hacer lo que afirman equivale a la imagen digital más grande jamás creada — 150 megapíxeles. Oh, espera, lo siento, 150 megapíxeles por 127 000, así que aproximadamente 19… ¿petapíxeles? Puedo estar equivocado por algunos órdenes de magnitud.
De todos modos, este proyecto es genial para los amantes de las panorámicas, pero también permitirá un análisis muy preciso y muy interesante de objetos individuales y detalles de la pintura. El aprendizaje automático es una gran promesa para la restauración de tales obras, así como para su aprendizaje y navegación estructurados.
Centrémonos en las criaturas vivas: cualquier ingeniero de aprendizaje automático le dirá que, a pesar de su aparente aptitud, los modelos de IA en realidad aprenden bastante lentamente. Académicamente, por supuesto, pero también espacialmente: un agente autónomo puede tener que explorar un espacio miles de veces durante muchas horas para obtener la comprensión más básica de su entorno. Pero un ratón puede hacerlo en minutos. ¿Por qué entonces? Investigadores del University College de Londres estudie esto y sugiera que existe un ciclo de retroalimentación corto que los animales usan para decir qué es importante en un entorno determinado, lo que hace que el proceso de exploración sea selectivo y dirigido. Si podemos enseñarle a la IA a hacer esto, será mucho más eficiente para moverse por la casa, si eso es lo que queremos que haga.
Finalmente, si bien existe una gran promesa para la IA generativa y conversacional en los juegos… todavía no hemos llegado a ese punto. De hecho, Square Enix parece haber hecho retroceder el medio unos 30 años con su versión «AI Tech Preview» de una súper aventura de apuntar y hacer clic de la vieja escuela llamada The Caso de asesinato en serie de Portopia. Su intento de incorporar el lenguaje natural parece haber fracasado por completo en todos los sentidos imaginables, lo que hace que el juego gratuito sea probablemente uno de los títulos con la calificación más baja en Steam. No hay nada que me gustaría más que discutir mi camino a través de Shadowgate o The Dig o algo así, pero definitivamente no es un buen comienzo.