El jefe de confianza y seguridad de OpenAI, Dave Willner, renuncia

El jefe de confianza y seguridad de OpenAI, Dave Willner, renuncia

Se está produciendo un importante cambio de personal en IA abierta, el gigante de la IA que casi sin ayuda insertó el concepto de IA generativa en el discurso público global con el lanzamiento de ChatGPT. Dave Willner, un veterano de la industria que se desempeñó como jefe de confianza y seguridad de la startup, anunció en un publicar en LinkedIn anoche que renunció a su trabajo y pasó a desempeñar un papel de asesor. Él planea pasar más tiempo con su joven familia, dijo. Llevaba un año y medio en el cargo.

Su partida llega en un momento crítico para el mundo de la IA.

Junto con todo el entusiasmo por las capacidades de las plataformas de IA generativa, que se basan en modelos de lenguaje grandes y son súper rápidas para producir texto, imágenes, música y más generados libremente en función de simples indicaciones del usuario, ha habido una lista creciente de preguntas. ¿Cómo podemos regular mejor la actividad y las empresas en este nuevo mundo feliz? ¿Cómo se pueden mitigar mejor los impactos adversos en una variedad de problemas? La confianza y la seguridad son elementos fundamentales de estas conversaciones.

Justo hoy, el presidente de OpenAI, Greg Brockman, comparecerá en la Casa Blanca junto con ejecutivos de Anthropic, Google, Inflection, Microsoft, Meta y Amazon para respaldar compromisos voluntarios para perseguir objetivos comunes de seguridad y transparencia ante un decreto ejecutivo sobre IA que está en preparación. . Esto sigue a mucho ruido en Europa relacionado con la regulación de la IA, así como cambiando sentimientos entre Algunos otros.

LEER  HackCapital lanza una plataforma de inversión que compite con Odin, Vauban

La importancia de todo esto no se pierde en OpenAI, que ha buscado posicionarse como jugador consciente y responsable sobre el terreno.

Willner no hace referencia a esto específicamente en su publicación de LinkedIn. En cambio, lo mantiene alto, señalando que las demandas de su trabajo OpenAI pasaron a una «fase de alta intensidad» después del lanzamiento de ChatGPT.

«Estoy orgulloso de todo lo que nuestro equipo ha logrado durante mi tiempo en OpenAI, y si bien mi trabajo fue uno de los mejores e interesantes que podría tener hoy, también aumentó considerablemente en alcance y escala desde que comencé a unirme». Si bien él y su esposa, Chariotte Willner, que también es especialista en confianza y seguridad, se comprometieron a poner siempre a la familia primero, dijo: «En los meses transcurridos desde el lanzamiento de ChatGPT, me ha resultado cada vez más difícil mantener mi parte del trato.

Willner solo ha estado en su puesto de OpenAI durante un año y medio, pero viene de una larga carrera en el campo que incluye liderar equipos de confianza y seguridad en Facebook y Airbnb.

LEER  Reunión anual de accionistas de Tesla: cómo mirar y qué esperar

El trabajo en Facebook es particularmente interesante. Allí fue uno de los primeros empleados que ayudó a definir la primera posición de la empresa sobre los estándares comunitarios, que todavía se utiliza como base del enfoque de la empresa en la actualidad.

Fue un momento muy formativo para la empresa y posiblemente, dada la influencia que ha tenido Facebook en el crecimiento global de las redes sociales, para Internet y la sociedad en general. Algunos de esos años estuvieron marcados por posturas muy abiertas sobre la libertad de expresión y la necesidad de que Facebook resistiera los llamados a contener grupos y publicaciones controvertidas.

Un ejemplo de ello fue una disputa muy grande en 2009 que se desarrolló en el foro público sobre cómo Facebook manejaba las cuentas y publicaciones de los que niegan el Holocausto. Algunos empleados y observadores externos sintieron que Facebook tenía el deber de tomar una posición y prohibir estas publicaciones. Otros pensaron que equivalía a censura y enviaron un mensaje equivocado sobre la libertad de expresión.

Willner estaba en el último campo, creyendo que el «discurso de odio» no era lo mismo que el «daño directo» y, por lo tanto, no debería moderarse de la misma manera. «No creo que la negación del Holocausto, como idea [sic] propio, inherentemente representa una amenaza para la seguridad de los demás”, escribió en ese momento. (Para ver el pasado de TechCrunch, vea la publicación completa al respecto aquí).

LEER  Netflix cancela la transmisión en vivo de 'Love is Blind' después de problemas técnicos y una hora de retraso

En retrospectiva, considerando todo lo que sucedió, esa fue una posición bastante ingenua y miope. Pero, parece que al menos algunas de estas ideas han evolucionado. En 2019, al no ser empleado de la red social, fue hablar en contra cómo la compañía quería otorgar a los políticos y figuras públicas excepciones de moderación de contenido más débiles.

Pero si la necesidad de Facebook de sentar las bases era mayor de lo esperado en ese momento, podría decirse que lo es aún más ahora para la nueva ola de tecnología. De acuerdo a esto Historia del New York Times Hace menos de un mes, Willner fue llevado por primera vez a OpenAI para ayudar a descubrir cómo evitar que Dall-E, el generador de imágenes de la startup, se use indebidamente y se use para cosas como la creación de pornografía infantil generativa de IA.

pero como el dice el proverbio, OpenAI (y la industria) necesita esta política ayer. «Dentro de un año, vamos a llegar a un estado muy problemático en esta área», dijo al NYT David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford.

Ahora, sin Willner, ¿quién liderará la carga de OpenAI para resolver este problema?

(Nos comunicamos con OpenAI para obtener comentarios y actualizaremos esta publicación con cualquier respuesta).

Más contenidos sobre empresas en América Latina

Deja una respuesta