El hardware de IA fotónica de Lightmatter brillará con $ 154 millones en nuevos fondos

El hardware de IA fotónica de Lightmatter brillará con $ 154 millones en nuevos fondos

Puesta en marcha de la computación fotónica materia luminosa está despegando en el mercado de computación de inteligencia artificial en rápido crecimiento con una combinación de hardware y software que, según dice, ayudará a la industria a subir de nivel y ahorrará mucha electricidad para arrancar.

Los chips de Lightmatter utilizan principalmente el flujo óptico para resolver procesos computacionales, como los productos vectoriales rasterizados. Estos cálculos están en el corazón de gran parte del trabajo de IA y actualmente los realizan GPU y TPU que se especializan en ellos pero usan transistores y puertas de silicio tradicionales.

El problema de estos es que nos estamos acercando a la densidad y por tanto a los límites de velocidad para una potencia o tamaño dado. Todavía se están logrando avances, pero a un gran costo y superando los límites de la física clásica. Las supercomputadoras que hacen posibles los modelos de unidades como el GPT-4 son enormes, consumen grandes cantidades de energía y producen una gran cantidad de calor residual.

“Las empresas más grandes del mundo se están enfrentando a un muro de energía y se enfrentan a enormes desafíos con la escalabilidad de la IA. Los chips tradicionales están superando los límites de lo que se puede enfriar y los centros de datos están produciendo huellas de energía cada vez mayores. Los avances en IA se ralentizarán significativamente a menos que implementemos una nueva solución en los centros de datos”, dijo Nick Harris, director ejecutivo y fundador de Lightmatter.

LEER  Luup recauda $ 30 millones antes de las nuevas reglas de micromovilidad de Japón

«Algunos han predicho que formar un único patrón lingüístico grande puede consumir más energía de la que consumen 100 hogares estadounidenses en un año. Además, se estima que entre el 10 y el 20 % de la potencia mundial total se destinará a la inferencia de IA para finales de la década, a menos que se creen nuevos paradigmas computacionales. »

Lightmatter, por supuesto, pretende ser uno de estos nuevos paradigmas. Su enfoque es, al menos potencialmente, más rápido y más eficiente, utilizando rejillas de guías de ondas ópticas microscópicas para permitir que la luz realice operaciones lógicas simplemente al pasar a través de ellas: una especie de híbrido analógico-digital. Dado que las guías de ondas son pasivas, el consumo de energía principal crea la propia luz, luego lee e impulsa la salida.

Un aspecto realmente interesante de esta forma de computación óptica es que puede aumentar la potencia del chip simplemente usando más de un color a la vez. El azul realiza una operación mientras que el rojo realiza otra, aunque en la práctica es más como una longitud de onda de 800 nanómetros hace una, 820 hace otra. No es trivial hacer esto, por supuesto, pero estos «chips virtuales» pueden aumentar considerablemente la cantidad de cálculos realizados en la matriz. El doble de colores, el doble de potencia.

LEER  Spotify presenta un widget de pantalla de bloqueo de iPhone para acceder fácilmente a su aplicación

Harris lanzó la compañía basada en el trabajo de computación óptica que él y su equipo hicieron en el MIT (que les otorga las licencias de las patentes relevantes) y logró asegurar una ronda inicial de $ 11 millones en 2018. Un inversionista dijo entonces «no es un proyecto científico», pero Harris admitió en 2021 que si bien sabían «en principio» que la tecnología debería funcionar, había mucho que hacer para que funcionara. Afortunadamente, me dijo esto en el contexto de los inversores que pierden otros $ 80 millones en la empresa.

Ahora, Lightmatter ha recaudado una ronda C de $154 millones y se está preparando para su debut en el mundo real. Tiene varios pilotos en marcha con su pila completa de Envise (hardware de computadora), Passage (interconexión, crucial para grandes operaciones de TI) e Idiom, una plataforma de software que, según Harris, debería permitir que los desarrolladores de aprendizaje automático se adapten rápidamente.

Una unidad Lightmatter Envise en cautiverio. Créditos de la imagen: materia luminosa

«Hemos creado una pila de software que se integra a la perfección con PyTorch y TensorFlow. El flujo de trabajo para los desarrolladores de aprendizaje automático es el mismo a partir de ahí: tomamos las redes neuronales integradas en estas aplicaciones estándar de la industria e importamos nuestras bibliotecas, por lo que todo el código se ejecuta en Envise”, explicó.

LEER  Junta de accionistas de Tesla: sin plan de sucesión, regresa un cofundador y dos vehículos eléctricos objeto de burlas

La compañía se negó a hacer afirmaciones específicas sobre aceleraciones o mejoras en la eficiencia, y debido a que es una arquitectura y un método de cómputo diferentes, es difícil hacer comparaciones de manzanas con manzanas. Pero ciertamente estamos hablando de un orden de magnitud, no de un mísero 10% o 15%. La interconexión también se actualiza, ya que no es necesario tener este nivel de procesamiento aislado en una sola placa.

Por supuesto, este no es el tipo de chip de propósito general que podría usar en su computadora portátil; es muy específico para esta tarea. Pero es la falta de especificidad de la tarea a esta escala lo que parece estar frenando el desarrollo de la IA, aunque ‘retener’ es un término incorrecto porque se mueve a tal velocidad. Pero este desarrollo es extremadamente costoso y difícil de manejar.

Los controladores están en versión beta con la producción en masa programada para 2024, momento en el que presumiblemente deberían tener suficiente retroalimentación y madurez para implementarse en los centros de datos.

La financiación de esta ronda provino de SIP Global, Fidelity Management & Research Company, Viking Global Investors, GV, HPE Pathfinder e inversores existentes.

Más contenidos sobre empresas en América Latina

Deja una respuesta