La fotónica resulta ser un problema difícil de resolver
El cálculo creciente la potencia necesaria para entrenar modelos de IA sofisticados como ChatGPT de OpenAI podría eventualmente chocar con la pared con las tecnologías de chips convencionales.
En un análisis de 2019, OpenAI encontrar que desde 1959 hasta 2012, la cantidad de energía utilizada para impulsar los modelos de IA se duplicó cada dos años, y que el consumo de energía comenzó a aumentar siete veces más rápido después de 2012.
Esto ya está causando tensión. Microsoft es tendría enfrenta una escasez interna de hardware de servidor necesario para ejecutar su IA, y la escasez está elevando los precios. CNBC, hablando con analistas y tecnólogos, estima el costo actual de entrenamiento un modelo similar a ChatGPT desde cero por más de $ 4 millones.
Una solución al dilema de entrenamiento de IA que se ha propuesto son los chips fotónicos, que usan luz para enviar señales en lugar de la electricidad que usan los procesadores convencionales. En teoría, los chips fotónicos podrían conducir a un mayor rendimiento de la unidad porque la luz produce menos calor que la electricidad, puede viajar más rápido y es mucho menos sensible a los cambios de temperatura y los campos electromagnéticos.
Material ligero, Luces encendidas, Informática brillante, Intel y NTT se encuentran entre las empresas que desarrollan tecnologías fotónicas. Pero si bien la tecnología generaba mucho entusiasmo hace unos años y atraía muchas inversiones, el sector se ha enfriado notablemente desde entonces.
Hay varias razones para esto, pero el mensaje general de los inversores y analistas que estudian la fotónica es que los chips fotónicos para IA, aunque prometedores, no son la panacea que alguna vez se creyó.