ChatGPT en versión preliminar en Azure OpenAI Service

En ese momento, nadie sabía que esto significaría sistemas de IA que crean imágenes de cualquier cosa que la gente describa en un lenguaje sencillo o un chatbot para escribir letras de rap, redactar correos electrónicos y planificar menús completos basados en un puñado de palabras. Pero una tecnología como esta era posible. Para construirla, OpenAI necesitaba potencia informática, a una escala en verdad masiva. ¿Podría Microsoft entregarla?

Microsoft se dedicó décadas a sus propios esfuerzos para desarrollar modelos de IA que ayuden a las personas a trabajar con el lenguaje de manera más eficiente, desde el corrector ortográfico automático en Word hasta herramientas de IA que escriben pies de foto en PowerPoint y traducen a más de 100 idiomas en Microsoft Translator. A medida que estas capacidades de IA mejoraron, la empresa aplicó su experiencia en computación de alto rendimiento para escalar la infraestructura en su nube de Azure que permitió a los clientes usar sus herramientas de IA para crear, entrenar y servir aplicaciones de IA personalizadas.

A medida que los investigadores de IA comenzaron a usar unidades de procesamiento de gráficos más potentes, conocidas como GPU, para manejar cargas de trabajo de IA más complejas, comenzaron a vislumbrar el potencial de modelos de IA mucho más grandes que podían comprender los matices tan bien que podían abordar muchas tareas de lenguaje diferentes a la vez. Pero estos modelos más grandes se toparon muy pronto con los límites de los recursos informáticos existentes. Microsoft entendió qué tipo de infraestructura de supercomputación pedía OpenAI y la escala que se requeriría.

“Una de las cosas que aprendimos de la investigación es que cuanto más grande es el modelo, más datos tiene y más tiempo puede entrenar, mejor es la precisión del modelo”, dijo Nidhi Chappell, jefa de producto de Microsoft para cómputo de alto rendimiento de Azure e IA. “Entonces, en definitiva hubo un fuerte impulso para entrenar modelos más grandes durante un período de tiempo más largo, lo que significa que no solo necesita tener la infraestructura más grande, sino que debe poder ejecutarla de manera confiable durante un período prolongado.”

En 2019, Microsoft y OpenAI iniciaron una asociación, que se amplió este año, para colaborar en las nuevas tecnologías de supercomputación de Azure AI que aceleran los avances en IA, cumplen la promesa de modelos de lenguaje extenso y ayudan a garantizar que los beneficios de la IA se compartan de manera amplia.

Las dos empresas comenzaron a trabajar en estrecha colaboración para crear recursos de supercomputación en Azure que fueron diseñados y dedicados para permitir que OpenAI entrenara un conjunto en expansión de modelos de IA cada vez más potentes. Esta infraestructura incluía miles de GPU NVIDIA optimizadas para IA conectadas entre sí en una red de alto rendimiento y baja latencia basada en comunicaciones NVIDIA Quantum InfiniBand para computación de alto rendimiento.

La escala de la infraestructura de computación en la nube que OpenAI necesitaba para entrenar sus modelos no tenía precedentes: grupos exponencialmente más grandes de GPU en red que nadie en la industria había intentado construir, señaló Phil Waymouth, director senior de Microsoft a cargo de asociaciones estratégicas que ayudó a negociar el tratar con OpenAI.

La decisión de Microsoft de asociarse con OpenAI se basó en la convicción de que esta escala de infraestructura sin precedentes produciría resultados (nuevas capacidades de IA, un nuevo tipo de plataforma de programación) que Microsoft podría transformar en productos y servicios que ofrezcan un beneficio real a los clientes, dijo Waymouth. Esta convicción alimentó la ambición de las empresas de superar cualquier desafío técnico para construirlo y continuar con su búsqueda de superar los límites de la supercomputación de IA.

“Ese cambio de la investigación a gran escala en los laboratorios a la industrialización de la IA nos permitió obtener los resultados que comenzamos a ver hoy”, dijo.

Esto incluye resultados de búsqueda en Bing que arman unas vacaciones de ensueño, el chatbot en Viva Sales que redacta correos electrónicos de marketing, GitHub Copilot que extrae contexto del código existente de los desarrolladores de software para sugerir líneas de código y funciones adicionales, para eliminar la monotonía de la programación informática y Azure OpenAI Service, que brinda acceso a los grandes modelos de lenguaje de OpenAI con las capacidades de nivel empresarial de Azure.

“El diseño en conjunto de supercomputadoras con Azure ha sido crucial para escalar nuestras exigentes necesidades de capacitación en IA, lo que hace posible nuestro trabajo de investigación y alineación en sistemas como ChatGPT”, dijo Greg Brockman, presidente y cofundador de OpenAI.

Microsoft y sus socios continúan el avance en esta infraestructura para mantenerse al día con la creciente demanda de modelos más complejos y más grandes a nivel exponencial.

Por ejemplo, hoy Microsoft anunció nuevas máquinas virtuales potentes y de una enorme escalabalidad que integran las últimas GPU NVIDIA H100 Tensor Core y la red NVIDIA Quantum-2 InfiniBand. Las máquinas virtuales son la forma en que Microsoft ofrece a los clientes una infraestructura que se puede escalar a medida para cualquier tarea de IA. La nueva máquina virtual ND H100 v5 de Azure proporciona a los desarrolladores de IA un rendimiento y una escalabilidad excepcionales en miles de GPU, según Microsoft.

Así podemos ayudar a tu empresa VER PORTAFOLIO
X