A pesar de la duradera pandemia de COVID-19, Microsoft no canceló la conferencia Dev Build de 2022. Ocurrió desde el 24el al 26el de mayo, completamente en línea.
Durante la conferencia, la empresa dio a conocer varios proyectos y herramientas nuevos. Estos tienen como objetivo ayudar a los desarrolladores a mejorar su eficiencia y centrarse en nuevos productos con más asistencia de hardware y software. La conferencia se centró principalmente en Microsoft Azure y los nuevos desarrollos de IA. También discutió el hardware que admitirá estos avances.
La conferencia Dev Build discutió estos 7 proyectos clave:
- Caja de desarrollo de Microsoft
- El panel de control de IA responsable
- Servicios cognitivos de Azure actualizados (con IA abierta)
- Asociación con Meta (anteriormente Facebook)
- Asociación con AMD
- Nuevo Proyecto Volterra
- Compatibilidad con Hugging Platform
Notablemente, la conferencia no se centró en la plataforma en la nube de Microsoft y las herramientas de desarrollo de IA como temas separados. Más bien, fueron criados como partes de un todo. Las nuevas herramientas se integrarán con la nube y el software de aprendizaje automático. Como tal, podrían predecir y resolver errores incluso antes de que se formen. Los desarrolladores también creen que pronto podrían ser posibles soluciones completamente nuevas.
En esta conferencia Dev Build, Microsoft se centró en los desarrolladores más que en adquisiciones y estrategias. Con suerte, esto hará que Azure DevOps sea aún más fácil de usar.
Importancia de la computación en la nube
Para la mayoría de las empresas en este momento, la nube se usa casi exclusivamente para copias de seguridad y soluciones de recuperación ante desastres. Pero, con el desarrollo de nuevas herramientas, será posible usar máquinas virtuales para más propósitos. Como tal, podríamos impulsar modelos comerciales completos a la nube.
Este movimiento tendrá un fuerte impacto en las empresas que se centran en el trabajo remoto. En estas situaciones, nunca necesitarías que nadie esté en un lugar fijo. Más bien, sus empleados podrían acceder a sus herramientas y recursos desde cualquier máquina.
Cambiar a la nube también alejará las demandas de recursos de hardware de las estaciones de trabajo individuales. En su lugar, veremos un paradigma de uso colectivo. A su vez, eso reduce significativamente los costos de amortización y uso del hardware para las empresas. Incluso la optimización de costos de la nube se convertirá en una parte necesaria de cualquier modelo.
Dev Build presenta la nueva Microsoft Dev Box
En la Dev Build Conference, Microsoft presentó un nuevo servicio denominado Dev Box. Se centra específicamente en los desarrolladores. Este servicio se basará en Azure Virtual Desktop. En cuanto al diseño, es similar a Windows 365 pero con un énfasis diferente.
El nuevo servicio permitirá a los desarrolladores acceder a sistemas de máquinas virtuales preconfigurados. Utilizará el kit de desarrollo de software (SDK), el entorno de desarrollo integrado (IDE) o cualquier otra herramienta de desarrollo basada en una máquina con Windows.
Los desarrolladores estaban más interesados en la opción de depuración. Es decir, al usar Microsoft Dev Box, será posible depurar el código de trabajo sin depurar el dispositivo en el que está trabajando. El tiempo de espera en las reconstrucciones también se reducirá significativamente.
Según Anthony Cangialosi, gerente de programas grupales de Microsoft, “el nuevo servicio garantizará el cumplimiento, la administración unificada y una mayor seguridad. Utilizará Win365 para integrar Dev Box con MEM (Microsoft Endpoint Manager) e Intune”.
Esto hará que la IA avanzada sea más fácil de usar y codificar para los desarrolladores. Eso es especialmente cierto para las funciones del panel de control de IA responsable. El tablero de IA combinará análisis, interpretación de modelos y otras características de IA para permitir nuevas opciones para futuros desarrolladores. También los hará más rápidos y fáciles de usar.
La conferencia Dev Build de 2022 le ha dado a Microsoft la oportunidad de aumentar el soporte para las CPU ARM. En particular, Microsoft ahora puede desarrollar IA y unidades de procesamiento neuronal, o NPU. Estos son núcleos especializados que deberían aumentar la velocidad de aprendizaje de la IA. Esto mejorará en gran medida los algoritmos de aprendizaje automático.
En esa dirección, la compañía ha presentado lo que denominan Proyecto Volterra. Esta es una compilación de PC compacta que utilizará Snapdragon SoC (System on Chip), optando por cualquier cosa hecha por los dos gigantes de la CPU, AMD o Intel.
Al utilizar la nueva versión con el SDK de procesamiento neuronal de Qualcomm creado exclusivamente para Windows, los desarrolladores podrán probar múltiples escenarios de IA a un ritmo más accesible.
En palabras de Panos Panay, CPO de Microsoft, “la empresa producirá una gran variedad de opciones para herramientas de desarrollo ARM que serán utilizadas por Project Volterra y sus usuarios”. Estas herramientas incluyen:
- Estudio visual completo 2022
- Código VSC
- VisualC++
- Java .NET 6 moderno
- Marco .NET clásico
- Terminal de Windows
- WSL
- WSA
Combinadas, las nuevas herramientas del proyecto Volterra ayudarán a probar soluciones de IA para múltiples plataformas. Los desarrolladores creen que será de gran ayuda para el desarrollo de aplicaciones para Android y servicios web.
Desarrollado por AMD MI200
Durante la conferencia Dev Build, Microsoft anunció que la GPU AMD MI 200 se usará para el entrenamiento de IA en Azure. Según la compañía, esta es la primera vez que un servicio de nube pública utiliza este hardware. También se informa que es cinco veces más rápido en potencia informática que el Nvidia A100, que actualmente se utiliza en clústeres de IA basados en Azure.
El MI 200 es un chiplet de doble GPU con 96 TFLOPS que se basa en la arquitectura CDNA2 de AMD. Durante los últimos 6 meses que ha estado disponible para el público, las mejoras sobre el MI100 se hicieron evidentes. De hecho, su arquitectura de matriz dual aumentó el rendimiento de la computadora.
Además, con un total de 58 mil millones de transistores, el MI200 es muy compacto. En una GPU completa, usa lo que usa el A100 en un solo núcleo. En teoría, eso permitirá el uso de muchas más GPU seriales sin un aumento en los requisitos de área, energía y enfriamiento.