La infraestructura de aprendizaje automático de alto rendimiento y bajo costo está acelerando la innovación en la nube

La inteligencia artificial y el aprendizaje automático (IA y ML) son tecnologías clave que ayudan a las organizaciones a desarrollar nuevas formas de aumentar las ventas, reducir los costos, optimizar los procesos comerciales y comprender mejor a sus clientes. AWS ayuda a los clientes a acelerar su adopción de IA / ML al ofrecer computación potente, redes de alta velocidad y opciones de almacenamiento escalables de alto rendimiento bajo demanda para cualquier proyecto de aprendizaje automático. Esto reduce la barrera de entrada para las organizaciones que buscan adoptar la nube para escalar sus aplicaciones de aprendizaje automático.

Los desarrolladores y los científicos de datos están superando los límites de la tecnología y adoptando cada vez más el aprendizaje profundo, que es un tipo de aprendizaje automático basado en algoritmos de redes neuronales. Estos modelos de aprendizaje profundo son más grandes y sofisticados, lo que genera costos crecientes para ejecutar la infraestructura subyacente para entrenar e implementar estos modelos.

Para permitir que los clientes aceleren su transformación AI / ML, AWS está construyendo chips de aprendizaje automático de alto rendimiento y bajo costo. AWS Inferentia es el primer chip de aprendizaje automático creado desde cero por AWS para la inferencia de aprendizaje automático de menor costo en la nube. De hecho, las instancias Amazon EC2 Inf1 con tecnología Inferentia ofrecen un rendimiento 2,3 veces mayor y un costo hasta un 70% menor para la inferencia de aprendizaje automático que las instancias EC2 basadas en GPU de la generación actual. AWS Trainium es el segundo chip de aprendizaje automático de AWS que está diseñado específicamente para entrenar modelos de aprendizaje profundo y estará disponible a fines de 2021.

Los clientes de todas las industrias han implementado sus aplicaciones de aprendizaje automático en producción en Inferentia y han visto importantes mejoras de rendimiento y ahorros de costos. Por ejemplo, la plataforma de soporte al cliente de AirBnB permite experiencias de servicio inteligentes, escalables y excepcionales a su comunidad de millones de anfitriones e invitados en todo el mundo. Usó instancias EC2 Inf1 basadas en Inferentia para implementar modelos de procesamiento de lenguaje natural (NLP) que admitían sus chatbots. Esto condujo a una mejora del doble en el rendimiento desde el primer momento en comparación con las instancias basadas en GPU.

Con estas innovaciones en silicio, AWS permite a los clientes capacitar y ejecutar sus modelos de aprendizaje profundo en producción fácilmente con alto rendimiento y rendimiento a costos significativamente más bajos.

Los des afíos del aprendizaje automático aceleran el cambio a la infraestructura basada en la nube

El aprendizaje automático es un proceso iterativo que requiere que los equipos creen, capaciten e implementen aplicaciones rápidamente, así como capaciten, reentrenan y experimenten con frecuencia para aumentar la precisión de predicción de los modelos. Al implementar modelos capacitados en sus aplicaciones comerciales, las organizaciones también deben escalar sus aplicaciones para brindar servicios a nuevos usuarios en todo el mundo. Deben poder atender varias solicitudes que llegan al mismo tiempo con una latencia casi en tiempo real para garantizar una experiencia de usuario superior.

Los casos de uso emergentes, como la detección de objetos, el procesamiento del lenguaje natural (NLP), la clasificación de imágenes, la inteligencia artificial conversacional y los datos de series de tiempo, se basan en la tecnología de aprendizaje profundo. Los modelos de aprendizaje profundo están aumentando exponencialmente en tamaño y complejidad, pasando de tener millones de parámetros a miles de millones en cuestión de un par de años.

Capacitar e implementar estos modelos complejos y sofisticados se traduce en costos de infraestructura significativos. Los costos pueden crecer rápidamente hasta llegar a ser prohibitivamente grandes a medida que las organizaciones escalan sus aplicaciones para brindar experiencias casi en tiempo real a sus usuarios y clientes.

Aquí es donde los servicios de infraestructura de aprendizaje automático basados ​​en la nube pueden ayudar. La nube proporciona acceso bajo demanda a la computación, redes de alto rendimiento y almacenamiento de datos de gran tamaño, combinado a la perfección con operaciones de aprendizaje automático y servicios de inteligencia artificial de nivel superior, para permitir que las organizaciones comiencen de inmediato y escalen sus iniciativas de inteligencia artificial / aprendizaje automático.

Cómo AWS está ayudando a los clientes a acelerar su transformación de IA / ML

AWS Inferentia y AWS Trainium tienen como objetivo democratizar el aprendizaje automático y hacerlo accesible para los desarrolladores independientemente de la experiencia y el tamaño de la organización. El diseño de Inferentia está optimizado para un alto rendimiento, rendimiento y baja latencia, lo que lo hace ideal para implementar inferencia ML a escala.

Cada chip de AWS Inferentia contiene cuatro NeuronCores que implementan un motor de multiplicación de matriz de matriz sistólica de alto rendimiento, que acelera enormemente las operaciones típicas de aprendizaje profundo, como la convolución y los transformadores. Los NeuronCores también están equipados con una gran caché en chip, que ayuda a reducir los accesos a la memoria externa, reduciendo la latencia y aumentando el rendimiento.

AWS Neuron, el kit de desarrollo de software para Inferentia, es compatible de forma nativa con los principales marcos de ML, como TensorFlow y PyTorch. Los desarrolladores pueden seguir utilizando los mismos marcos y herramientas de desarrollo del ciclo de vida que conocen y aman. Para muchos de sus modelos entrenados, pueden compilarlos e implementarlos en Inferentia cambiando solo una línea de código, sin cambios adicionales en el código de la aplicación.

El resultado es una implementación de inferencia de alto rendimiento, que puede escalar fácilmente mientras mantiene los costos bajo control.

Sprinklr, una empresa de software como servicio, tiene una plataforma de gestión de la experiencia del cliente unificada impulsada por IA que permite a las empresas recopilar y traducir los comentarios de los clientes en tiempo real a través de múltiples canales en información procesable. Esto da como resultado una resolución proactiva de problemas, un mejor desarrollo de productos, un mejor marketing de contenido y un mejor servicio al cliente. Sprinklr usó Inferentia para implementar su PNL y algunos de sus modelos de visión por computadora y vio mejoras significativas en el rendimiento.

Varios servicios de Amazon también implementan sus modelos de aprendizaje automático en Inferentia.

Amazon Prime Video utiliza modelos de aprendizaje automático de visión por computadora para analizar la calidad de video de eventos en vivo para garantizar una experiencia de espectador óptima para los miembros de Prime Video. Implementó sus modelos de ML de clasificación de imágenes en instancias EC2 Inf1 y vio una mejora de 4 veces en el rendimiento y hasta un 40% de ahorro en costos en comparación con las instancias basadas en GPU.

Otro ejemplo es la inteligencia artificial y ML de Amazon Alexa, impulsada por Amazon Web Services, que está disponible en más de 100 millones de dispositivos en la actualidad. La promesa de Alexa a los clientes es que siempre se vuelve más inteligente, más conversacional, más proactiva e incluso más agradable. Cumplir esa promesa requiere mejoras continuas en los tiempos de respuesta y los costos de infraestructura de aprendizaje automático. Al implementar los modelos de aprendizaje automático de texto a voz de Alexa en instancias Inf1, pudo reducir la latencia de inferencia en un 25% y el costo por inferencia en un 30% para mejorar la experiencia de servicio para decenas de millones de clientes que usan Alexa cada mes.

Liberar nuevas capacidades de aprendizaje automático en la nube

A medida que las empresas se apresuran a preparar su negocio para el futuro al habilitar los mejores productos y servicios digitales, ninguna organización puede quedarse atrás en la implementación de modelos sofisticados de aprendizaje automático para ayudar a innovar las experiencias de sus clientes. En los últimos años, ha habido un enorme aumento en la aplicabilidad del aprendizaje automático para una variedad de casos de uso, desde la personalización y la predicción de abandono hasta la detección de fraudes y la predicción de la cadena de suministro.

Afortunadamente, la infraestructura de aprendizaje automático en la nube está liberando nuevas capacidades que antes no eran posibles, lo que la hace mucho más accesible para los profesionales no expertos. Es por eso que los clientes de AWS ya están utilizando instancias Inf1 de Amazon EC2 impulsadas por Inferentia para proporcionar la inteligencia detrás de sus motores de recomendación y chatbots y para obtener información procesable a partir de los comentarios de los clientes.

Con las opciones de infraestructura de aprendizaje automático basadas en la nube de AWS adecuadas para varios niveles de habilidad, está claro que cualquier organización puede acelerar la innovación y abarcar todo el ciclo de vida del aprendizaje automático a escala. A medida que el aprendizaje automático continúa generalizándose, las organizaciones ahora pueden transformar fundamentalmente la experiencia del cliente, y la forma en que hacen negocios, con una infraestructura de aprendizaje automático basada en la nube de alto rendimiento y rentable.

Obtenga más información sobre cómo la plataforma de aprendizaje automático de AWS puede ayudar a su empresa a innovar aquí.

Este contenido fue producido por AWS. No fue escrito por el personal editorial de ..

Leave a Reply

Your email address will not be published. Required fields are marked *