Implementación exitosa del aprendizaje automático | Revisión de tecnología del .

Implementación exitosa del aprendizaje automático |  Revisión de tecnología del .

Los siguientes son los hallazgos clave del informe:

Las empresas compran AI/ML, pero luchan por escalar en toda la organización. La gran mayoría (93 %) de los encuestados tiene varios proyectos de AI/ML experimentales o en uso, y es probable que las empresas más grandes tengan una mayor implementación. La mayoría (82 %) dice que la inversión en ML aumentará durante los próximos 18 meses y vinculará estrechamente la IA y el ML con los objetivos de ingresos. Sin embargo, escalar es un desafío importante, al igual que contratar trabajadores calificados, encontrar casos de uso apropiados y mostrar valor.

El éxito de la implementación requiere una estrategia de talento y habilidades. El desafío va más allá de atraer a científicos de datos básicos. Las empresas necesitan talento híbrido y traductor para guiar el diseño, las pruebas y la gobernanza de AI/ML, y una estrategia de fuerza laboral para garantizar que todos los usuarios desempeñen un papel en el desarrollo tecnológico. Las empresas competitivas deben ofrecer oportunidades claras, progresión e impactos para los trabajadores que las diferencien. Para la fuerza laboral en general, la mejora de las habilidades y el compromiso son clave para respaldar las innovaciones de AI/ML.

Los centros de excelencia (CoE) proporcionan una base para una amplia implementación, equilibrando el intercambio de tecnología con soluciones personalizadas. Las empresas con capacidades maduras, generalmente empresas más grandes, tienden a desarrollar sistemas internamente. Un CoE proporciona un modelo hub-and-spoke, con consultoría central de ML en todas las divisiones para desarrollar soluciones ampliamente implementables junto con herramientas a medida. Se debe incentivar a los equipos de ML para que se mantengan al tanto de los desarrollos de ciencia de datos de IA/ML que evolucionan rápidamente.

El gobierno de AI/ML requiere operaciones de modelo sólidas, que incluyen transparencia y procedencia de datos, previsión regulatoria e IA responsable. La intersección de múltiples sistemas automatizados puede generar un mayor riesgo, como problemas de ciberseguridad, discriminación ilegal y volatilidad macro, para herramientas avanzadas de ciencia de datos. Los reguladores y los grupos de la sociedad civil están examinando la IA que afecta a los ciudadanos y los gobiernos, con especial atención a los sectores de importancia sistémica. Las empresas necesitan una estrategia de IA responsable basada en la procedencia completa de los datos, la evaluación de riesgos y las verificaciones y controles. Esto requiere intervenciones técnicas, como el marcado automático de fallas o riesgos del modelo AI/ML, así como reformas sociales, culturales y de otro tipo.

Descarga el informe

Este contenido fue producido por Insights, el brazo de contenido personalizado de .. No fue escrito por el equipo editorial de ..

Leave a Reply

Your email address will not be published. Required fields are marked *