Secciones

¿Qué es el aprendizaje automático en el extremo de la red?

Copiar URL

El aprendizaje automático en el extremo de la red se refiere al proceso de ejecución de modelos de aprendizaje automático (ML) en un dispositivo del extremo de la red para recopilar, procesar y reconocer patrones dentro de los conjuntos de datos sin procesar.

¿Qué es el aprendizaje automático en el extremo de la red?

Para explicar mejor el aprendizaje automático en el extremo de la red, comencemos desglosando los dos componentes que lo conforman: el aprendizaje automático y el edge computing.

  • El aprendizaje automático es un subconjunto de la inteligencia artificial (IA), la cual puede realizar tareas perceptivas en una fracción del tiempo que le tomaría a un ser humano. 
  • El edge computing se refiere al acto de acercar físicamente los servicios informáticos al usuario o a la fuente de los datos. Estos servicios informáticos existen en lo que llamamos dispositivos del extremo de la red, una computadora que permite recopilar y procesar en tiempo real los datos que no se han procesado, lo que resulta en un análisis más rápido y confiable. 

El aprendizaje automático en el extremo de la red brinda la capacidad de ejecutar los modelos de aprendizaje automático a nivel local en los dispositivos de ese entorno, como el Internet de las cosas (IoT).

A medida que aumentan las expectativas de los clientes, también aumenta la demanda de capacidad de procesamiento rápida y segura. 

Cada interacción entre la empresa y el cliente es ahora una combinación de tecnologías híbridas y puntos de contacto que requieren un fácil acceso a los dispositivos, los datos y las aplicaciones que impulsan nuevas experiencias y crean una experiencia de usuario positiva de principio a fin.

Tradicionalmente, este procesamiento se lleva a cabo mediante el transporte de conjuntos de datos a nubes distantes a través de redes que pueden tener problemas para operar a plena capacidad debido al recorrido extenso que deben realizar los datos entre los destinos. De esta forma, pueden surgir inconvenientes que van desde la latencia hasta las fallas de seguridad.

Con el edge computing, puede ubicar las aplicaciones impulsadas por la inteligencia artificial/aprendizaje automático (IA/ML) físicamente más cerca de las fuentes de datos, como los sensores, las cámaras y los dispositivos móviles, para recopilar la información más rápido, identificar los patrones y, luego, iniciar las acciones sin depender de las redes tradicionales de la nube.

El edge computing es una parte fundamental del concepto de nube híbrida abierta que le permite lograr una experiencia uniforme en torno a las operaciones y las aplicaciones en toda su arquitectura por medio de una plataforma común y horizontal.

Si bien una estrategia de nube híbrida permite a las empresas ejecutar las mismas cargas de trabajo en sus propios centros de datos y en la infraestructura de nube pública (como Amazon Web Services, Microsoft Azure o Google Cloud), una estrategia para el extremo de la red es mucho más amplia, lo cual permite que los entornos de nube lleguen a lugares que son demasiado remotos como para mantener una conectividad permanente con el centro de datos.

Por lo general, los sitios donde se da el edge computing no tienen personal de TI suficiente, o es muy limitado. Una buena solución es aquella que se puede gestionar con los mismos procesos y herramientas que la infraestructura centralizada y que, a la vez, puede funcionar de manera independiente sin estar conectada.

En términos generales, con las soluciones integrales de edge computing debe poder:

  • Ejecutar un modelo de implementación uniforme desde el centro hasta el extremo de la red.
  • Ofrecer opciones flexibles en materia de arquitectura para satisfacer las necesidades de gestión de datos y conectividad.
  • Automatizar y gestionar las implementaciones y las actualizaciones de la infraestructura desde el centro de datos principal hasta los sitios de edge computing remotos.
  • Preparar, actualizar y mantener las aplicaciones de software en toda la infraestructura, según sea necesario.
  • Continuar las operaciones en los sitios remotos donde se da el edge computing, incluso cuando la conectividad a Internet no sea confiable.
  • Incluir una plataforma de software sólida con capacidad de ajuste.
  • Proteger los datos y la infraestructura en los entornos del extremo de la red que tengan problemas de seguridad.

No existe una forma única de diseñar y poner en funcionamiento los modelos de ML, pero sí hay una necesidad constante de recopilar y preparar conjuntos de datos, desarrollar modelos en aplicaciones inteligentes y obtener ingresos de esas aplicaciones. La puesta en marcha de estas aplicaciones con funciones de aprendizaje automático integradas, conocidas como MLOps, y su actualización requieren de la colaboración entre los analistas de datos, los desarrolladores, los ingenieros de ML, los equipos de operaciones de TI y los distintos grupos de tecnologías de DevOps.

Al aplicar los principios de DevOps y GitOps, las empresas automatizan y simplifican el proceso repetitivo de integración de los modelos de aprendizaje automático en los procesos de desarrollo de software, implementación de productos, supervisión, reentrenamiento y reimplementación para una precisión continua en las predicciones.

Con Red Hat® OpenShift®, este proceso se puede dividir básicamente en cuatro pasos:

  1. Entrenamiento: los modelos de aprendizaje automático se entrenan en Jupyter Notebooks en Red Hat OpenShift.
  2. Automatización: Red Hat OpenShift Pipelines es una función de integración permanente basada en eventos que ayuda a empaquetar los modelos de ML como imágenes de contenedores de la siguiente manera:

    Guarda los modelos listos para su implementación en una tienda de modelos.
    Convierte los modelos guardados en imágenes de contenedores con la configuración de Red Hat OpenShift.
    Prueba las imágenes del modelo en contenedores para garantizar que sigan siendo útiles.
    Almacena las imágenes del modelo en contenedores en un registro de imágenes de contenedores global y privado como Red Hat Quay, donde las imágenes se analizan para identificar los posibles problemas y así mitigar los riesgos de seguridad y la georreplicación.
     
  3. Implementa los modelos de aprendizaje automático según sea necesario y en cualquier lugar, a través de la configuración declarativa gestionada por Red Hat OpenShift GitOps que automatiza esta tarea.
  4. Supervisa los modelos para verificar su confiabilidad, velocidad, ajuste, etc. con las herramientas de uno de nuestros socios del ecosistema, y se actualizan con reentrenamiento y reimplementación, según sea necesario.

La inteligencia artificial y el aprendizaje automático han pasado a ser esenciales rápidamente para las empresas que buscan convertir sus datos en valor empresarial. Las soluciones de edge computing open source de Red Hat se enfocan en acelerar estas iniciativas empresariales brindando servicios que automatizan y simplifican el proceso de desarrollo de las aplicaciones inteligentes en la nube híbrida.

Red Hat reconoce que cuando los analistas de datos diseñan sus modelos de IA/ML, suelen complicarse por la falta de alineación entre las herramientas que evolucionan rápidamente. A su vez, esto puede afectar la productividad y la colaboración entre sus desarrolladores de software, equipos de operaciones de TI y demás miembros.

Para sortear estos posibles obstáculos, los servicios de Red Hat OpenShift están diseñados para brindar soporte a los usuarios cuando crean, implementan y gestionan sus aplicaciones inteligentes de manera uniforme en los entornos de nube y los centros de datos.

La mayoría de las empresas podrían aprovechar mejor sus datos, pero están limitadas por sus herramientas y flujos de trabajo. Red Hat® OpenShift® Data Science proporciona un entorno de autoservicio compatible que permite a los analistas de datos perfeccionar los algoritmos y experimentar con el desarrollo, el entrenamiento y las pruebas de los modelos de aprendizaje automático.

El edge computing en OpenShift es útil en muchos sectores y puede ser una herramienta esencial para una variedad de tareas, desde la detección de fraudes, las cotizaciones de seguros automatizadas hasta la exploración de recursos naturales.

Artículos relacionados

Artículo

IoT y edge computing

El Internet de las cosas requiere llevar la potencia informática más cerca del lugar donde se encuentra el dispositivo físico o la fuente de datos, mientras que el edge computing proporciona esa fuente local de procesamiento y almacenamiento para el IoT.

Artículo

¿Qué es el edge computing?

El edge computing es un tipo de informática que ocurre en la ubicación física del usuario, de la fuente de datos, o cerca de ellas.

Artículo

El edge computing para el sector de las telecomunicaciones

Para muchos de los proveedores de servicios de telecomunicaciones, el edge computing se vuelve una prioridad a medida que modernizan sus redes y buscan nuevas fuentes de ingresos.

Más información sobre el edge computing

Productos

Base estable y probada con suficiente versatilidad para implementar aplicaciones nuevas, virtualizar los entornos y crear una nube híbrida más segura.

Plataforma de aplicaciones empresariales que ofrece servicios probados para lanzar aplicaciones al mercado en la infraestructura que usted escoja.

Cartera de sistemas de software empresariales optimizados para una implementación ligera en el extremo de la red.

Contenido adicional