Descubre cómo la IA Edge permite un procesamiento de la IA en tiempo real, seguro y eficiente en los dispositivos, transformando sectores como la sanidad y los vehículos autónomos.
La IA Edge se refiere a la práctica de ejecutar algoritmos de inteligencia artificial (IA) directamente en dispositivos de hardware locales, conocidos como dispositivos Edge, como teléfonos inteligentes, cámaras, sensores o sistemas integrados. En lugar de enviar los datos a servidores remotos de computación en nube para su procesamiento, la IA Edge permite que el análisis de datos y la toma de decisiones se produzcan más cerca de la fuente donde se generan los datos. Este enfoque aprovecha los avances en hardware, como los chips especializados de IA, y los modelos eficientes de aprendizaje automático (ML) para llevar la inteligencia al borde de la red. Permite a los dispositivos realizar localmente tareas como el reconocimiento de imágenes, el procesamiento del lenguaje natural (PLN) y la detección de anomalías.
El proceso suele implicar el entrenamiento de un modelo de IA, a menudo utilizando potentes recursos en la nube o servidores locales. Una vez entrenado, el modelo se somete a técnicas de optimización como la cuantización o la poda de modelos para reducir su tamaño y sus requisitos informáticos. Esta optimización es crucial para ejecutar modelos de forma eficiente en dispositivos periféricos con recursos limitados, que a menudo tienen una potencia de procesamiento limitada (CPU/GPU), memoria y duración de la batería. A continuación, el modelo optimizado se despliega en el dispositivo periférico utilizando marcos como TensorFlow Lite, PyTorch Mobile, ONNX Runtime o SDK especializados como OpenVINO deIntel. El dispositivo puede entonces realizar inferencias en tiempo real utilizando sus sensores locales (p. ej., cámaras, micrófonos) para procesar datos y generar percepciones o acciones sin necesidad de una conectividad constante a Internet. La gestión de estos despliegues puede agilizarse utilizando plataformas como Ultralytics HUB.
La principal diferencia radica en dónde se produce el cálculo de la IA. La IA en la nube procesa los datos en servidores centralizados, ofreciendo vastos recursos informáticos adecuados para modelos complejos y datos de entrenamiento a gran escala. Sin embargo, introduce latencia debido a la transmisión de datos y requiere una conectividad fiable a Internet. La IA Edge, por el contrario, procesa los datos localmente en el dispositivo. Esto minimiza la latencia, mejora la privacidad de los datos, ya que la información sensible no necesita salir del dispositivo, y permite el funcionamiento en entornos sin conexión o con poco ancho de banda. La contrapartida es que los dispositivos periféricos tienen recursos limitados, lo que restringe la complejidad de los modelos desplegables. Más información sobre la IA en los bordes frente a la IA en la nube.
La IA de borde es una aplicación específica dentro del campo más amplio de la informática de borde. La computación de borde se refiere al paradigma general de desplazar las tareas informáticas desde los centros de datos centralizados hacia el "borde" de la red, más cerca de los usuarios y las fuentes de datos. La IA de borde aplica específicamente este concepto a las cargas de trabajo de IA y ML, permitiendo el procesamiento inteligente directamente en los dispositivos de borde. Aunque la computación de borde puede implicar varios tipos de procesamiento, la IA de borde se centra en desplegar y ejecutar localmente modelos de IA. Puedes obtener más información sobre la computación de borde aquí.
La IA Edge está transformando numerosas industrias, sobre todo en la visión por ordenador (VC). La creciente demanda se refleja en el aumento del tamaño del mercado de la IA Edge.
A pesar de sus ventajas, la IA Edge se enfrenta a retos como los limitados recursos computacionales(impacto en la potencia de cálculo) de los dispositivos Edge, la necesidad de modelos altamente optimizados(como la eficiencia de YOLOv9), la gestión del despliegue y las actualizaciones del modelo en numerosos dispositivos distribuidos (a menudo utilizando herramientas como Docker), y la garantía del rendimiento del modelo en condiciones variables del mundo real. El hardware especializado como Google Edge TPU y los sensores como el Sony IMX500 ayudan a abordar algunas de estas limitaciones de hardware. Frameworks como NVIDIA TensorRT también ayudan a la optimización.
La IA en el Borde representa un cambio significativo en la forma de ofrecer capacidades de IA, trasladando la inteligencia de las nubes centralizadas a los dispositivos locales. Esto permite una nueva generación de aplicaciones de IA sensibles, privadas y fiables que pueden funcionar eficazmente en el borde de la red, afectando a todo, desde la electrónica de consumo a los sistemas industriales críticos.