Estamos preparando el contenido...

 

UncategorizedLo que se viene: small data y edge computing - BGH Tech Partner

24 febrero, 2022
edge comupting

Si bien hace años que se viene hablando del potencial que ofrece contar con grandes volúmenes de datos (big data), ahora se observa que esto puede que no sea siempre ventajoso dado que puede agobiar a las organizaciones. Por otro lado, se sabe que su gestión, aprovechamiento y administración demanda de tiempo, dinero y recursos humanos idóneos.  

Por todo lo dicho, es muy inteligente no permitir que se acumulen todos los datos en la Nube o en el data center propio. ¿Qué hacer, entonces? Trabajarlos en donde se captan, es decir, en los dispositivos de computación en el borde. De allí que se esté hablando cada vez más de datos pequeños”: este concepto surgió como un nuevo modelo para facilitar el análisis cognitivo rápido de los datos más vitales en situaciones donde el tiempo, el ancho de banda o el gasto de energía son esenciales. 

En este contexto, la definición de datos pequeños (small data) va de la mano con el de TinyML / aprendizaje automático pequeño. Se trata al machine learning en el borde, es decir, a los algoritmos de aprendizaje automático diseñados para ocupar el menor espacio posible para que puedan ejecutarse en el hardware de baja potencia comúnmente desplegado en el perímetro de las redes-. 

Un estudio internacional de ABI Research anticipa que para 2030 podrían llegar al mercado unos 2.500 millones de dispositivos a través de técnicas TinyML, teniendo como principal beneficio “la creación de dispositivos de Internet de las Cosas (IoT) inteligentes y más baratos”. El informe asegura que los sectores que impulsarán la necesidad de los conjuntos de chips TinyML serán la industria manufacturera, las ciudades inteligentes y las aplicaciones de consumo.

 Al utilizar programas de ML en dispositivos de borde se obtienen varias ventajas importantes: mayor seguridad y privacidad de los datos porque no hace falta transferir información a entornos externos, y también una menor demanda de ancho de banda. Por supuesto, se observa una latencia más reducida, ya que no hay transmisión de datos, y funcionamiento independiente de la conexión Web. Además, este modelo permite una recopilación de datos más eficiente, puesto que los  dispositivos de IoT habilitados por la tecnología TinyML se pueden programar para recopilar solo los datos relevantes.

 

IoT y la gestión de datos

En 2022 se espera que los algoritmos de TinyML aparezcan “en un número cada vez mayor de sistemas integrados, desde dispositivos portátiles hasta electrodomésticos, automóviles, equipos industriales y maquinaria agrícola, lo que los hará a todos más inteligentes y útiles”.

TinyML abrirá nuevas posibilidades para aplicaciones en dispositivos IoT, ya que permitirá que estos últimos  cuenten con funcionalidades inteligentes que hoy están restringidas a las computadoras y teléfonos inteligentes. Además, puede ayudar a reducir los problemas financieros, ambientales y de seguridad asociados con los modelos tradicionales de ML.

Junto con la inteligencia artificial, IoT, la Nube y también las redes ultrarrápidas como 5G son las piedras angulares de la transformación digital de los próximos años. Por eso, no solamente hay que focalizarse, y los datos son el combustible que todos queman para generar resultados, es por eso que Todas estas tecnologías existen por separado, pero combinadas; se permiten mutuamente hacer mucho más. La inteligencia artificial permite que los dispositivos de IoT actúen de manera inteligente, interactuando entre sí con la menor necesidad de interferencia humana posible, impulsando una ola de automatización y la creación de hogares inteligentes y fábricas inteligentes, hasta llegar a las ciudades inteligentes. 5G y otras redes ultrarrápidas no solo permiten que los datos se transmitan a velocidades más altas; Permitirán que nuevos tipos de transferencia de datos se conviertan en algo común (al igual que la banda ancha ultrarrápida y el 3G hicieron de la transmisión de video móvil una realidad cotidiana) y los algoritmos de inteligencia artificial creados por científicos de datos juegan un papel clave en esto, desde el enrutamiento del tráfico para asegurar velocidades de transferencia óptimas hasta la automatización de controles ambientales en los centros de datos en la nube. En 2022, se llevará a cabo una cantidad cada vez mayor de trabajo de ciencia de datos en la intersección de estas tecnologías transformadoras, asegurando que se complementen entre sí y funcionen bien juntas.

Definitivamente, a medida que ingresamos a la llamada “era de la inteligencia distribuida”, desde la consultora IDC esperan que el gasto mundial en edge computing alcance un total de 250 mil millones de dólares en 2024, por lo que se trata de una tecnología para analizar bajo la lupa, ya que es posible avanzar en esta línea ya mismo.

 

No dudes en consultarnos, nuestros expertos están para ayudar!

contacto@bghtechpartner | Síguenos en LinkedIn | Síguenos Twitter