¿Qué es la periferia y por qué es importante?

¿Qué es la computación periférica?

La computación periférica es un modelo de computación distribuida en el cual las operaciones tienen lugar cerca de la ubicación física donde los datos se recopilan y se analizan, en lugar de desarrollarse en un servidor centralizado o en la nube. Esta infraestructura nueva consta de sensores para recopilar datos y servidores periféricos para procesarlos de manera segura, en tiempo real y en el sitio, mientras también conecta otros dispositivos, como computadoras portátiles y teléfonos inteligentes, a la red.

Para 2025, se generarán 175 zettabytes (o 175 billones de gigabytes) de datos en todo el mundo. Los dispositivos periféricos crearán más de 90 zettabytes de esos datos.

-Informe de IDC: “Data Age 2025 – The Digitization of the World: From Edge to Core” (Era de datos 2025 – La digitalización del mundo: de la periferia al núcleo).

¿Por qué es importante la computación periférica?

La computación periférica es importante porque establece maneras nuevas y mejores de maximizar la eficiencia operativa, optimizar el rendimiento y la seguridad, y minimizar el tiempo de inactividad no planificado, las cuales resultan fundamentales para las operaciones always-on modernas de la actualidad. Con el aumento de la Internet de las cosas (IdC) —en especial, la Internet industrial de las cosas (IIdC)— la computación periférica respalda la innovación y abre nuevos caminos para las operaciones comerciales.

La computación periférica impulsará la próxima revolución industrial, ya que transformará la fabricación y los servicios. Además, no solo impulsa la recopilación de datos en tiempo real, sino que también es la puerta de acceso para optimizar esos datos, y crea inteligencia comercial. La computación periférica respalda la innovación, ya que es escalable y flexible. Puede ponerse en funcionamiento con mayor rapidez y puede administrarse con mayor facilidad que un centro de datos tradicional, lo que les permite a las empresas responder a las necesidades comerciales cambiantes con mayor celeridad.

Por otra parte, la computación periférica es más eficiente y más rentable.  La utilización de la analítica periférica para recopilar y procesar datos en tiempo real reduce la latencia y los costos relacionados con el envío de datos a la nube, de manera que se pueden tomar decisiones con mayor rapidez. Esto puede ser importante para ciertos usos, como yacimientos de petróleo y gas, donde si se reconocen los problemas rápidamente, se pueden evitar riesgos ambientales y reducir los daños.

La capacidad para evitar interrupciones imprevistas en las operaciones y garantizar el  rendimiento y la seguridad de los equipos críticos es otro motivo que explica la importancia de la computación periférica.  La capacidad para reducir el tiempo de inactividad no planificado y los costos operativos sin sacrificar estándares de seguridad es primordial.

Aumentar el impulso de la computación en la periferia permite la implementación de sofisticados algoritmos de inteligencia artificial y ofrece la oportunidad del aprendizaje automático. Esto es parte de las bases que se necesitan para establecer sistemas autónomos. De esta manera, las empresas pueden aumentar la eficiencia y la productividad y a la vez, reducir los costos de mantenimiento y personal.  Además, esto libera al personal para que pueda concentrarse en actividades más valiosas dentro de la operación.

¿Cuáles son los beneficios y los desafíos de la computación periférica?

Uno de los principales beneficios de implementar la computación periférica es la capacidad de recopilar y analizar los datos donde se recopilan, lo que permite detectar y corregir problemas que no se podrían identificar tan rápidamente si los datos se enviasen a un servidor central o a la nube para el procesamiento y el análisis. Mantener los datos en el sitio también reduce el riesgo de seguridad relacionado con el transporte de los datos, lo que puede ser importante para organizaciones financieras, por ejemplo. Además, reduce los costos del ancho de banda, ya que procesa algunos datos en el sitio, en lugar de enviar todos los datos a una nube o un servidor central.

El éxito de la computación periférica depende de una arquitectura e implementación premeditadas, lo cual puede ser un desafío, si no se cuenta con la experiencia debida. La multiplicidad de sitios que recopilan y analizan datos puede implicar la necesidad de configurar y controlar más sitios y, por consiguiente, una mayor complejidad. Por otra parte, un número de sitios insuficiente podría ocasionar que se perdieran datos críticos. Las ubicaciones descentralizadas también podrían conllevar la presencia de menos personal técnico en el sitio, y la práctica de recurrir a personal de operaciones que no sea técnico para la solución de problemas. Estos desafíos se pueden abordar, siempre que se trabaje con integradores de sistemas idóneos y se utilice la tecnología periférica adecuada.

¿Cuán segura es la periferia?

Debido a que la computación periférica está distribuida, el riesgo de seguridad es distinto del de un entorno centralizado. Los controles de seguridad que se encuentran en los centros de datos privados o las nubes públicas, como las herramientas de firewall o de antivirus, no se transfieren automáticamente. Los expertos recomiendan unos pasos simples, que incluyen reforzar cada host, controlar la red en tiempo real, cifrar datos e incorporar medidas de seguridad física.

El 91 % de los datos actuales se crean y procesan en centros de datos centralizados. Para 2022, aproximadamente el 75 % de todos los datos necesitarán análisis y medidas en la periferia.

La nube y la periferia

¿La periferia reemplaza a la nube?

La computación periférica funciona en estrecha relación con la nube a fin de brindar una solución flexible, basada en las necesidades de recopilación y análisis de datos de cada organización. En lo que respecta a la recopilación y el análisis en tiempo real, la periferia es ideal para ciertas cargas de trabajo. Al mismo tiempo, la nube puede proporcionar una ubicación centralizada para la analítica a gran escala.  Juntos proporcionan información en tiempo real y a mayor plazo acerca del rendimiento, e impulsan iniciativas como el aprendizaje automático y la administración de rendimiento de activos.

La nube híbrida y la periferia

Si ya utiliza una arquitectura de nube híbrida, entonces está familiarizado con los beneficios de la partición de datos entre nubes públicas y privadas. La computación periférica puede resultar una excelente incorporación para esta red existente. Existen distintas configuraciones, y todas funcionan bien, según los objetivos comerciales y el perfil de uso de cada empresa. Por ejemplo, la periferia puede reemplazar a la nube privada y ocupar el rol de computación principal, o también puede asociarse a una nube híbrida existente compuesta por nubes públicas y privadas.

Sectores que optimizan la periferia

Petróleo y gas

Automatización industrial

Edificios inteligentes

Agua y aguas residuales

Transporte

Servicios de salud

Sector minorista

Alimentos y bebidas

¿No puede encontrar su sector? No se preocupe, abarcamos todos los sectores. Converse con nosotros para saber cómo podemos ayudarlo.

Stratus es líder en computación periférica

En Stratus Technologies, fortalecemos a nuestros socios y clientes de todo el mundo para convertir los datos en conocimiento procesable allí donde más importa: en la periferia. Durante décadas, hemos protegido a socios y clientes frente al riesgo financiero y reputacional mediante el envío de información de manera segura y confiable a aplicaciones en la nube y al centro de datos. Ahora, ampliamos estos beneficios a la periferia para maximizar la eficiencia operativa y mejorar el rendimiento y la seguridad, a la par que minimizamos el tiempo de inactividad no planificado y el costo. Hacemos que su vida sea más fácil, más eficiente y más productiva.

La solución más reciente de Stratus, ztC Edge, se diseñó específicamente para la periferia. Stratus ztC Edge es una plataforma de computación segura, resistente y altamente automatizada que ofrece aplicaciones industriales fundamentales para los negocios de manera rápida, confiable y eficiente, incluso en ubicaciones descentralizadas y con personal insuficiente. Sus características clave, como la virtualización incorporada, el reinicio automatizado y la protección de datos, la recuperación automatizada en el sitio local, la seguridad simplificada, los nodos redundantes de estado sólido, la disponibilidad personalizable, la interoperabilidad industrial, el mantenimiento de TO, la supervisión de estado del sistema y los servicios de asistencia administrada basados en la nube, ayudan a las empresas a aumentar la eficiencia y a reducir la dependencia de TI, a la vez que minimizan el riesgo de tiempo de inactividad.