Cómo DataOps elimina los silos de Analytics y aumenta el valor

  • Gestión de apps

Los silos aparecen sobre todo en granjas de datos, pero también están presentes en negocios en forma de depósitos de datos diseminados entre diferentes departamentos. ¿Cómo gestionarlos?

Los directivos reconocen la necesidad urgente de eliminar los silos de datos, porque una comprensión holística del flujo de datos dentro de una empresa es crucial para optimizar la experiencia del cliente. En el sector minorista, una empresa que no puede obtener una vista completa de cada uno de sus clientes porque todos sus datos no están disponibles en un lugar central podría enfrentar su desaparición.

Comprender el flujo de datos también es fundamental para el cumplimiento normativo, y eso es especialmente cierto este año, con el Reglamento General de Protección de Datos de la UE (GDPR) que entrará en vigor en mayo. Si los datos fluyen consistentemente dentro de una organización, es más fácil para los directivos determinar si la compañía cumple con las regulaciones.

¿Qué es DataOps?
Entonces, ¿qué puede ayudar a los directivos a manejar los silos de datos en sus organizaciones?

Una respuesta puede estar en DataOps, un grupo de metodologías destinadas a mantener una arquitectura de datos distribuidos. DataOps les brinda a los equipos un marco de procesos para administrar las mejoras en la calidad y el análisis de los datos.

DataOps evolucionó a partir de DevOps, un enfoque de ingeniería de software diseñado para reunir a los desarrolladores de software y especialistas en operaciones en el proceso de desarrollo de software.

Al igual que DevOps, DataOps utiliza técnicas de administración ágiles, pero con énfasis colaborativo en los datos en lugar de código de programación. Los lenguajes de programación para el análisis predictivo, como R y Python, han atraído a profesionales que tienen curiosidad por analizar las fuentes de datos y por expresar el análisis dentro de los protocolos de programación. La adopción de un enfoque de DataOps plantea naturalmente la necesidad de colaborar para hacer que los modelos predictivos sean efectivos y responder a cualquier desafío que los algoritmos puedan generar en el futuro.

Un costoso fallo de comunicación
Un resultado final de adoptar DataOps es una disminución en silos de información dentro de una organización. Los silos de información se producen cuando los analistas confían en las soluciones de autoservicio para el análisis, pero no se comunican con otros departamentos que pueden necesitar utilizar datos de manera similar.

La falta de comunicación también puede generar costosos errores de datos. Un grupo de usuarios puede examinar los datos de forma diferente que otro grupo porque tienen diferentes criterios en cuanto a qué constituye información de calidad. El coste de los errores es alto: según el MIT, puede ser entre el 15 y el 25 por ciento de los ingresos de una compañía.

Lo que los especialistas en marketing deben tener en cuenta es que los procesos de desarrollo como DevOps y DataOps incluyen auditorías para garantizar que el contenido y las tareas asociadas reflejen el nivel correcto de software solicitado. El advenimiento de chatbots, aplicaciones y dispositivos móviles ha hecho que la respuesta de los consumidores a los medios sea más dinámica, por lo que evaluar la programación detrás de esos medios evita conclusiones engañosas y una tendencia a centrarse demasiado en las métricas que son irrelevantes para brindar una buena experiencia al cliente.

Control de versiones mejora la calidad
Eso pone de manifiesto la importancia del control de versiones, un concepto que durante años los desarrolladores han adoptado con DevOps. Las plataformas de control de versiones como GitHub aseguran que los equipos trabajen en la versión correcta del código del programa.

El reconocimiento de la necesidad de mantener el control de versiones se ha extendido a la ciencia de datos, ya que los profesionales aprenden a compartir proyectos también basados ​​en lenguajes de programación. Esa perspectiva migra hacia el uso de datos y cómo la comunicación sobre el contexto de los datos se comparte repetidamente. Por lo tanto, el control de versiones es un excelente medio para garantizar que las personas comiencen a hablar sobre lo que se necesita para ofrecer una programación que respalde las experiencias digitales.

La administración de datos a través del control de versiones también mejora la seguridad del algoritmo. La capacidad de aprendizaje continuo de un algoritmo crea breves períodos de tiempo para una respuesta a un ataque. Saber qué nivel de datos se utilizó en una configuración de análisis predictivo puede minimizar el uso deficiente de datos en un modelo.

Según las predicciones de Forrester Research para el desarrollo de software de 2018, se espera que las herramientas DevOps continúen proliferando en dispositivos y diversas industrias. DataOps debe seguir en el paso.

Por lo tanto, los especialistas en marketing deberían reforzar su conocimiento de plataformas como GitHub, incluso si el esfuerzo es simplemente comprender cómo los desarrolladores comparten información y apreciar qué procesos de programación afectan el código de nivel de producción. El resultado final es que está en mejores condiciones de aprovechar las oportunidades para elevar la calidad de los datos y el rendimiento del negocio y, por lo tanto, ofrecer una experiencia significativa al cliente.

Descubre la innovación

Para asegurar el éxito empresarial, ahora y a futuro, es imprescindible maximizar el retorno de la inversión existente en software, a la vez que innovar y adoptar nuevas tecnologías. Los retos que hay abordar para competir en un mundo de TI Híbrida incluyen DevOps, Seguridad, Gestión de riesgos y Análisis predictivo. Puedes obtener más información sobre cómo abordar estos retos e innovar en este enlace.

TAGS DevOps, GDPR, G Data