¿Por qué fallan los proyectos Hadoop?

Por Daniel Gutierrez

He encontrado un interesante debate en el grupo Global Big Data y Analytics en LinkedIn – «¿Por qué fracasan los proyectos de Hadoop?» Acabo de regresar de la Cumbre Hadoop 2014 en San José, fuí testigo de un montón de ejemplos de casos de uso de implementaciones de Hadoop que eran un gran éxito. Por lo tanto, yo estaba intrigado por la idea de detallar las causas de proyectos fallidos. Aquí está una lista de las causas que sirvieron para comenzar la discusión:

Datos relacionados

  • Incapacidad para ingerir los datos
  • Imposibilidad de acceder a los datos en el lugar

Seguridad

  • Hardware / Software Relacionados
  • La incapacidad para conseguir un clúster que ejecuta y sea estable
  • La incapacidad para llegar a una prueba exitosa del concepto
  • Incapacidad para completar un proyecto piloto exitoso

Empresas relacionadas

  • No hay un caso de uso económicamente convincente
  • La falta de patrocinio ejecutivo, presupuesto y prioridad

La discusión tuvo algunos caminos interesantes. He aquí una muestra de las observaciones acompañado de mi propia visión:

«Falta de articulación y claridad del problema de negocio que uno está tratando de resolver relacionado con que datos son requeridos y la forma en que se responde a la pregunta utilizando los datos».

Este es un punto excelente, uno que he visto en mi propia práctica de consultoría de ciencia de datos. Si un cliente dice «He aquí algunos datos, ahora ve a hacer tu magia», entonces voy a correr por las colinas porque el proyecto está destinado al fracaso sin un propósito singular y objetivo bien definido. Pero esto es cierto para todos los proyectos de ciencia de datos, no sólo las basadas en Hadoop.

«Me sorprende que no hay mención de las barreras organizativas. A diferencia de muchas otras tecnologías, Big Data puede requerir la coordinación y el acuerdo a través de muchas unidades de negocio que no están acostumbradas a trabajar juntas. Porque uno de los casos de uso más comunes es la de centralizar los datos o crear un lago de datos. Las empresas tienen que hacer frente a las iniciativas para permitir la ejecución de esos proyectos. Las unidades de negocios por lo general ven los beneficios de las iniciativas de este tipo de empresas en su propio nivel, equilibrando estas en contra de sus prioridades de negocio existentes y plan de trabajo. Para tener éxito, los proyectos de grandes volúmenes de datos pueden requerir cambios en la estructura de la organización».

Muy cierto! Alguien en la empresa tiene que «poseer» el proyecto de big data, y un proyecto Hadoop no es diferente. La necesidad puede tener su origen con las finanzas, pero con toda probabilidad, TI estará involucrado ya que probablemente son responsables de los activos de datos de la compañía. Si la organización no tiene un concepto de gobernabilidad de datos, a continuación, un proyecto de big data va a ser un camino estrecho por sus capacidades organizativas. Una paso atrás para poner en marcha políticas que soporten el poryecto puede valer la pena en el tiempo.

«He dirigido equipos en dos proyectos exitosos de Hadoop, pero no estoy seguro de que los proyectos de Hadoop son diferentes a cualquier otro proyecto técnico, y si pienso en las razones por las cuales los proyectos de tecnología en los que he sido parte han fallado, resultan ser bastante consistentes con la literatura sobre qué proyectos tecnológicos fracasan (que no es a menudo acerca de la tecnología) – pobre patrocinio ejecutivo, no hay objetivos claros, falta de definición del alcance, malos requisitos, la mala gestión de proyectos, la dotación de recursos no coinciden, cruzar la alineación funcional, las expectativas de mala gestión, etc».

Lo anterior fue dicho obviamente por alguien que ha estado en las trincheras de un proyecto de tecnología en toda la empresa – su experiencia lo dice todo. Gran consejo!
Si usted está pasado por esto mismo y tiene un poco de sabiduría para ofrecer, por favor déjenos una nota aquí.

Daniel – Managing Editor, insideBIGDATA

Opinión adaptada y traducida desde Inside-BigData.com. Link: http://bit.ly/1siJATW

Fuente Imagen: blogs.infobae.com