El término Big Data surge cuando los conjuntos de datos con los que se trabaja son demasiado costosos de capturar, compartir, almacenar, buscar, segmentar, visualizar y analizar con las herramientas hardware y software tradicionales. Se suele asociar este concepto a volúmenes de datos de exabytes y zettabytes (es decir, en órdenes de magnitud de 10 a la 18 y de 10 a la 21 respectivamente).
Aunque tradicionalmente esta dificultad para extraer información y conocimiento valiosos de grandes conjuntos de datos se daba sólo en aplicaciones científicas, en la actualidad son las aplicaciones industriales y empresariales las que más rápidamente están incrementando sus necesidades de procesamiento de datos. Esto se debe sobre todo a la utilización de Internet y redes sociales, a los nuevos paradigmas de computación como Pervasive Computing (asociado a conceptos como Smart City o Internet of Things) y a la generalización de tecnologías como RFID, loa sensores wireless o los dispositivos móviles. Según un informe de IBM el 90% de los datos que se manejan en soporte digital actualmente, han sido creados en los dos últimos años. Y los datos se consideran hoy en día un recurso, al menos tan valioso como el resto de recursos de una organización. Siempre y cuando se pueda extraer de ellos conocimiento valioso para la toma de decisiones.
Es muy difícil hacer un resumen de todas las tecnologías, conceptos y metodologías que se asocian en la actualidad a Big Data, ya que además es un término que han adoptado rápidamente tanto los fabricantes de hardware como los de software. Pero intentaremos hacer un recorrido por las más importantes en entradas futuras.
No hay comentarios:
Publicar un comentario