Si de algo podemos tener certeza es de que el volumen de información que es necesario manejar crece y lo seguirá haciendo a ritmos vertiginosos. Ejemplo de ello es la abrumadora generación de contenidos que se vierten en sitios como Facebook, Twitter o Linkedin; la enorme cantidad de material videográfico que encontramos en YouTube o MySpace y, si nos trasladamos al ámbito científico, nos topamos igualmente con que los recientes descubrimientos del mapa del genoma humano, los avances en la predicción de mercados bursátiles o el análisis de las condiciones meteorológicas de una región generan volúmenes de información que cada vez representan un reto mayor.
Según los expertos, se habla de big data cuando los volúmenes de información dejan de ser manipulables por las herramientas convencionales de manejo de datos (en cuanto a captura, almacenamiento, administración y análisis). Para muestra, un botón: de acuerdo a IBM, en los últimos dos años se ha generado el 90% de la información que hoy está en Internet; EMC2 expone por su parte que en los próximos diez años la información se multiplicará 50 veces con respecto a los niveles actuales. Por otro lado, McKenzie indica que cada segundo de video en alta definición produce a su vez hasta dos mil veces el requerimiento de almacenamiento que sería necesario para guardar una página de texto.
En otras palabras, en el manejo de información estamos ahora hablando de magnitudes del orden de los petabytes (miles de terabytes), y para poder procesar esa cantidad de información hay todo un esfuerzo de la industria que incluso está reinventando las formas de colaboración al reclutar recursos humanos que trabajen remotamente en esquemas de crowdsourcing: literalmente le estamos “echando montón”.
De acuerdo a IDC, hay tres aspectos fundamentales que se deben considerar al lidiar con big data:
– Volumen: obviamente esta constituye la característica primordial, las fuentes y la cantidad de la información a almacenar se multiplican constantemente y seguirán aumentando conforme encontremos nuevas maneras de explotar los datos. Un par de ejemplos: determinar las características que un producto en particular debe satisfacer en su mercado potencial y, en consecuencia, generar la mejor estrategia de comercialización; o bien, pronosticar cuáles van a ser los requerimientos de consumo de energía eléctrica en un grupo de poblaciones para presupuestar y programar la infraestructura requerida en el futuro.
– Velocidad: cada vez es más común el uso de sistemas interconectados que necesitan procesar grandes cantidades de datos, prácticamente en tiempo real. Por ejemplo, en el entorno financiero la velocidad de respuesta es vital: detectar un posible fraude dentro de una enorme cantidad de eventos o brindar a un corredor de bolsa la información oportuna para realizar las operaciones que reditúen mayores rendimientos a sus inversionistas.
– Variedad: las fuentes de información pueden tener diferentes orígenes y formatos (texto plano, imágenes, archivos multimedia, etcétera) y a partir de estos se pueden obtener compendios que proporcionen una experiencia de navegación más completa. Por ejemplo, la capacitación electrónica requiere de mayor creatividad para que los contenidos sean más accesibles para el individuo que se está entrenando, y para que su aprovechamiento sea más efectivo en sus labores cotidianas.
Big data se está volviendo un impulsor de la actividad de muchas organizaciones y aquellas que valor a partir de sus grandes almacenes de información, sin duda obtendrán una ventaja competitiva, pero para ello deberán estar listas a considerar algunos retos:
– Las políticas de la organización deben adecuarse a las nuevas necesidades. Por ejemplo, para el crowdsourcing deben modificarse los lineamientos de reclutamiento y selección. Por definición, este esquema traspasa fronteras y muy probablemente incluirá la manipulación de datos personales. No todos los aparatos legales de los países que llegan a intervenir protegen y valoran la información personal de la misma forma, y eso puede llegar a representar un problema legal para las empresas por las restricciones impuestas, vía jurisprudencia, en los diferentes países. Además de lo anterior, también existe la posibilidad de enfrentar situaciones de propiedad intelectual que deben considerarse en los acuerdos contractuales y en las políticas derivadas de estos.
– La tecnología debe ayudar a lidiar con información que estará distribuida y presentada de diversas formas, en diferentes formatos y plataformas, lo que obligará a que los programas de análisis y el cómputo distribuido adopten esquemas con mejor desempeño pero al mismo tiempo preservando niveles razonables de seguridad.
El cómputo en la nube seguirá evolucionando en servicios y robusteciendo las facilidades de colaboración hoy existentes. Igualmente la virtualización, la movilidad y la portabilidad constituirán los ejes en los cuales se estará interactuando con big data.
Un reto tecnológico adicional será el incorporar los sistemas antiguos que albergan una considerable cantidad de información que se requiere consultar.
– El capital humano tiene también el reto de evolucionar y adoptar hábitos más seguros de manejo de la información, apalancados en herramientas más sencillas pero más robustas.
Será necesario emprender toda una cruzada en capacitación y concientización para que el cambio organizacional y los desafíos impuestos por el procesamiento de mayores volúmenes de información le permitan a la empresa acoplarse ágilmente al cambio.
Esquemas como el crowdsourcing van a disminuir los costos y permitirán dar trabajo a personas externas que solo manipulen subconjuntos pequeños de datos (al estilo de los sistemas empleados por el Instituto SETI en la búsqueda de inteligencia extraterrestre), por ello se requerirá que los sistemas estén adecuadamente protegidos con antivirus, suites antimalware y agentes que eviten la fuga de información.
– Conforme avance el desarrollo de big data, comenzaremos a ver empresas que vendan “inteligencia” sobre los negocios, aún a sus propios competidores. Contemplaremos en el mercado empresas que acumulen contenidos y empresas que los consuman, independientemente de qué tan directamente compitan. Por ello el acceso a la información tendrá que estar muy bien controlado, los repositorios de información y la clasificación de contenidos tendrán que ser más efectivos, a fin de que los accesos contratados sean estrictamente apegados al “need-to-know”.
– En una considerable cantidad de países la legislación local no ha dejado claro cuál es la responsabilidad de los operadores de medios móviles, fabricantes de plataforma, desarrolladores, personal de TI y hasta del mismo usuario final, sobre quién tiene derecho a colectar, agregar y distribuir la información personal para fines de procesamiento. Aún hay muchos claroscuros en los acuerdos contractuales que no le dan la posibilidad al usuario de suscribirse o retirar su suscripción de un servicio de acuerdo a su conveniencia.
Con las posibilidades de innovación que brinda big data, resulta fundamental desarrollar y retener el talento para encontrar la mezcla adecuada de creatividad, productividad, seguridad y privacidad. En algunos casos la legislación incluye lineamientos que deben incorporarse en el diseño de las políticas y controles, sopesando esto en relación a los beneficios que conlleve personalizar la información al potencial consumidor. Esto redituará en una cadena de valor para los clientes de los que tendremos mayor información, con mayor precisión y bonanza para las organizaciones porque conocerán mejor a su mercado y prepararán ofrecimientos mucho más atractivos.
Deja tu comentario