‘Big data’ a la velocidad de la luz

La revolución económica que promete el análisis de grandes cantidades de datos se enfrenta al reto de que la infraestructura sea capaz de seguirle el ritmo

Thiago Ferrer Morini, El País
Tras pulsar una contraseña, pasar una tarjeta, tocar un lector de huellas dactilares y mirar por un escáner de retina se accede a una sala aislada en la que grandes ordenadores, de algo más de dos metros de altura, se alinean en los pasillos, entre el permanente zumbido del aire acondicionado. Jeff Brown, consejero delegado de Cobalt Data Centers, la empresa que alberga la sala, señala hacia varios tubos que salen de las máquinas y se meten en el falso techo. "Chimeneas. Permiten disipar el calor y gastar menos en refrigeración. Para nosotros es una novedad", afirma. Tras recorrer la instalación con la mirada, comenta orgulloso: "Aquí está la nube".


La nube, ese (aún impreciso) concepto de un megaordenador formado por millones de dispositivos interconectados y accesibles por cualquie
ra en todo el mundo, no está en este centro de datos, situado en un anodino polígono industrial a las afueras de Las Vegas (EE UU). No toda, al menos. Pero el mecanismo que piensa revolucionar la economía digital —lo que en el siglo XXI quiere decir prácticamente toda la economía— está situado en edificios como este, interconectados por vastas (y costosas) redes de fibra óptica de alta capacidad.

Según un estudio de la consultora IDC, en 2013 había instalados en todo el mundo alrededor de 35 millones de servidores, cuyo coste de mantenimiento se acerca a los 250.000 millones de dólares (200.000 millones de euros). Otro estudio de la misma empresa calcula que en 2013 se invirtieron 47.000 millones de dólares en crear estructuras —incluido software— de nube pública, inversiones que llegarán a 107.000 millones en 2017. "Este sector está al rojo vivo", apunta Brown. "Hacemos lo que podemos para seguir el ritmo de crecimiento. Terminamos nuestro centro de datos en enero de 2013 y ya estamos en plenas obras de ampliación".

El planeta cada vez produce más información, a través de más dispositivos, en más sitios y con más aplicaciones. Cada minuto se generan datos suficientes como para llenar el equivalente a 360.000 discos DVD, según la Unión Europea. Pero con un desafío adicional: la mayoría de esos nuevos datos se están generando en aparatos interconectados, por lo que la información que va a circular por las redes globales va a crecer a un ritmo aún más acelerado. IDC ha afirmado que si hoy menos de un 20% del contenido digital está relacionado en todo o en parte con la nube, en seis años esa cifra llegará a casi el 40%.

La recogida, almacenaje y análisis de ese océano de datos es solo una parte del llamado big data, la base de la prometida revolución económica. "El verdadero objetivo es saber cómo puedo convertir esos datos desestructurados en información susceptible de aplicarle cerebro", apunta Alfonso del Gallo, director general de la consultora Experian Marketing Services en España. "Porque entonces podremos convertirla en conocimiento con el que poder tomar decisiones. Pero no todos los datos me van a servir; algunos son relevantes para saber algunas cosas y otros no".

Las previsiones —y las expectativas— respecto a lo que se puede hacer con esa información son apabullantes. Según un estudio de la consultora MGI, citado por la OCDE, si los 23 mayores Gobiernos de Europa implementasen por completo sistemas de big data, podrían reducir sus costes entre un 15% y un 20%, acelerar la productividad medio punto durante los próximos 10 años y generar entre 150.000 y 300.000 millones de euros (el equivalente a alrededor del 1% del PIB de la UE).

Pero el éxito de esa revolución depende del buen funcionamiento de la infraestructura. "El problema con el que se encuentran las empresas es cómo gestionar volúmenes ingentes de datos que cambian a la velocidad de la luz, porque, además, la gente está interactuando constantemente con ellos", señala Del Gallo. "Antes tenías un nombre, un DNI, una dirección y un teléfono. Y ya. Hoy tienes eso, las cuentas en redes sociales, una o varias tarjetas de crédito, direcciones de correo electrónico, varios móviles, y el día de mañana el reloj, las gafas, la nevera...".

Si un producto o servicio quiere sacarle partido a ese universo interconectado, es necesario garantizar que esté disponible en todo momento desde cualquier dispositivo. La informática Veeam organizó un congreso sobre el tema en Las Vegas en el que estuvieron presentes varios medios internacionales —entre ellos EL PAÍS— por invitación de la empresa.

"Los negocios deben estar siempre conectados", afirmó Ratmir Timashev, consejero delegado de Veeam, en la inauguración del evento. "Las empresas ya no se pueden permitir funcionar solo en horario de oficina, o tener sus servidores desconectados durante horas por un error".

Un estudio de 2011 del Instituto Ponemon calculó que cada minuto en el que un servidor está fuera de servicio le cuesta a una empresa una media de 5.617 dólares (4.400 euros). Pero casi tan importante como los costes económicos, está el daño al prestigio. El 10 de octubre de 2011, los servidores de la empresa canadiense Research in Motion, propietaria de Blackberry, empezaron a fallar. Durante los siguientes cuatro días, la caída de los servicios de la compañía fue noticia en todo el mundo. Además de costarle 54 millones de dólares, la debacle aceleró la crisis en la que estaba inmersa, en la que perdió su posición de predominio en el mercado de los smartphones y de la que todavía no se ha recuperado del todo.

Pese al persistente crecimiento del mercado de los centros de datos, la propia IDC reconoce que el incremento del número de servidores físicos ha perdido fuelle. El motivo es, precisamente, la expansión de la nube: la nueva tecnología hace posible transferir los datos de la empresa a un servidor externo, lo que evita los problemas y gastos de tener instalaciones propias de almacenaje.

Una de las empresas que ha marcado como objetivo estratégico tener presencia en ese potencial mercado es Google. "Todo el mundo habla de nubes", señala Isaac Hernández, director para España y Portugal de Google for Work, la división orientada a empresas de la multinacional estadounidense. "Pero para ganar en un mercado tan complejo se requiere tener un tamaño y una estructura. Y nosotros lo tenemos". Para Hernández, el aumento de la competición sacará del sector a las compañías que no tengan la capacidad de adaptarse lo suficientemente rápido. "Sin duda, habrá una consolidación del mercado".

"Es una tendencia, sin duda", afirma Ian Brown, profesor de Seguridad Informática y Privacidad del Instituto de Internet de la Universidad de Oxford. "Por ejemplo, Amazon tiene una enorme capacidad de proceso de datos que solo usa en los que la demanda está en máximos, como la temporada de Navidad. Durante el resto del año se puede vender esa capacidad sobrante".

Eso sí: ese fenómeno no será universal. "Existirán diferentes modelos de aprovechamiento de la nube", apunta Brown. "Las start ups y las empresas pequeñas, sobre todo, serán las que utilizarán la nube pública. Los negocios más maduros, como las grandes empresas, tendrán que mantener sus propios servidores". "A la mayoría de las empresas le puede valer la nube", confirma Del Gallo, "pero imagínate un hospital. ¿Podría externalizar sus datos? Técnicamente sí, pero las cláusulas legales y de salvaguarda harían que no valiese la pena".
Atados a la fibra óptica

Los cables de fibra óptica que interconectan los continentes y permiten el funcionamiento de Internet son la otra pata de la economía global de datos. El sector ha crecido de forma explosiva: de 2009 a 2014 los datos transmitidos por estas redes se multiplicaron por cuatro, según la consultora Telegeography.

Aunque hay empresas —como la propia Google (el segundo operador mundial) o la india Tata— capaces de hacer frente a la construcción de estas infraestructuras por sí solos, la mayoría de los cables son propiedad de consorcios formados por grandes empresas de telecomunicaciones. Son también estructuras frágiles y poco protegidas. En enero de 2008, la ruptura de varios cables de Internet en el mar Mediterráneo ralentizó o interrumpió el funcionamiento de la Red para más de 1.600 millones de personas de Egipto a India.

Pese a los avances en las tecnologías de seguridad, los consumidores tienen motivos para estar recelosos de lo que sucede con sus datos ahí fuera. Por un lado, la posibilidad de ataques de vándalos informáticos como los que a principios de septiembre mostraron los fallos en la seguridad de los servidores externos de Apple. Paradójicamente, Brown considera que la consolidación del sector tendrá efectos positivos en la seguridad informática. "Las grandes empresas tienen una ventaja y es que pueden contratar a los mejores", indica el profesor de la Universidad de Oxford. "Yo creo que se hace un trabajo mucho mejor para proteger los datos en empresas como Google, Microsoft o Amazon".

Por otro lado, los consumidores temen que el propio Gobierno pueda meter la cabeza en sus datos privados. El jueves, la empresa china de móviles Xiaomi anunció que empezaría a trasladar los datos de sus clientes internacionales a servidores en Singapur, Hong Kong y Estados Unidos. Aunque la empresa justificó la decisión, entre otros motivos, en la necesidad de reducir los tiempos de interconexión, la posibilidad de que los datos de los usuarios acabasen en manos del Gobierno chino había hecho saltar las alarmas en la prensa de países como India o Taiwán. No es el único caso. En 2013, tras las acusaciones de espionaje contra la Agencia de Seguridad Nacional estadounidense (NSA, en sus siglas en inglés), Brasil pidió a Google transferir los datos de sus usuarios del país sudamericano a servidores en territorio nacional.

Otro recelo es que el avance de la tecnología lleve a la existencia de paraísos de datos, grandes servidores instalados en países con legislaciones más laxas donde la información esté fuera del alcance de las autoridades judiciales o tributarias. "Ahora mismo no se puede hacer porque no hay país con suficiente ancho de banda, pero no creo que lo lleguemos a ver, incluso a largo plazo", afirma Brown. "Dudo que ni los legisladores ni los tribunales permitan que una empresa pueda legalmente alojar datos sensibles en esa clase de instalaciones".

La Unión Europea, ansiosa por consolidar la posición del continente en el mercado tecnológico y temerosa de la posibilidad de que la nube se lleve empleos a países emergentes, ha mostrado interés por el sector de la información. Aunque la industria de los centros de procesos de datos empleaba en 2010 a 385.900 personas en la UE (un 4,8% de ellas en España), según Eurostat, es precisamente la clase de puestos de trabajo que Bruselas cree que el continente no puede permitirse perder.

El 13 de octubre, la vicepresidenta de la Comisión Europea, Nellie Kroes, anunció una inversión de 2.500 millones de euros —de los cuales 500 salidos de los presupuestos de la UE— hasta 2020 con el objetivo de lograr que el bloque tenga un 30% de cuota de mercado en el sector de los datos, lo que, según Bruselas, permitirá crear 100.000 empleos. La nueva comisión encabezada por el luxemburgués Jean-Claude Juncker tiene la intención declarada de mantener esas políticas. "En el último Consejo Europeo, Juncker dijo que el futuro de la UE se basa en la economía de datos", apunta Klaus-Dieter Platte, consultor de la iniciativa Big Data Value, en la que participan empresas como Orange, SAP o Siemens. Uno de los seis vicepresidentes del nuevo Ejecutivo comunitario, el ex primer ministro estonio Andrus Ansip, tiene la cartera de Mercado Común Digital.

Entradas populares