Una entrada de hace unos días en Datacenter Knowledge recogida por BoingBoing acerca del nuevo centro de datos de Google en Saint-Ghislain, Bélgica nos permite ver de manera muy clara las ventajas de una arquitectura globalmente distribuida.
El mapa refleja la infraestructura de centros de datos de Google en el año 2008: un entramado complejo de unas treinta y seis localizaciones (en el año 2008) a la que se une otra red de localizaciones compartidas en régimen de alquiler que conforman una red completamente distribuida. Merced a la tecnología de virtualización empleada por la compañía, la carga de cualquiera de esas localizaciones puede ser desplazada de manera sencilla e inmediata a cualquier otra, dando lugar a una red prácticamente líquida.
¿Dónde está la verdadera ventaja? Dada la estructura de Google, la ventaja no tiene nada que ver con el ofrecer versiones locales, dado que éstas pueden, en un momento dado, estar corriendo sobre cualquier localización física. La ventaja clave se produce en términos de costes operativos: el último centro de datos inaugurado, el citado de Saint-Ghislain (Bélgica), es el primero que no trata de reducir el número de aparatos de aire acondicionado, sino que los elimina por completo. El gasto en aire acondicionado, como ya hemos comentado en otras ocasiones, supone habitualmente alrededor del 50% de la energía eléctrica suministrada a un datacenter, con el detalle adicional de que dicho gasto no redunda en una mayor capacidad de computación, y el clima de Saint-Ghislain (entre 18.8ºC y 21.6ºC) permite refrigerar mediante la simple circulación del aire exterior durante una media de trescientos cincuenta y ocho días al año, unido a un sistema de refrigeración por agua que utiliza, en lugar de agua de la traída municipal, la que circula por un canal industrial cercano que es purificada a la entrada del datacenter.
¿Dónde está por tanto el verdadero punto de un datacenter así? En lo que ocurre cuando el tiempo cambia, y llegamos a uno de esos pocos días de calor en Saint-Ghislain en los que sería preciso utilizar uno de los inexistentes aparatos de aire acondicionado para refrigerar el datacenter. ¿Qué se hace en esos días? Simplemente, se van apagando ordenadores hasta que el calor generado se reduce lo suficiente, ordenadores cuyas tareas son inmediatamente asumidas por máquinas en otra localización. Lógicamente, esto conlleva que las localizaciones más interesantes a futuro para la compañía son aquellas en las que el rango de temperaturas resulta más adecuado, y que el hecho de tener muchos datacenters distribuidos a lo largo de diversas franjas climáticas con diferente estacionalidad permite compensar estos balances. Pero no es éste el único tipo de balanceo que puede llevarse a cabo: existe también la posibilidad de desplazar carga hacia los datacenters que puedan aprovechar tarifas más bajas de electricidad, como por ejemplo durante horas nocturnas de bajo consumo, lo que originaría un trasvase constante de recursos de computación entre diferentes zonas horarias siguiendo una estrategia conocida como «follow the moon».
Posibilidades como éstas indican que en un futuro, la mayor parte de los recursos de computación estarán desarrollados por proveedores globales de este tipo capaces de generar arquitecturas globales que aprovechen este tipo de estrategias. Tener un datacenter corporativo en una empresa normal supondrá un diferencial de coste absurdo, de muy difícil justificación racional. Una forma de entender la transición progresiva a la nube como una simple cuestión de costes, de última línea de la cuenta de resultados, que además en este caso se alinea con una mayor sostenibilidad.
No tengo muy claro cómo será la circulación del aire que comentan, pero después de ver lo que pasa en un cpd con más de 500 máquinas cuando el aire acondicionado se estropea y el de backup no levanta, sencillamente no me creo que la refrigeración sea la circulación del aire y la temperatura media ambiental de esa zona. Cualquiera que haya pasado por detrás de un rack completo en un cpd sabe el calor que generan las máquinas.
Si realmente no tienen el cpd refrigerado por aire, voto por refrigeración de las máquinas por agua o algo similar, pero con sistemas normales, con sus ventiladores y sus cosas, eso es inviable si no quieres tener 70º en el datacenter en 10 minutos.
una media de trescientos cincuenta y ocho días al año,¿¿¿¿¿??????
Supongo que siempre habran razones para justificar un datacenter corporativo. Ademas, no me gusta nada la idea de confiar datos importantes a unas pocas empresas, pues seran pocas las que sean capaces de optimizar los recursos a la manera que Google lo esta haciendo.
(…) Una forma de entender la transición progresiva a la nube como una simple cuestión de costes, de última línea de la cuenta de resultados, que además en este caso se alinea con una mayor sostenibilidad (…)
No, si la mejor manera de convencer a los directivos reacios al cambio de que en breve la información debe estar en la nube es mediante el ejemplo de los datacenters que, al ser de elementos físicos, sí que pueden entenderlo.
Que pases buenas vacaciones Enrique!
¿Y que pasa con las conexiones entre centros de datos? Google puede que lo tenga solucionado, pero no hace tanto tuvimos el gran corte de conexión asiático y no hay tanto cable intercontinental tendido.
Pasar la carga que soporta Google de un servidor a otro, ¿no afecta a la velocidad de acceso? Somos muchos millones lanzando peticiones a sus servidores continuamente.
Puramente anecdótico: Confirmo lo de la temperatura. En pleno verano y tenemos que andar con jersey por Bruselas, aunque de vez en cuando sale un ratín el sol.
5#Ramón:
Precisamente, para poder implementar una “arquitectura globalmente distribuida” y aprovechar sus ventajas es imprescindible sobredimensionar los recursos; de este modo Google siempre está utilizando un porcentaje sustancialmente menor a la capacidad potencial total de sus datacenters.
No es un modelo óptimo en rendimiento pero sí en costes, que al fin de al cabo es lo que se busca.
En el caso concreto del corte de conexión asiático, la red distribuida siempre supone una ventaja ya que de haber tenido Google un modelo centralizado de datacenters, el corte Asiático hubiese afectado gravemente a uno de los “lados” en donde se hubiese producido (obviamente, el lado donde no estuviesen los servidores).
Si te fijas en la distribución de los Datacenters de Google y lo contrastas con el distribución de los cables intercontinentales te darás cuenta que la «gran G» ha pensado en este tipo de contingencias muy detenidamente:
http://image.guardian.co.uk/sys-images/Technology/Pix/pictures/2008/02/01/SeaCableHi.jpg
Muy ilustrativo
La nube está muy bien, sus ventajas son evidentes. ¿Pero internet continuará siendo internet?
Resumiendo mucho, la nube significa que el computador y buena parte de los datos ya no residen ni originan en el domicilio del usuario. Por lo tanto a éste, al conjunto de usuarios, no se le oferta mera conectividad, una hipertrofia de la linea telefonica con su cohorte de tutelas y cautelas relativas a la privacidad de las telecomunicaciones, sino que se le oferta un espacio y servicio residente en el «local» del proveedor, se estarian comunicando entonces unos locales con otros y unos clientes con otros residentes en el mismo local.
En los locales publicos la libertad y privacidad de los clientes esta sometida a limitaciones, en tanto que el dueño puede incurrir en resposabilidad si no tiene cuidado en evitar que en su casa se lleven a cabo actividades ilicitas.
El caso del Kindle y las novelas desaparecidas es paradigmatico. Amazon no tuvo que entrar en los Kindles, le basto con revocar el permiso de lectura relativo a esos concretos libros. Amazon pues, no vendio esos libros, sino que cedió un permiso de lectura, una licencia y como se suele hacer con el software.
El cloud computing puede reducir el numero de agentes relevantes y someterlos a regulacion, lo que podria significar que podria comenzarse a cobrar por todo meramente a cambio de ofrecer un terminal remoto gratis y una conexion tambien gratis.
«follow the moon», interesante concepto :)
Le veo un interesante futuro a Groenlandia, Siberia y el norte de Canadá en materia de servidores de Internet ;)
#9: Totalmente, no es ninguna tontería. Microsoft ha comprado terreno en Siberia y está construyendo precisamente un gran datacenter, e Islandia se está posicionando en ese sentido como buen destino por clima e infraestructura…
Una forma interesante de ver cómo están distribuidos los centros de datos a lo largo del globo. Cómo me gustaría estar en uno de ellos, aunque he visto videos y son espectaculares toda la infraestructura para montarlos, y la de gasto en refrigeracion… Siempre son bienvenidas medidas para ahorrar el gasto energético y Google apunta maneras para ser más verde :)
Digo yo que otro motivo diferente al clima local deben tener para elegir esa localidad y no otra. Si solo fuera por consideraciones climáticas, a la vista del plano de donde están montados los Data Center anteriores yo abriría los nuevos Data Center en el sur de Australia, (que también pertenece al primer mundo), pues tiene la ventaja de ser verano cuando en el norte es invierno y día cuando en Nueva York es noche.
También es extraño que teniendo Groenlandia a un tiro de piedra, donde para refrigerar el edificio basta dejarte la ventana del water mal cerrada, elijan Saint-Ghislain, Bélgica, que según parece que tiene una semana de calorcito al año. .
Por mucho que cuenten de la carga líquida y otras zarandajas, me parece que hay algo local que es más importante que la temperatura, como posiblemente sea la cercanía a tus clientes y es que hacer una consulta en Navalperal de la Mata y que te la resuelvan en Adelaida no deja de ser una excentricidad a pesar del cambio climático, ( o quizá por eso mismo).
#12
Como dice el post, «La ventaja clave se produce en términos de costes operativos…». Yo entiendo, que la idea es minimizar el coste de refrigeración, esto es, el 50% de la electricidad si se usan aires acondicionados, y que corresponde a un % del total de costes operativos. Es claro que no se habla solo del clima local.
Los costes operativos también son (p.ej.) el salario de los trabajadores, imagino que un ingeniero de google cobrará mucho mucho si tiene que trabajar en Groenlandia con los pingüinos… ;)
Saludos!
Bajemos el tema a la realidade.
En primer lugar eso del switch off térmico, de cambiar unos servidores a otros donde haya fresco no es viable hoy en día más que nada porque montar el operativo de echar abajo un servidor y subir otro a tomar por culo no es baladí, y al precio al que está el downtime no creo que sea planteable hoy por hoy. Vamos que una cosa es que se te caíga un CPD y otra que conmute basado en que hace más fresco en Jandmeore.Eso francamete hoy por hoy es una BARBARIDAD.
En cuanto a la refrigeración hoy en día todo se basa en refrigeración de torre cerrada. Si metes agua de fuera aparte de que en muchos sitios es ilegal o si tiens la torre de refrigeración abierta tienes unos problemas del copon por el tema de la Legionela.
Lo de la refrigeración por canales de agua suena de putamadre, entieno que sería unos intercambiadores de calor, vamos unos radiadores puestos en una canalizacion por donde circula el agua, es lo veo bien.
En fin, no lo veo tan tan factible. Otra idea es montar unas termas encima del CPD.
En cuanto a las comunicaciones o pones fibra negra o sabe Dios a que te expones. Y fibra negra interconental no creo que haya.
En fin, interesante pero no es viable hoy por hoy. Hoy estamos en eso de pasilllo frio pasillo caliente. El día que quieras te invito a un CPD que en verano se está muy bien.
Enrique, reconozco que no tenía ni idea del tema. Me ha encantado el post.
Disculpe el cambio de tema, pero ¿está bien dicho en español «dónde está el verdadero punto de un datacenter así»? A mi me chirría muchísimo. Hay ciertos anglicismos que no se pueden evitar al hablar de tecnología, pero se ha de intentar introducir frases hechas y estructuras gramaticales calcadas del inglés, that’s the point.
Saludos.
Por cierto la última moda consiste en instalar los cpds en contenedores tipo camión. Yo el otro día vi uno y me pareció muy interesante.
No se si será una tontería, pero supongo que tambien el tener los data center muy distribuidos globalmente aumenta la seguridad en caso de atentado o sabotaje.
14# Kiki
Hombre kiki, creo que la arquitectura de la red de datacenter de Google poco tiene que ver la de los CPDs que estamos acostumbrados a ver en donde conviven cientos de servidores con procesos muy heterogeneos pertenecientes a diversas empresas y en los que cada caída o parada por cualquier motivo supone una pequeña, o gran, tragedia.
El concepto de “downtime” para las granjas de servidores de Google es mucho más relativo: una arquitectura distribuida permite repartir las peticiones entre los diferentes datacenters, así que si a uno de ellos no le asignamos ninguna petición los usuarios no notarán nada al ser un sistema, como he mencionado en otro mensaje, ampliamente sobredimensionado.
El balanceo de carga en este caso no cosiste en trasladar complejos procesos a otros servidores localizados a gran distancia, si no que se traduce en dejar de atender nuevos procesos (peticiones).
19·#Owerflow
Pues los camiones que dice kiki yo los e he visto en algún sitio, que eran precisamente de Google y se llevaban para reforzar temporalmente Data Centers que por la razón que fuera, como labores de mantenimiento o cargas puntuales, backup o cosas parecidas necesitaban puntualmente mas procesadores instalados.
El gran exito de Google se hizo en sus comienzos cuando por falta de medios económicos, apostaron por Linux con una arquitectura distribuida basada en cluster de PC normales, en vez de Mainframes potentes de IBM que r¡era lo normal en aquel tiempo en esos casos.
Se demostró que la escalabilidad era mas fácil en este tipo de arquitectura, en el que solo tienes que cambiar una linea de Software que indica el número de procesadores que componían el cluster, así como permite ir sustituyendo poco a poco y sin cambios en el Software los equipos obsoletos. Mientras que con el uso de Mainframes, la migración de un equipo obsoleto a otro mas modernos y poderoso solia ser una autentico calvario.
19# Totalmente de acuerdo.
20# Completamente de acuerdo con Gorki. El gran éxito de google fue montar una infraestructura basada en propósito general y pasar de las grandes máquinas que al final les hubieran ahogado el CAPEX.
#10 ¡Increíble! :O
Ya tengo otra pieza para el bines-plan que justifique que me vaya a vivir a Benasque: teletrabajo y un datacenter hispano a los pies del Aneto, donde la temperatura media anual no llega a los 10ºC ;)
Gracias Overflow. Muy bueno el enlace con el mapa de los cables de conexión submarinos :-)
#10 y que sera del calentamiento global?!
Como se van a empezar a derretir los hielos de esas zonas, que futuro nos espera!
Saludos
Claudio
Enrique, promocionemos Coruña!!! como centro mundial de Data Centers……….. no les va a hacer falta aire acondicionado nunca! hay buen yantar, suelo barato, aeropuerto por si el tio Billy quiere venir a supervisar y como detalle complementario facultad de informatica
Tu que pomada ayuda a hacer patria :-)
A Coruña súmale Asturias, que yo tengo unos praos a pie de cantábrico pa conectar directamente con el cable submarino de fibra optica del follow the moon que son un primor. Del calentamiento global no nos preocupemos que ahora con tanta desalinizadora ya nos viene bien acabar bebiéndonos hasta el agua de los glaciares, que está subiendo mucho el nivel del mar y pronto no voy a tener que salir de casa pa ir a la pescadería, que me van a traer el pescao a la puerta de casa. Y sobre el consumo racional energético aunque a pequeña o gran escala, según se mire, por favor pregúntenle al alcalde de Barcelona lo que va a consumir energéticamente hablando el El ‘Barcelona Snow Show 2009’ y la emisión de CO2 que tendrá el acto http://www.sport.es/default.asp?idpublicacio_PK=44&idioma=CAS&idnoticia_PK=651087&idseccio_PK=1493,
Fdo: Un no leído
Como decimos en Paraguay.. ésta noticia se cae de interesante, sabia que Google era muy pro ambiente, pero no sabia de esto en específico ;)