Alfombra roja en Chile para los data centers: sin evaluación ambiental pero con mapa para invertir

Francisca Skoknic y Gabriela Pizarro

0

Llegar y enchufar. Esa sería la traducción no literal de lo que el gobierno espera que puedan hacer las empresas de data centers cuando se instalen en el país. “Plug and play” son las palabras en inglés que usó la entonces ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry, en una entrevista con La Tercera. Para eso, el gobierno diseñó un plan. Incluirá guías de trámites y un mapa de inversiones en que se les dice a las empresas qué terrenos pueden comprar para que tengan acceso a la energía que requieren, buena calidad de fibra óptica y autorización para construir. Y, en paralelo y silenciosamente, se les abrió la posibilidad de construir sin necesidad de pasar por el molesto trámite de la evaluación ambiental, que además de ser burocrático, los exponía a tener que responder preguntas difíciles de la ciudadanía sobre cuánta energía o agua van a consumir o cuánta mano de obra local van a contratar.

La alfombra roja regulatoria con que se está recibiendo a los inversionistas tecnológicos se ha visto pocas veces en Chile. Es un proceso que se arrastra desde gobiernos anteriores, pero que se aceleró en la administración Boric, en línea con la competencia de los países de la región por cosechar los prometidos beneficios del auge de la inteligencia artificial. En esa carrera, el que ha llegado más lejos es Brasil, que agregó beneficios tributarios al menú de la oferta, según ha podido comprobar La Mano Invisible de las Big Tech, una investigación transfronteriza de Agencia Pública y el Centro Latinoamericano de Investigación Periodística, CLIP, junto con LaBot y otros 16 medios de comunicación.

En Chile, desde el año 2011 se han aprobado 23 data centers a través del Sistema de Evaluación de Impacto Ambiental (SEIA), donde en la actualidad hay un proyecto en trámite. Algunas de las empresas dueñas son bastante desconocidas para la ciudadanía, como Ascenty, Equinix, Odata o Scala, pero también están presentes las principales “Big Tech”, como Amazon, Microsoft o Google, que son las que han generado más rechazo de los vecinos. En realidad, muchos de los data centers más anónimos también alojan a estas y otras empresas trasnacionales, como Huawei. Utilizan un sistema denominado “colocation”, en que una compañía instala sus servidores al interior de un data center que no es suyo En esta modalidad es el dueño del data center el que requiere las autorizaciones burocráticas y aparece públicamente, sin que se conozca quiénes operan desde sus instalaciones.

 Dos iniciativas de alta visibilidad pública y protagonismo gubernamental han sido anunciadas en los últimos meses, aunque se fraguaron durante varios años. En mayo, Amazon anunció que invertirá US$4.000 millones en una “región” de data centers y en junio Microsoft echó andar la suya, con tres data centers interconectados. Al primer evento asistió el entonces ministro de Hacienda, Mario Marcel, mientras que al segundo fue nada menos que el presidente Gabriel Boric junto a Marcel y las ministras de Ciencia y Bienes Nacionales. “Muchas gracias, Microsoft por esta tremenda inversión”, dijo Boric en un discurso celebratorio.

Aún antes de que el actual gobierno desplegara sus esfuerzos para atraer a los data centers, las empresas tecnológicas ya veían con interés a Chile y a lo largo de la última década han venido poniendo sus fichas en el país. Para poder llevar a cabo sus planes de inversión necesitan infraestructura digital en el Cono Sur y, en comparación con sus vecinos, Chile parece más estable, tiene la matriz energética más “limpia” de la región y posee buena cobertura de fibra óptica.

Para potenciar esas características, el gobierno lanzó en diciembre de 2024 un Plan Nacional de Data Centers (PData), que tiene como primer objetivo “promover el crecimiento de la industria”, además de que esto se haga de manera descentralizada y sustentable, y que fortalezca las capacidades de investigación en el país, por ejemplo, entrenando modelos propios con IA. Pocos días antes de que se anunciara el plan había nacido la Asociación Chilena de Data Centers (Chile Data Centers), creada por las empresas de la industria para tener un interlocutor común ante el gobierno.

La relación entre ambas partes se ve alineada en los actos públicos que comparten y en la sintonía de sus discursos. Por eso se sintió un contraste en la presentación sobre los data centers del principal asesor de la entonces ministra Etcheverry, Sebastián Díaz Howard-Allmand, en un foro organizado por el Colegio de Arquitectos de Madrid, al que asistió por videollamada en junio pasado. Ahí describió de manera bastante descarnada el impacto de los data centers en Chile. En un ambiente en que los otros expositores tenían una mirada crítica a la industria, Díaz contó que cuando empezaron a recibir información de las empresas para poder armar el PData, de pronto se encendió una alarma:

—Y la alarma es que de ninguna forma la Región Metropolitana puede aguantar un crecimiento como este teniendo el nivel de consumo energético que tienen. Y no solo el nivel de consumo energético, sino que el impacto que estas infraestructuras tienen en el territorio. Estas son infraestructuras que no se comunican con el entorno en lo absoluto. Son cárceles, son bunkers de cemento con cables y fierros y nadie sabe lo que ocurre ahí adentro. Hasta un cierto punto tiene sentido porque muchas de estas infraestructuras conservan datos que son muy críticos, pero al mismo tiempo demuestran un desafío enorme.

Ese desafío, continuó, es que “no solo están consumiendo mucha energía y mucha agua, sino que tampoco hablan con el entorno, no hablan con las comunidades y no se siente que existe un beneficio real a la hora de instalar estas infraestructuras aquí. Pero esa es la realidad que tiene Chile. Y esa misma realidad es la que nos justifica a nosotros como gobierno para poder generar un plan”. Esa lógica explica que una de las prioridades del plan del gobierno sea pavimentar el camino para que los data centers se instalen en regiones. Según dijo Díaz, se están preparando “visores territoriales” que permitan georreferenciar la forma en que debiera crecer la industria. Fuera de Santiago, el itinerario del gobierno es Antofagasta, Valparaíso y Magallanes. Luego, el gobierno añadiría Atacama.

Tras el lanzamiento en diciembre de los lineamientos del plan, comenzaron a correr plazos para la ejecución de los distintos anuncios. Se creó un comité “multiactor” —gobierno, empresas y sociedad civil—, en cuya primera reunión, que se llevó a cabo en mayo, se comunicaron los avances el plan. Por ejemplo, respecto a la elaboración de una “herramienta digital para el crecimiento orgánico” se identificaron 71 variables territoriales y en el corto plazo el trabajo de concentrará en la Región de Antofagasta, donde también se espera construir un “campus de IA” operado por una empresa pública.

Tania Rodríguez, dirigente del Movimiento Ambiental y Comunitario por el Agua y el Territorio (Mosacat), fue la única representante de la sociedad civil que asistió a esa la primera (y hasta ahora única) reunión del comité multiactor del PData, junto a funcionarios de gobierno y ejecutivos de empresas, donde se dieron detalles del proyecto de Antofagasta. Su impresión fue que “todos los ministerios estaban trabajando para ellos” (es decir, para las empresas) y que ya les tenían preparados los terrenos donde instalar los data centers, mientras a las empresas lo que les preocupaba era que no les fueran a subir los precios. “Fue absolutamente decepcionante y doloroso el saber que el Estado está trabajando para el empresariado”, se lamenta Rodríguez.

Desde entonces el gobierno ha adelantado a algunos actores el mapa o visor que fomentará la instalación de un hub tecnológico en la región de Antofagasta, donde los nuevos centros de datos se “enchufen” a fuentes de energía solar en terrenos con permisos preaprobados. En la reunión del comité multiactor se informó que se iniciará un estudio de prefactibilidad para la instalación de este “campus” de IA en Antofagasta, en conjunto con el Banco Interamericano de Desarrollo (BID) y la empresa pública Desarrollo País, la misma que creó una sociedad con Google para construir el cable submarino de Humboldt que unirá Sudamérica con Oceanía.

El 9 de septiembre pasado el Ministerio de Ciencia firmó un acuerdo con Desarrollo País para el proyecto de Antofagasta en el marco de un acto en que se lanzó una “Guía de Inversión para data centers en Chile”. Dicho evento fue cerrado a la prensa —desde el Ministerio se informó que no estaban permitidos los periodistas— y tampoco se adelantó a la guía al Comité Multiactor, que se se reúne desde mayo. Tania Rodríguez dice que su organización ni siquiera fue invitada al evento y según una persona que sí recibió la invitación, los asistentes parecían ser todos ligados al mundo empresarial.

El mayor detalle entregado hasta ahora sobre el proyecto de Antofagasta fue dado a conocer a fines de junio por el suplemento “Chile Tecnológico” de El Mercurio, donde se le definió como un parque de data centers. La gerente de Infraestructura Digital de Desarrollo País, Natalia López, dijo que se habían identificado terrenos públicos, los que serán urbanizados para que se puedan instalar los data centers, ya sea arrendando o comprando los sitios. “Cada empresa interesada construirá su centro de datos; nosotros daremos las facilidades de inversión, justo en un momento en que Chile necesita esa inversión (…). El beneficio es tener un lugar que cuente con certezas de que todos los permisos se obtendrán, además de contar con energía barata y las menores barreras posibles”, agregó el gerente general de la empresa pública, Patricio Rey.

El proyecto genera duda entre los activistas, pues no se conocen los impactos ambientales de instalar data centers en el desierto, especialmente si se requerirá de desalar agua para enfriarlos.

Fast track

Desde el primer momento, la principal demanda de la nueva asociación gremial de data centers ha sido disminuir o facilitar los trámites que se deben llevar a cabo para instalar un data center en Chile. Y entre esos trámites el más largo y complejo es la Declaración de Impacto Ambiental (DIA). ¿Qué tan largo? Un análisis de esta alianza de los 16 proyectos aprobados desde 2020 da cuenta de que en promedio un proyecto tarda 8,7 meses en recibir su resolución de calificación ambiental (RCA), pero varía entre 5 y 17 meses.

El compromiso original del gobierno en el PData era estandarizar los criterios de la evaluación ambiental para dar más “certeza” a las empresas. El punto llama la atención, porque hasta ahora no hay proyectos que hayan sido rechazados durante la evaluación ambiental. Sí hay varios que se han desistido durante la tramitación y uno, el de Google en Cerrillos, que fue revocado parcialmente en 2024 por un tribunal ambiental luego de haber recibido una calificación favorable.

En mayo, cuando tuvo lugar la primera reunión multiactor del PData, el Ejecutivo mostró el estado de avance de una “guía con criterios técnicos” para la evaluación ambiental y el 5 de junio Sebastián Díaz, el principal asesor de la entonces ministra de Ciencia sobre data centers, desmintió en su presentación en el Colegio de Arquitectos de Madrid que el gobierno pretendiera desregular a la industria.

Sin embargo, eso fue exactamente lo que sucedió al día siguiente, cuando una reunión del Consejo de Ministros para la Sustentabilidad y el Cambio Climático aprobó varias modificaciones al reglamento del Sistema de Evaluación de Impacto Ambiental (SEIA) que en la práctica permitirá que los data centers se construyan sin ser evaluados ambientalmente. Aunque internacionalmente los data centers despiertan críticas por su alto consumo energético y de agua, en Chile se los evalúa ambientalmente porque almacenan combustible para sus generadores de emergencia. El cambio reglamentario aumenta de 80 toneladas a 1.000 toneladas de combustible el umbral para exigirles evaluación ambiental, poniéndolo sobre el volumen que utiliza la gran mayoría de la industria de los data centers.

De 17 proyectos evaluados desde 2020, sólo dos incluían volúmenes superiores de diésel. Uno, menos de un 10% superior, y el otro porque incluía tres data centers que se implementarían en dos fases. En el futuro se ajustarán al nuevo umbral o avanzarán por fase y no serán evaluados ambientalmente, adelanta Cristián Rivera, de Giza Ingeniería, la consultora que ha preparado más declaraciones de impacto ambiental para grandes data centers, incluyendo el de más alto almacenamiento de combustible.

Pese a la relevancia del cambio, las palabras “data center” no se mencionaron en la reunión del Consejo de Ministros. Tampoco se incluyeron en el comunicado de prensa en que se informó de la reforma. No fue hasta el 16 de junio, cuando LaBot lo reveló en su newsletter, que se hizo pública la modificación que beneficiaría a los data centers (vea aquí ese boletín). La nota incluía la explicación del Ministerio de Medio Ambiente, donde se informó que la decisión se tomó considerando las implicancias para los data centers y que el tema se había conversado con sus pares de Ciencia. Dijeron que, si bien sabían que sería razonable evaluar a los centros de datos que consumieran agua, eso hubiera significado un cambio legal.

La modificación reglamentaria facilita el camino a las empresas y las libera de cualquier cuestionamiento ambiental (en el proceso se evalúa el proyecto en su conjunto, no sólo el almacenamiento de combustible). También pone un manto de opacidad sobre la instalación de data centers, pues en los procesos normales de evaluación de impacto ambiental, el SEIA incluye una página web de acceso público donde se puede conocer el proyecto y hacerle seguimiento. Además, permite a la ciudadanía organizada participar en ciertas circunstancias. De hecho, en el encuentro en España en que participó Díaz, tanto el activista de Quilicura Rodrigo Vallejos como el periodista de El País Pablo Jiménez habían destacado el proceso de evaluación ambiental chileno por la transparencia de su plataforma. No sabían que probablemente llegaba a su fin para los data centers.

Como era esperable, el cambio causó preocupación y enojo entre los actores de la sociedad civil que participan de las conversaciones con el gobierno. Al pedir explicaciones, desde el gobierno les dijeron que la ministra de Ciencia estaba contra el cambio justamente porque liberaba a los data centers de evaluación ambiental y no había asistido al consejo donde se aprobó. De ser así, no se sabe por qué no acudió a votar en contra —Ciencia fue el único ministerio sin representantes en el consejo— ni ha dicho públicamente nada sobre el cambio. Etcheverry, quien fue ministra hasta el 22 de julio pasado, declinó una solicitud de entrevista para este reportaje. También lo hizo su sucesor, Aldo Valle.

“Nosotros somos activistas que nos movemos por la información dura que está ahí (en la plataforma del SEIA). Estamos viendo y tenemos acceso a la información para poder reclamar. Entonces, sin esto nunca hubiéramos sabido que hay data centers en Quilicura”, recalca el activista Rodrigo Vallejos.

Junto a otros dirigentes, se está asesorando con abogados para iniciar acciones legales una vez que la modificación al reglamento se publique en el Diario Oficial —al momento de cerrar esta nota el gobierno aún no lo enviaba a Contraloría para toma de razón—, pues cree que vulnera los acuerdos de Escazú que firmó este mismo gobierno y que exigen acceso a la información ambiental. “Este es un presidente que, en su programa, prometía un gobierno ecologista, y ahora se entrega totalmente a un discurso de permisología”, cuestiona Vallejos, en referencia a las demandas del empresariado por reducir los permisos.

Desde la academia, la arquitecta Linda Schilling, quien estudia el rol de la participación ciudadana en los conflictos ambientales como parte de su tesis doctoral, reafirma el retroceso que significa el cambio regulatorio. “El sistema de evaluación de impacto ambiental es el mejor archivo de cambios territoriales que existe en Chile”, dice Schilling, quien fue una de las curadoras del pabellón chileno en la bienal de arquitectura de Venecia sobre data centers, que está construido en gran parte a partir de los datos del SEIA.

“Mi equipo considera que los data centers deben ser evaluados ambientalmente porque son edificios con huellas tremendas. Claro, están en parques industriales, pero nos cuesta creer desde la arquitectura que no haya un impacto ambiental para edificios de esa magnitud. Si bien puede que no tengan un gran impacto en el consumo hídrico, sí pueden contribuir a fenómenos como islas de calor y eso puede afectar cualquier tipo de ecologías que estén en el sector”, dice la experta. Para la bienal hicieron maquetas de todos los data centers autorizados hasta ahora y pudieron ver cómo la magnitud de los edificios ha ido aumentando en los últimos años.

Incluso el country manager de Amazon Web Services (AWS), Felipe Ramírez, considera que es importante que estos proyectos sean evaluados ambientalmente: “cuando tú haces inversiones de este tipo, que tienen un consumo de energía relevante, que en algunos casos incluso hay un consumo de agua importante, nosotros creemos que debiesen pasar al menos por una revisión que permita garantizar que en el lugar donde estos (data centers) vayan a operar, si es que generan algún tipo de impacto, ese impacto esté controlado o se compense con algo. Podemos discutir si la cantidad de permisos, si la rigurosidad de los permisos hoy día está bien o está mal, eso es más discutible, pero yo creo que una inversión de esta característica sí tiene que pasar por algún proceso”.

Los verdaderos impactos

El agua suele ser la principal preocupación cuando se habla de construcción de data centers. En todo el mundo se han hecho investigaciones sobre el gran consumo que está generando el auge de la inteligencia artificial y se cuestiona la opacidad de las empresas para dar a conocer cuánto utilizan en su operación. Hasta incluir “por favor” cuando se le pide información a ChatGPT consumiría agua, en palabras del gerente de la empresa que lo produce, Sam Altman.

La explicación para el alto consumo de agua es que los data centers son edificios llenos de racks con servidores que funcionan permanentemente, lo que genera calor. Para bajar la temperatura se requiere tener sistemas de enfriamiento de manera constante. El agua es por lejos la alternativa más costo-eficiente para enfriar los data centers, pero también la que genera un impacto más inmediato en el medio ambiente.

Sin embargo, la situación del agua en Chile puede ser menos apocalíptica de lo que parece. No siempre fue así. Cuando Google instaló su primer data center en Quilicura en 2013 —que no pasó inicialmente por una evaluación ambiental, aunque sí debió evaluar su ampliación— despertó una gran oposición de los vecinos porque extrae agua de las napas y hay un humedal en la zona.

Luego, en 2019, comenzó con los trámites para construir un segundo data center en Cerrillos, donde nuevamente se encontró con un fuerte rechazo porque contemplaba la extracción de agua subterránea de la zona. Pese a la oposición de los vecinos y del municipio, el proyecto de Google fue aprobado ambientalmente en 2020. Los opositores recurrieron entonces a la justicia ambiental.

Fue por esa causa que nació Mosacat, el Movimiento Ambiental y Comunitario por el Agua y el Territorio. Luego de infructuosas gestiones con Google en Chile, lograron iniciar negociaciones directas con la empresa en Estados Unidos, hasta llegar a un acuerdo para cambiar el sistema de enfriamiento por uno que no utilizara agua. La dirigente de Mosacat Tania Rodríguez recuerda que “fueron un par de años que tuvimos conversaciones y ahí ellos detuvieron el proyecto y ese compromiso fue escrito, fue enviado al SEA (Servicio de Evaluación Ambiental)”. Éste organismo estimó que no era necesario hacer cambios al proyecto para modificar el sistema de enfriamiento (ver expediente). De todos modos, 13 de los demandantes y la municipalidad retiraron su acción legal, salvo una vecina que insistió en tribunales.

Para sorpresa de muchos, en septiembre de 2024 el juicio que había llevado a cabo esa vecina terminó en un fallo del Segundo Tribunal Ambiental, que consideró que al no incluirse el cambio de sistema de enfriamiento en la Resolución de Calificación Ambiental (RCA) el proyecto no se hacía cargo de su impacto en el cambio climático, por lo que revocó parcialmente el permiso. Ante este escenario, Google retiró el proyecto y presentaría uno nuevo, sin consumo de agua.

La pelea de los vecinos de Cerrillos contra el gigante tecnológico estadounidense fue una de David contra Goliat que le valió a Tania Rodríguez ser considerada por la revista Time como una de las 100 personas más influyentes del mundo en inteligencia artificial el año pasado, una lista que lidera justamente el CEO de Google, Sundar Pichai (ver nota).

En Quilicura, en cambio, Google construyó mucho antes y no ofreció un cambio de tecnología que no usara agua, sino que ideó un sistema de compensaciones voluntarias, como la implementación de un “bosque urbano”. Se trata de un terreno ubicado justo al frente del cementerio de Quilicura y que seis años después de su inauguración permanece con obras a medio construir y cerrado al público. Se ha transformado en un ícono de la falta de consideración de las empresas de tecnología por las comunidades a las que impactan. Aunque Google sólo se había comprometido a mantener el recinto por cinco años, su nombre sigue ahí, en el “bosque” abandonado.

De esta forma, Google ha encabezado dos proyectos que han enfrentado rechazo de las comunidades y que fueron diseñados con un consumo de grandes cantidades de agua. Además, el suyo fue el primer gran data center en construirse en Quilicura, una comuna considerada de “sacrificio” por la alta saturación de industrias y el impacto ambiental que generan. De a poco se transformó en la comuna con más data centers en Chile, pues a Google le siguieron Ascenty (tres proyectos), Cirion y Microsoft, que se levantan entre bodegas industriales y calles llenas de hoyos por los camiones de carga que circulan sin cesar.

En la memoria colectiva, las peleas de los vecinos de Quilicura y Cerrillos contra Google quedan fijadas como una lucha ambiental ante el gran consumo de agua de los data centers. Para la industria, en cambio, el caso de Google parece ser uno de una empresa que no se adecuó a tiempo a la realidad en que se encontraba.

“Siempre supimos que (Google en Cerrillos) estaba presentando ese proyecto con un sistema de refrigeración por agua y que no iba a ser aprobado porque en Chile no existen grandes data centers que tengan sistemas de refrigeración por agua. Todos los sistemas son refrigeración por aire, porque no hay agua suficiente, la sequía es algo que nos está golpeando en Santiago hace 10 años por lo menos”, dice Carlos Leiva, cuya empresa CLK presta servicios de ingeniería en la construcción y mantención de data centers.

De hecho, ninguna de las declaraciones de impacto ambiental que ingresaron después de la de Google usa agua como sistema de enfriamiento. Aunque las tecnologías propuestas por cada empresa no son idénticas, en general se trata de “chillers”, unas máquinas parecidas a aires acondicionados gigantes. Hay algunas compañías que declaran simplemente no usar agua, sólo refrigerantes que se vuelven gaseosos. Otras admiten usar cantidades limitadas de agua potable, que recircula dentro de un circuito cerrado y sólo debe ser recargada en contadas ocasiones.

También hay sistemas de refrigeración como los que usan Amazon y Microsoft, que pese a declarar el uso de tecnología de bajo consumo de agua, admiten que en los días de más calor requerirán sumar enfriadores que usan la evaporación de agua para complementar. En el caso de Microsoft, el cálculo es que este sistema de respaldo operará el 7% del año (600 horas), que es el tiempo que se prevé que la temperatura exceda los 29,4°C. Amazon, en cambio, cree que el sistema a vapor deberá activarse sólo el 3% del año y, para que quede claro que es poca agua, dice que utilizará entre 788 m3 y 5.554 m3 al año, equivalente al consumo anual de 2 y 16 casas chilenas, respectivamente.

El plan de Amazon es, para el 2030, devolver al medio ambiente más agua de lo que consume o ser water positive, como se dice en inglés. En Chile tienen un contrato con una empresa que ayuda a los agricultores del río Maipo a hacer más eficientes sus sistemas de riego. “Esa es la forma de compensar. De hecho, si miras el consumo que vamos a tener de agua en Chile y todo ese ahorro que se genera, vamos a ser súper water positive”, augura el country manager de Amazon.

Para el arquitecto Nicolás Díaz Bejarano, investigador del núcleo Futures of Artificial Intelligence Research (FAIR) y cocurador del pabellón chileno en la bienal de arquitectura de Venecia sobre data centers, las declaraciones de impacto ambiental de las empresas utilizan un “juego retórico” que mantiene la opacidad sobre el verdadero consumo de agua: “En el informe te dicen que es un sistema cerrado de agua que va a tener un primer llenado y va a ir recirculando. Y en algunos momentos van a rellenar esta recirculación. Ya, pero dígame cuánto consume”.

A nivel internacional se usa el término Water Usage Effectiveness (WUE) o efectividad del uso del agua, pero no existe un índice público que permita comparar la eficiencia de los distintos proyectos. Más allá de las dudas y vaguedades sobre estos nuevos sistemas de enfriamiento, la decisión de no ocupar agua aumenta los costos de operación porque utiliza enormes cantidades de energía para funcionar y que se suma al gran consumo que de por sí tienen los servidores, lo que genera un nuevo flanco.

Mega consumo

Los data centers suelen utilizar como métrica principal su consumo eléctrico (megavatios). Esta forma de medir el tamaño de los data centers da cuenta de la centralidad de la energía en su funcionamiento.

Los data centers con grandes capacidades de procesamiento como los que se han construido en los últimos años para trabajar con inteligencia artificial, llamados de hiperescala, en general consumen entre 20 MW y 40 MW, el equivalente al consumo de todo un pueblo.

En el ya mencionado foro en España, Sebastián Díaz dijo que actualmente la capacidad instalada de grandes data centers en la Región Metropolitana y Valparaíso es de 300 MW y que se espera que ese número se quintuplique en los próximos años, es decir, que llegue hasta los 1.500 MW. El problema es que el consumo eléctrico tiene limitaciones físicas, tanto de generación como de transmisión y distribución de energía. El funcionario dijo que el gobierno quería evitar la experiencia de ciudades como Amsterdam o Dublín, que vieron saturados sus sistemas eléctricos por la instalación de data centers sin la planificación adecuada.

Ante la enorme necesidad de energía, en otros países las propias grandes empresas tecnológicas han comenzado a invertir en generación para poder cubrir su demanda. El caso más llamativo es el de Google, que llegó a invertir en energía nuclear.

En Chile hace ya varios meses que se comenta que empresas de data centers invertirán en generación, incluso instalando paneles solares junto a sus plantas, sin que hasta ahora se haya concretado algún anuncio en particular. Sobre este tema, Felipe Ramírez, el country manager de AWS, no niega que esa empresa esté preparando o vaya a invertir en el futuro enproyectos energéticos: “Puede ser. No es algo que descarte y no es algo que tampoco te pueda decir que no lo estemos haciendo hoy día. Nosotros, como AWS, no manejamos todo el detalle, toda la información de eso. Eso se maneja de forma centralizada”.

Encontrar terrenos con buen acceso a energía y fibra óptica, que además permitan la instalación de empresas catalogadas como industria molesta (una calificación que el gremio pide eliminar) es lo que explica que se hayan ubicado en lugares como Quilicura, Colina o Pudahuel.

Esta demanda ha hecho surgir un área especializada del corretaje de propiedades, que se dedica a buscar terrenos factibles para las empresas extranjeras que quieren instalar data centers en Chile. Colliers y GPS Property han creado unidades especializadas, publican reportes sobre el sector e incluso se unieron al gremio Chile Data Centers.

“El terreno es un 5% del total de inversión, entonces no les importa el valor, lo compran caro, por decirlo de una forma, y tienen requerimientos de terreno cada vez más grandes. Un data center tiene que tener acceso a mucha energía porque al final es una maquinita que tiene que correr siempre para que nosotros podamos usar los datos y, además, eso tiene que estar conectado a la red de fibra óptica, pero no cualquier fibra óptica, sino una que puede transportar grandes cantidades de datos”, explica Rebecca Emmons, quien al momento de esta entrevista era subgerenta de data centers en Colliers.

Emmons dice que, por ejemplo en Quilicura, que fue la locación favorita de la industria hasta ahora, ya no hay capacidad para conectar más data centers con la infraestructura existente, por lo que cada vez se mira hacia más al norte de la ciudad en busca de nuevos sitios que les permitan instalarse.

Los requerimientos de los data centers son distintos a los de otras industrias. En la eléctrica Enel aún recuerdan cuando a fines de la década pasada se acercó una empresa de nombre Luna que llegó con mucho secretismo y requerimientos muy específicos: pedían una calidad especial y proyectaban un consumo de 40 MW, equivalente a un pueblo pequeño. Luego se enteraron de que era Google, que en este rubro en Chile opera con la sociedad Data Luna, que no quería que se supiera que estaban haciendo un data center.

Para poder operar estas instalaciones requieren tener la máxima seguridad de suministro y por lo tanto se conectan con una línea dedicada —exclusiva — hasta una subestación, que permite convertir la electricidad de alta tensión a la media tensión con la que operan. Por estas razones, en general son las empresas de data centers las que financian la infraestructura eléctrica que utilizan.

En algunos países, la expansión de los data centers ha generado un aumento de precios en las cuentas de luz para los ciudadanos comunes. En Chile, como gran parte de la infraestructura nueva la pagan los data centers, eso no se influye en el cálculo de tarifa, aunque si la distribuidora debe invertir en una subestación que luego sirve a otros clientes, entonces sí podría afectar los precios. En cualquier caso, los expertos consultados creen que un eventual impacto en el precio de la energía sería marginal.

Otro impacto no deseado del alto consumo de esta industria en otros países ha sido que para suplir la demanda de energía se ha recurrido a combustibles fósiles para la generación eléctrica, revirtiendo la tendencia a utilizar cada vez más energía renovable que no contamine o impacte en el calentamiento global. En Chile hay una fuerte presión para que esto no suceda y no sólo desde el gobierno, sino que las empresas utilizan el factor “sustentable” como una importante carta de márketing. Por su consumo, son clientes libres, es decir, que tienen contratos directos con las generadoras y no pagan la tarifa regulada. Eso les permite comprarles, por ejemplo, a una central solar y decir que se abastecen de energía limpia, aunque lo cierto es que una vez que la energía entra al sistema interconectado ya no es posible saber de dónde se está consumiendo. La empresa contratada podría incluso no estar inyectando energía al sistema en ese minuto.

Actualmente cerca del 40% de la matriz energética chilena es renovable, una cifra alta a nivel mundial, y el plan del gobierno es que crezca significativamente. El problema en este momento es que existe un superávit de energía en el Norte Grande, específicamente en la región de Antofagasta, con dos limitaciones técnicas que por ahora impiden aprovecharla: capacidad de almacenamiento y de transmisión hacia los centros de consumo.

El gobierno está trabajando en facilitar que los nuevos data centers se construyan en el norte, donde está la energía solar. Sin embargo, no han dado más detalles, ni información específica sobre cómo piensan lograrlo, por lo que abundan las preguntas. Primero está el tema del plazo, ¿para cuándo es realista pensarlo? Porque los data centers necesitan flujos estables de energía 24/7, con garantías de suministro, y aún no parece haber baterías que den esa certeza para las plantas solares. Tampoco existe la infraestructura de fibra óptica adecuada para transmitir los datos hacia el sur.

Luego está el tema de la temperatura. ¿Dónde específicamente esperan instalarlos? ¿Se calentarán más en el desierto que en Santiago? Si es así, será necesario usar agua, que no hay en esa zona, y por lo tanto recurrir a desaladoras, que usan aún más energía. Un círculo vicioso.

Las promesas

El entusiasmo del gobierno ante los recientes anuncios de inversiones de data centers de Microsoft y Amazon se explica por los grandes montos de inversión anunciados. Mientras la primera proyecta US$3.300 en tres años, la segunda prevé invertir US$4.000 en 15 años.

Cómo esas inversiones impactan en el país tiene mucho que ver con la cantidad y el tipo de empleo que generen, pero es una industria poco intensiva en mano de obra. En la primera etapa, durante la construcción, el empleo es mayor. Pero aun así, hay que tomar en cuenta que, en palabras del representante de AWS en Chile, es un tipo de obra que “no tiene mucha ciencia”. Las constructoras locales deben seguir especificaciones técnicas de AWS y luego la instalación de los equipos es la que requiere de cierta especialización, pero como es algo que se hace una vez, hay personal que viaja por el mundo haciendo ese trabajo: “vienen, hacen la instalación y se van a instalar otra en Nueva Zelanda”, resume Ramírez.

Carlos Leiva, de CLK, dice que las empresas como la suya, que hacen proyectos de ingeniería para data centers, no han podido aprovechar el boom de los mega proyectos para inteligencia artificial. “Traen a sus propios expertos y vienen con un modelo ya hecho, no encargan proyectos de arquitectura, han desarrollado ingeniería espectacular en alguna parte del planeta y tienen 20 o 30 modelos que se adaptan a distintos requerimientos”, dice Leiva. Acá necesitan a un ingeniero y un arquitecto que firmen los documentos legales y que ajusten los modelos a las variables sísmicas, pero el grueso del proceso viene de fuera.

Una vez construidos, durante la operación, las necesidades de trabajadores son aún menores. Claudio Rivera, experto en declaraciones de impacto ambiental para data centers, cuenta que en los procesos de participación ciudadana se nota que la gente cree que estas empresas tienen un impacto laboral como el de las grandes mineras, cuando lo cierto es que generan una mínima cantidad de empleos. De acuerdo a lo que informan las propias empresas en las declaraciones, terminada la construcción en general contratan entre 25 y 50 personas, con un máximo de 100 empleados en contados casos.

En el marco de PData, el instituto profesional Inacap (un centro de estudios no universitario) inauguró un “data center” didáctico para capacitar personal para la nueva infraestructura. El tema se tocó en la primera reunión multiactor de PData, en la que se anunció la preparación de cinco perfiles laborales para data centers: operador/a de infraestructura crítica, especialista en redes y comunicaciones, soporte TI y hardware, consultor/a de diseño y comisionamiento, y analista de sostenibilidad y eficiencia.

Según Tania Rodríguez, la única asistente de la sociedad civil, se habló de extender las capacitaciones a otros centros de formación técnica. Ella, que ha visto las cifras de mano de obra que requerirán los data centers, cuestionó la idea. “Dije que me parece una irresponsabilidad de parte del Estado; van a salir un montón de chiquillos, porque van a cambiar las mallas curriculares, y no van a tener trabajo porque esto (los data centers) no da puestos de empleo.”, cuenta Rodríguez.

Sin embargo, cuando se habla del impacto de los data centers se mencionan enormes cifras de empleo que incluyen el uso de la tecnología de la nube, pero no se detalla cómo se generarán. Quizás el caso más llamativo es el de Microsoft, que al lanzar su región de data centers hizo una gran campaña comunicacional que subrayaba los miles de empleos que crearía y su propaganda fue simplemente repetida por las autoridades de gobierno.

En su discurso en ese evento, el presidente Boric mencionó los supuestos 17 mil empleos directos que se crearían en ciencia, tecnología, conocimiento e innovación, además de 80 mil en el ecosistema de data centers. Los datos figuran también en un comunicado del gobierno que entre los “beneficios de contar con el data center de Microsoft en Chile”, menciona “más de 17 mil nuevos empleos calificados”.

LaBot pidió a Microsaroft el estudio en el cual se basan esos datos, que fue realizado por la consultora IDC por encargo de la empresa. El informe de una página detalla que los 17.278 empleos serán generados por “Microsoft, su ecosistema y los departamentos de TI de las empresas clientes”, mientras que otros 81.041 provendrán de puestos directos creados por Microsoft, sus socios y clientes. No dan más detalles, pero sí un desglose de las cifras por sector:El documento entregado por Microsoft (ver aquí) no explica cómo se llega a esas cifras y la empresa no respondió los requerimientos de mayores detalles y rechazó una solicitud de entrevista.

En general estos anuncios se basan en cálculos sobre el uso de la “nube”, pero no especifican cómo se hacen ni qué pasaría si los data centers estuvieran en Mendoza o en Tacna y Chile accediera de la misma manera a los servicios de la empresa 

Reflexión crítica en Venecia

Curiosamente, entre los académicos que en los últimos años han estudiado y cuestionado el auge de los data centers en Chile destacan arquitectos y diseñadores. Eso explica que este año el pabellón de Chile en la bienal de arquitectura de Venecia tuviera como tema principal la construcción de data centers, con la paradoja de que, mientras a través del Ministerio de Ciencia el gobierno impulsaba un plan para facilitar su instalación en el país, el Ministerio de las Culturas financiaba un pabellón que cuestionaba las políticas del Estado en esta materia.

Haciendo caso omiso al tecno-optimismo que irradiaba el tema general de la bienal, “Inteligencia natural. Artificial, Colectiva”, el pabellón chileno lleva el nombre “Inteligencias Reflexivas” y pone el foco en la falta de consideración sobre las comunidades, a partir de las evaluaciones de impacto ambiental de 25 proyectos de data centers.

A través una larga mesa, que en realidad es una pantalla que transmitía un video, se ven avanzar los distintos proyectos e incluso el Plan Nacional de Data Centers del Gobierno. “La premisa de este proyecto es clara y contundente: si se pretende construir un futuro tecnológico justo, equitativo y sostenible, lo primero que tenemos que hacer es rediseñar las estructuras y procesos de toma de decisiones que lo hacen posible”, escribieron los curadores en una columna en el diario El País.

La mesa digital es una metáfora que no cuestiona la necesidad de construir data centers, sino la forma en que se hace: “Para imaginar otro futuro, debemos entonces recuperar la mesa, no sólo como metáfora y símbolo, sino como una exigencia de deliberación, participación, responsabilidad y justicia. Donde la realidad de la inteligencia artificial, cargada de minerales, agua y energía, sea confrontada y no ocultada”. Pero mientras esta reflexión tenía lugar en Venecia, en Santiago el gobierno se movía en sentido contrario: eliminando las instancias de participación y deliberación sobre estos proyectos de infraestructura digital, así como la información pública que permitió montar la muestra.

La Mano Invisible de las Big Tech es una investigación periodística transfronteriza y colaborativa liderada por el medio brasileño Agência Pública y el Centro Latinoamericano de Investigación Periodística (CLIP) junto a Crikey (Australia), Cuestión Pública (Colombia), Daily Maverick (Sudáfrica), El Diario AR (Argentina), El Surti (Paraguay), Factum (El Salvador), ICL (Brasil), Investigative Journalism Foundation - IJF (Canadá), LaBot (Chile), LightHouse Reports (Internacional), N+Focus (México), Núcleo (Brasil), Primicias (Ecuador), Tech Policy Press (USA), Tempo (Indonesia). Con el apoyo de Reporteros Sin Fronteras y del equipo legal El Veinte y el diseño de la identidad visual de La Fábrica Memética.

AR