Todos somos conscientes de la espectacular transformación que ha sufrido la generación de energía en el mundo, gracias al importante impulso de la energía renovable, a la dramática subida en precio de los combustibles fósiles, después del pico petrolero superado hace unos años y a la consolidación de la energía de fusión como una alternativa real. Esta evolución ha permitido adaptar la legislación sobre autoconsumo y régimen especial (pequeños productores), llegándose al final, a una legislación única Europea razonable y eficiente.
Esta nueva ley significo un antes y un después, gracias a la consolidación de dos sencillos principios. Se eliminó de la tarifa eléctrica todo aquello que le era externo, es decir todos los impuestos especiales, peajes, tasas, primas y demás añadidos, que había hecho que su precio se disparara a precios insostenibles para las familias y las pequeñas industrias, el otro concepto no menos sencillo, ¡si eres capaz de producir energía, hazlo! En esto fue definitivo la capacidad y versatilidad que tiene la energía renovable en su instalación distribuida, podríamos decir que tiene el mismo rendimiento y prácticamente el mismo coste unitario de inversión, hacer una instalación fotovoltaica de 1 Kw que de 1 Gw que es un millón de veces más grande.
En agricultura, todas las energías fósiles pueden remplazarse por otras formas de energía renovable. El funcionamiento de los agro-ecosistemas actuales se basan en dos flujos energéticos: el natural, que corresponde a la energía solar en su función fotosintética y un flujo «auxiliar», controlado directamente por el agricultor, que recurre al uso de combustibles fósiles, ya sea directamente o en forma indirecta, tales como la producción de insumos agrícolas (entre ellos el nitrógeno reactivo).
El primer flujo es el propio o natural de funcionamiento del ecosistema, es una energía abundante, gratuita y limpia; el segundo flujo corresponde a energía «almacenada», sus existencias son finitas, es relativamente cara y por lo general, no es limpia en el sentido, que su uso da origen a fenómenos de contaminación.
Los factores fundamentales de producción en la agricultura moderna son energía, trabajo, tierra y conocimiento, siendo, dentro de ciertos límites, sustituibles entre sí. Por ejemplo, la energía puede reducir las necesidades de mano de obra; la utilización intensiva de fertilizantes, sistemas de riego y mecanización exige menos tierras.
Los avances tecnológicos y de costes de la energía renovable y la nueva ley Europea sobre autoconsumo, supuso para la agricultura una oportunidad única, ya que la energía pasó de ocupar un puesto destacado entre los costes agrícolas, a convertirse en una fuente de ingresos. Hoy no existe ningún edificio dedicado a una de las múltiples actividades de la agricultura que no tenga su tejado solar, no un tejado al que se acoplan unos paneles solares, sino un verdadero tejado formado íntegramente por materiales fotovoltaicos.
Si repasamos de forma general la situación del Mix energético mundial actualmente, tenemos diferencias considerables con el Mix que teníamos hace tan solo 20 años. Vemos que el único crecimiento se da entre los combustibles no fósiles, quitando terreno fundamentalmente al petróleo y carbón y como novedad la aparición de la fusión en el Mix.
La energía de fusión, que si bien su aportación al volumen total de energía actualmente es absolutamente insignificante, sentimos por fin su aliento en el cogote, gracias a los esfuerzos que ha realizado la comunidad internacional, en el que ha sido considerado como el proyecto internacional más duradero, caro, complejo, ambicioso y en el que más países han intervenido en la historia de la humanidad. El proyecto ITER (Reactor Termonuclear Experimental Internacional) de gran complejidad conceptual, ideado en 1.986 para demostrar la factibilidad científica y tecnológica de la fusión nuclear.
El ITER se ha construido en Cadarache (Francia) y costo más de 24.000 millones de euros, convirtiéndolo en uno de los proyecto más costoso de la historia, (Programa Apolo, de la Estación Espacial Internacional, del Proyecto Manhattan y del desarrollo del sistema GPS). En 2.023 se produjo la primera inyección de plasma en el reactor Tokamak del ITER. Después de los tres primeros años, en los que se demostró la gran fiabilidad y potencial de las tecnologías de fusión, se decidió poner en marcha la vía ultrarrápida para la fusión comercial, que podría lograr un prototipo final en una década.
Esta propuesta se basó en simultanear la construcción de un proyecto combinado DEMO/PROTO , dentro del diseño de ITER. Con la experiencia adquirida, se introdujeron ciertas mejoras y se construyó DEMO de tal forma que en 2.031 estaba vertiendo energía eléctrica a la red, este se denominó como el año de la fusión y después de cuatro funcionando, hacía ya un mes que se había parado. El diseño de DEMO permitió su transformación en PROTO sin necesidad de un proyecto separado.
DEMO, es la máquina que abordará las cuestiones tecnológicas para llevar la energía de fusión a la red eléctrica. Las principales metas de la fase DEMO son la exploración de la operación continua (estado estacionario), la investigación de sistema de captura de energía eficientes, el logro de una producción neta de potencia en el rango de Q=30-50, y la producción in situ de tritio (dentro del reactor). PROTO será la construcción de un reactor prototipo completamente optimizado, es la etapa final para producir energía de fusión y producir electricidad de forma competitiva.
Tanto China, Japón como EEUU estaban diseñando desde hacía años sus propios proyectos de reactores de fusión comerciales basados en la tecnología y experiencia obtenidas en el proyecto ITER-DEMO, las previsiones eran que antes de que terminara esta década, el mundo se vería inundado de cientos, sino miles, de reactores de fusión.
Incluso en algunos proyectos más futuristas, dada su alta seguridad de funcionamiento, se plantea construir reactores de fusión subterráneos, colocados por debajo de las grandes ciudades y de los grandes complejos industriales. Consiguiéndose un sistema de suministro eléctrico mucho más compacto, seguro y eficiente, eliminando prácticamente todas las perdidas energéticas por trasporte y al ser subterráneo, se aumenta enormemente la seguridad, frente a posibles atentados, a conflictos o a accidentes naturales, también se elimina el riesgo de cortes por problemas en las líneas de transporte, dotando a las ciudades de un grado de independencia energética, no antes alcanzado.
La mayor parte de los reactores de fisión pertenecientes a la denominada Generación II, cuya tecnología fue diseñada en los años 70, han agotado su ciclo de vida y están parados, por tanto actualmente los reactores en uso pertenecen a la generación III y III+, diseñada a partir de los años 90, con importantes mejoras en el diseño. Son reactores que incluyen una seguridad pasiva que propicia una mayor resistencia a accidentes severos y una estructura modular, destinada a reducir su tiempo de construcción y por tanto su coste de inversión. Se estima que su vida media es del orden de 60 años y el combustible está diseñado para alcanzar altos quemados, reduciendo con ello los residuos radiactivos y obteniendo mayor rendimiento energético.
A partir del año 2.000 se inició el diseño de la Generación IV, para que estuviera operativa a partir de 2.025. Las actuales centrales nucleares de generación III, suelen utilizar como combustible el uranio o el plutonio. Estos dos elementos son altamente radiactivos y su tratamiento es muy peligroso. Pero ha surgido una alternativa, los nuevos reactores de sales fundidas y el torio como combustible. Este material tiene un potencial energético 40 veces mayor que el uranio y su peligrosidad es mucho más baja. Además, al contrario de lo que ocurre con los combustibles nucleares actuales, el torio es muy abundante en la naturaleza y puede utilizarse en su totalidad para esta tarea.
Un reactor de sal fundida es un tipo de reactor nuclear de fisión en el cual el principal refrigerante, o incluso el combustible mismo es una mezcla de sales fundidas. El reactor no tiene partes móviles y funciona a temperatura más alta que los reactores convencionales, para lograr una elevada eficiencia termodinámica, manteniendo una baja presión de vapor, lo cual reduce el estrés mecánico soportado por el sistema (principalmente la vasija), propiciando una simplificación en el diseño del reactor y mejorando su seguridad. Desde un principio muchos de los reactores de torio utilizaron agua de mar para mover sus turbinas, reduciendo así el costo de la desalinización para otros usos.
En cuanto al torio como combustible, presenta unas interesantes ventajas: El tipo de radiactividad (partículas alfa) que emite el torio no es tan dañina para el ser humano. Una persona puede incluso tomarlo y manipularlo con su mano desnuda sin mayor riesgo. Es tan abundante que nos durará miles de años. Se consigue como subproducto en muchas actividades mineras, explotación del carbón o durante la extracción de gas natural. Los desechos producidos por la explotación del torio son mucho menos dañinos que los del uranio, el período radioactivo duraría solo unos pocos cientos de años. Pero además la extracción de este mineral, produce muchos menos productos radiactivos que la del uranio.
Otra ventaja muy interesante es que, los reactores de torio pueden reutilizar los actuales inventarios de desechos radiactivos, fruto de la explotación del uranio. Donde estos desechos permanecerían por miles o incluso millones de años, la explotación del torio podría ayudarnos a reducir ese período a unos cuantos cientos de años. El torio presenta una enorme dificultad de crear armas nucleares, no solo la cantidad de material que podría obtenerse para producir armas nucleares es mínimo, también sería muy peligroso para quienes intenten manipular estos materiales y por si fuera poco, la radiación que estos materiales emiten puede ser fácilmente detectada.
Los nuevos diseños LFTR (Liquid Flouride Thorium Reactor), disminuyen drásticamente el riesgo de accidentes, gracias a que el propio diseño, de forma automática, previene todo tipo de accidentes nucleares. En caso de que el reactor se sobrecalentara, el famoso “Tapón Congelado” vaciaría los contenidos del reactor en una serie de tanques de enfriamiento casi instantáneamente. Pero incluso en el supuesto que el reactor se saliera de control, como los contenidos del reactor funcionan a presión de ambiente, sabemos que los gases no se esparcirían por todas partes, si no que quedarían contenidos al área del reactor.
Después del accidente de Fukushima en 2.011, existió un antes y un después, en el sentido de que a partir de ese momento muchos países han reducido la capacidad nuclear en su mix energético, mientras que otros, tras un lapso de tiempo, lo han potenciado, considerando la energía de fisión como una alternativa a las energías fósiles, de forma semejante a las energías renovables.
El ejemplo más destacado es China, con una clara tendencia hacia el incremento del consumo de energía en el país y al mismo tiempo, una fuerte presión para eliminar de su mix las centrales de combustibles fósiles, para reducir la elevada contaminación atmosférica que sufre el país. Han tratado de asegurarse fuentes de energía que puedan apoyar dicho crecimiento, lo que ha propiciado fuertes inversiones en energía fotovoltaica e hidráulica, pero también ha dado un fuerte impulso a la energía nuclear, ya que mantiene la seguridad de suministro, debido a la no gestionabilidad de las renovables y el riesgo geopolítico de suministro de otras materias primas energéticas fósiles.
Además de seguir con su plan de construcción de centrales de III y III+ generación, protagonizaron el desarrollo tecnológico de la IV generación de reactores, fundamentalmente potenciando la tecnología LFTR. Desde el punto de vista chino, el torio tiene una ventaja particular: mientras que la China continental tiene un pequeño porcentaje del uranio mundial, tiene grandes cantidades de torio. Contar con una fuente abundante de energía sin emisiones de carbono, resolvería los dilemas energéticos del país de un plumazo.
El Instituto de Física Aplicada de Shanghái, ha puesto en demostración un reactor de sales fundidas con combustible líquido de torio con una potencia de 100 megavatios en 2.032, después del éxito de operación que ha demostrado en los últimos 3 años, el gobierno ha dado luz a un ambicioso plan de puesta en operación de al menos 2 nuevas plantas al año, hasta cubrir un 20% de sus necesidades básicas de energía del país.
El Sol es la fuente de energía más abundante en la Tierra. En menos de cinco minutos recibimos la energía suficiente para generar toda la demanda eléctrica mundial a lo largo de un año, recibimos miles de veces más energía solar que todas las reservas de combustibles fósiles conocidas y por descubrir. Ahora bien, el suministro eléctrico hay que garantizarlo a todas las horas del día.
La energía termosolar, en cualquiera de sus presentaciones: colectores cilindro-parabólicos, tecnología de receptor central con campo de helióstatos, centrales de reflectores lineales de Fresnel o tecnología de discos parabólicos con motor Stirling, es una tecnología gestionable, que permite adaptar la producción a la demanda. Aplicando sus sistemas de almacenamiento y la posibilidad de hibridación con su mismo equipo de generación (utilizando gas como combustible), puede garantizar su oferta, según el perfil de demanda que se solicite. Esta característica distintiva, unida a la reducción de costes que la tecnología termosolar está experimentando, aumentando el tamaño de las centrales en una economía de escala, con innovaciones en el diseño de sus componentes. Aprovechamos más la energía que recibimos, consiguiendo con todo ello un aumento de la productividad y una reducción de los costes de instalación.
Las nuevas células fotovoltaicas han evolucionado al ritmo previsto desde el 2.000, aumentando progresivamente su rendimiento y reduciendo considerablemente su coste unitario. Los desarrollos tecnológicos que en las últimas décadas se han añadido a la fabricación de células han sido muy variados, desde materiales con capacidad de “reciclar fotones” como la Perovskita, paneles en tándem compuestos de dos o más materiales combinados y que alcanzan eficiencias del 40%, nuevos materiales tales como nano partículas, grafeno, polímeros o los materiales orgánicos (OPCV). Todo ello permite: mejorar el rendimiento de los paneles fotovoltaicos al aprovechar mejor la radiación solar, obtención de nuevas características, como mayor flexibilidad, distinto color o distinto grado de transparencia. Esto ha permitido crear un importante abanico de tipo de paneles, que se adaptan mejor a cada una de las aplicaciones.
Las estrategias utilizadas para disminuir su coste, se basan principalmente en una producción masiva totalmente robotizada de paneles, utilizando capas de material cada vez más delgadas, nuevos materiales más económicos, obtención mediante procesos de impresión o mediante rociado de aerosoles y trabajo de la materia prima en laboratorios, frente a la extracción en minas como sucede actualmente con el silicio, métodos de obtención a una mayor escala.
Desgraciadamente el resto de componentes de una instalación fotovoltaica, lo que se conoce como el balance de costes del sistema: inversores para conectarse a la red, materiales para alojar el conjunto, pernos y tuercas para fijarlo a la estructura, la mano de obra de instalación, no han recorrido el mismo camino. Sin embargo el resultado final es muy positivo y hoy en día el coste de producir un Kw-Hr con fotovoltaica, es de los más bajos del mercado. Este avance tecnológico y de costes junto con el desarrollo de nuevas baterías, ha hecho imparable la utilización de la fotovoltaica en nuestras ciudades, pero sobre todo en el medio rural y muy especialmente en agricultura.
Frente a los aerogeneradores monstruos que la gran industria está instalando en el mar (offshore), con palas de 200 metros, turbinas con componentes superconductores, capaces de generar 50 Mw, como el SUMR50, aprovechando las ventajas de la gran escala y reduciendo considerablemente los costos unitarios de inversión. Los aerogeneradores de potencia intermedia denominados (de la clase 2 Megavatios), están adquiriendo un protagonismo considerable, debido a que son modelos que llevan en el mercado más de 20 años, tienen una tecnología madura con unos costes de desarrollo totalmente amortizados y están fabricados con nuevos materiales que les dan una eficiencia y manejo sin competencia.
Se componen de un nuevo generador eléctrico superconductor más ligero, por ello pueden obtener la misma potencia con menor velocidad de rotación. Al ser más ligeros, el multiplicador (el conjunto de engranajes que transmite y multiplica el movimiento de las palas al generador) no debe hacer tanto esfuerzo, eso permite reducir el peso del conjunto, así como el número de engranajes del multiplicador, lo que simplifica y aligera la estructura del conjunto. Por otro lado la simplificación de las normativas para su instalación y de las aplicaciones dedicadas, evitando la instalación de costosas líneas de transporte y distribución, ha contribuido a una reducción de costes de inversión y por lo tanto a una implantación masiva.
A medida que se fueron cerrando las obsoletas y contaminantes centrales de carbón, los poco rentables ciclos combinados y en determinados países las nucleares de Generación II y III que fueron agotado su ciclo de vida útil, se fueron sustituyendo con centrales termosolares, eólicas y fotovoltaicas, a la espera que los tan ansiados reactores de fusión entraran masivamente en el mercado. Añadido a esto la creación del mercado único de la energía europeo, impulso que el sur de España se convirtiera en la meca de la termosolar con la instalación de cientos de centrales gigantescas.
El mundo en su conjunto no puede despreciar ninguna fuente de energía, por tanto la iniciación de los reactores de fusión, la implantación de los nuevos reactores de fisión basados en torio, o las inmensas instalaciones termosolares, no han venido para sustituir a otras fuentes, sino para contribuir a realizar un Mix más adecuado a las necesidades de cada determinada zona o país. Por otro lado a nivel local, la energía renovable distribuida y de bajo impacto, trata de resolver problemas puntuales y es precisamente en agricultura y en el medio rural donde más se han desarrollado, dada su disponibilidad de espacio.
Otra fuente de energía a tener muy en cuenta desde el sector agrario, es la energía de la biomasa, esta se obtiene de los compuestos orgánicos mediante procesos naturales. Con el término biomasa se alude a la energía solar, convertida en materia orgánica por la vegetación, que se puede recuperar por combustión directa o transformando esa materia en otros biocombustibles, como alcohol, metanol o aceite. También se puede obtener biogás, de composición parecida al gas natural, a partir de desechos orgánicos.
Un hecho fundamental es que las plantas fijan solo entre un 0,1% y un 0,5 % de la energía solar que capturan a lo largo de un año, por lo que la conversión biológica de la energía solar resulta sumamente ineficiente. La producción de biocombustibles 1G (primera generación), demandan una enorme cantidad de tierras productivas y recursos hídricos, que en última instancia, compiten con la producción de alimentos. Pero hay una manera de producir los biocombustibles sin perjudicar la producción de alimentos (segunda generación 2G), obtener combustible de residuos agrícolas, forestales y de plantas no aptas para consumo humano producidas en tierras marginales. Otro método muy empleado actualmente (tercera generación 3G), es la utilización de algas y su gran facilidad de producción.
El etanol es líquido a presión y temperatura ambiente, de tal manera que es fácilmente almacenado, manipulado y transportado, su contenido energético es aproximadamente 2/3 con respecto a la gasolina o diésel. La producción de etanol por fermentación 2G ha permitido satisfacer en gran medida las necesidades energéticas del sector agrario, sin comprometer la capacidad de generaciones futuras para satisfacer sus propias necesidades energéticas.
En nuestro afán por colaborar con centros de investigaciones y universidades locales, propusimos la creación de un módulo automatizado, con la misma filosofía que habíamos puesto en marcha en los módulos de fijación de nitrógeno atmosférico y decidimos, diseñar y construir una instalación pre-comercial para la obtención de bioetanol 2G y fertilizante orgánico, utilizando como metería prima productos lignocelulósico agrícolas (paja de cereales), adaptando tecnologías existentes en un único proceso industrial compacto.
La filosofía del proyecto se basa en los siguientes principios: Los productos a obtener son bioetanol y fertilizante orgánico, de tal forma que la planta no produzca ningún residuo contaminante, por tanto no se prima la búsqueda de una mayor eficiencia en producir bioetanol, sino debe ser un compromiso entre ambos productos y residuos cero. La capacidad de producción será tal, que se suministre con materia prima en un entorno local (radio de 6 a 10 Km) y los productos finales se consumirán en la misma zona de producción. El proceso se basara en tecnologías sencillas, fáciles de implantar, con un alto grado de automatización, de mantenimiento sencillo y de inversión baja. La planta será propiedad de agricultores o cooperativas existentes en la zona, su manejo y operación será por cuenta de los mismos agricultores. Es un modelo repetible y se diseñó una instalación perfectamente modelizada.
Las ventajas del modelo propuesto son: Unas importantes sinergias, ya que el productor de la materia prima, el consumidor del producto final y el fabricante es el mismo sujeto. Se consiguió unos importantes ahorros energéticos, por consiguiente económicos y medioambientales, ya que los desplazamientos de las materias primas y de los productos finales son mínimos. Se buscaron tecnologías con un bajo impacto ambiental, que en general suelen ser más económicas, aunque quizá sean menos eficientes. El entorno de la planta fue independiente de los precios internacionales de los combustibles fósiles. Todo ello llevo a una mejora sustancial en la empresa agraria, ya que parte de la materia que se extrae se vuelve a la tierra.
El proyecto se desarrolló en apenas un año, ya que las tecnologías implicadas eran muy maduras y estaban operativas en multitud de plantas repartidas por todo el mundo, lo que realmente realizo el proyecto fue adaptarlas al tamaño que demandábamos, que como ya se ha dicho tratábamos de realizar micro fabricación totalmente automatizada y con residuos cero, esto nos llevó a diseñar un módulo capaz de procesar 25.000 Tn de paja, con un índice de utilización de la paja del 30 % el resto se picaba y se dejaba en las parcelas, se necesitaban 12.000 hectáreas y producíamos 5.000 Toneladas de bioetanol, suficientes para abastecer a la flota propia de vehículos y para comercializar en la zona, a los cada vez más escasos vehículos de combustión que quedaban.
El desarrollo de algas modificadas genéticamente, para crecer en presencia de contaminantes (tanto en el agua como en el aire) y con un mayor rendimiento de lípidos, fue una de las claves para que la producción de biocombustibles 3G ofreciera un beneficio, tanto para el medioambiente, como para la pequeña industria. Las microalgas poseen altas tasas de crecimiento y convierten energía solar, en energía química con una eficiencia 10-50 veces mayor que las plantas terrestres.
El proceso es relativamente sencillo: consiste en el cultivo de algas, las cuales no necesitan mucho cuidado, el escurrido de estas y posterior extracción de su aceite por prensado y acción de disolventes. Por último hay que transesterificar este aceite para transformarlo en biodiesel, del cual obtendremos además diferentes subproductos que aumentan la rentabilidad de los proyectos. Se usan microalgas debido a su facilidad de cultivo, al rendimiento por unidad de superficie que es 30 veces mayor a las oleaginosas y a su alto contenido en aceite, que es alrededor de un 80 % de su peso. Este biodiesel puede venderse al estado, a compañías energéticas, o en el caso de que queramos ahorrarnos la transesterificación para evitar un gasto inicial importante en maquinaria, se le puede vender directamente el aceite a refinerías.
Después del momento más álgido de las protestas anti-Fracking ocurridas entre 2.013 y 2.018, las aguas retornaron a su cauce y la cuestión del fracking, se empezó a analizar desde una posición menos visceral, con ello se inició un camino, en el que se analizaron con detalle las ventajas e inconvenientes, a la vista de los más de 100 millones de pozos, que existían en todo el mundo utilizando esta técnica, tanto para la extracción de combustible, de agua, como para la explotación de energía geotérmica de alta entalpia y de los nuevos avances, en productos de inyección menos contaminantes y biodegradables.
Se contemplaron los resultados de éxito que se habían producido en Alberta (Canadá) una de las zonas agrícolas más productivas de Canadá, con más de 21 millones de hectáreas arables y con más de 100.000 pozos de extracción de gas. A partir de este momento hubo una colaboración, entre las grandes empresas promotoras de la extracción con técnicas de fracking, de la administración sobre todo local y regional, de las pequeñas empresas y afectados locales. Se utilizó la ya conocida regla de marketing “ganar-ganar” para iniciar una explotación de este preciado recurso de una manera más racional.
Nuestro grupo de empresas se unió desde el principio a esta nueva coyuntura, sobre todo a raíz de los resultados positivos en gas no convencional y de los estudios previos que realizamos cuando pusimos en marcha el proyecto. El estudio geofísico de alta resolución 3D que se realizó con las nuevas técnicas sísmicas disponibles, nos dio una visión muy precisa, tanto de los recursos en gas de que disponía nuestro subsuelo, como de la disposición de las diferentes capas que lo componían, se establecieron con mucha precisión la ubicación de los acuíferos superficiales, por encima de los 1.000 metros, de las capas impermeables, margas principalmente y de las capas de pizarra donde se ubicaban los depósitos de gas.
Las técnicas del fracking han sido depuradas enormemente en las últimas décadas, sobre todo en lo concerniente a varias cuestiones vitales. Los estudios previos se han hecho mucho más precisos, gracias a las nuevas herramientas de medición desarrolladas últimamente, los geólogos e ingenieros estudian el tamaño, estructura y espesor de las formaciones geológicas de rocas, con sofisticados instrumentos sísmicos para determinar científicamente cómo y dónde la perforación debe realizarse. Las empresas se pusieron a trabajar con los ingenieros, biólogos, geólogos y expertos en medio ambiente, para obtener información sobre la profundidad y ubicación de todas las zonas de agua para asegurar que las protecciones adecuadas están puestas. Los productos a inyectar son menos dañinos y cumplen plenamente una exigente normativa.
En la solicitud de permisos, las empresas extractoras deben presentar proyectos en colaboración con las entidades locales, principalmente agricultura, ganadería, turismo rural. Su objetivo es velar para que todos los agentes sociales, desde la industria hasta los gobiernos locales pasando por la sociedad civil, participen en la definición de las prioridades energéticas de la zona. La agencia se encarga también, de ofrecer información objetiva y respuestas a las cuestiones más controvertidas, desde la protección y uso del agua, hasta cuáles son los pasos a seguir por parte de la industria, para asegurar la total protección del entorno. Por tanto el camino para la consecución de las autorizaciones de explotación, es complejo y garantista y casi siempre lleva aparejada la creación de una empresa local, que se encarga de planificar a corto y largo plazo todos los trabajos de extracción.
En el proceso de perforación se suelen realizar de 4 a 6 pozos, con el objetivo de optimizar el coste de la maquinaria de perforación, que es una de las principales inversiones. Se utilizan parcelas de 2,0 hectáreas, por lo que el impacto sobre la zona es mínimo, cada pozo está encerrado en múltiples capas de tubería de acero de grado industrial que está rodeado de cemento. Las aguas de retorno fruto de la estimulación hidráulica, se almacenan en tanques cerrados, que se envían a plantas de tratamiento de aguas industriales, para que allí se proceda a su depuración y su posterior reutilización.
Se acusa al fracking de contaminar acuíferos dedicados al abastecimiento humano. Ninguno de estos acuíferos se encuentra en profundidades superiores a los 400 metros, mientras que la perforación de hidrocarburos suele ejecutarse a partir de los 1.500 metros de profundidad. Por si esta distancia no se considera suficiente, hay que recordar que toda acumulación de hidrocarburos requiere la existencia de un estrato geológico superior impermeable, que haya impedido la migración a superficie del combustible fósil. Por otra parte, más del 90% del agua utilizada se recupera en superficie, es tratada adecuadamente para poder ser utilizada en el próximo pozo.
Después de la perforación, un pozo puede producir durante 20 a 40 años, si bien es cierto que su pico de producción se produce en los dos primeros años de extracción y luego decae rápidamente, proporcionando ingresos de largo plazo a los gobiernos y los propietarios de las parcelas y sostener puestos de trabajo locales. La torre de perforación y equipos correspondientes son temporales y se eliminan cuando el pozo está terminado. Áreas perturbadas por esta actividad se recuperan o restauran. Un buen pozo de fracking puede producir a lo largo de su vida útil entre 300.000 y 400.000 barriles equivalentes de petróleo.
El coste de un sondeo de fracking depende de su profundidad y de la longitud de la sección horizontal perforada. Puede oscilar en torno a 10-15 millones de dólares. Con una producción total acumulada por pozo de 300.000 barriles y un precio de 70 dólares por barril no hay que hacer grandes cálculos para determinar que el negocio es rentable. Se están desarrollando constantemente nuevas técnicas, para reducir el costo de la perforación, las tecnologías hacen que el índice de éxito en las perforaciones sea mucho más alto.
En uno de los asuntos que más se ha avanzado, es en la utilización de agua por pozo, ya que junto a la reducción del agua necesaria, se ha trabajado en el reciclaje de está llegando actualmente a cotas próximas al 100%. La perforación de un solo pozo de gas de esquisto requiere, en promedio, actualmente por debajo de los 1.000 m3 de agua, dependiendo de las condiciones geológicas. El proceso de fracking consume otros 6.000 m3 de agua por cada pozo, y el mantenimiento del pozo durante su vida útil, otros 1.000 m3 de agua por año, podríamos decir promediando estas cantidades a una vida útil de 15 años, podríamos necesitar 1.500 m3 de agua por pozo y año, si consideramos que una hectárea de regadío en cultivo en verde puede consumir unos 6.000 m3, vemos que no es una cantidad excesiva.