Manual de Energías Renovables

264
Energías Renovables manual de la materia Profesor: Ing. Jorge Rosasco. Alumnos Colaboradores: Ghione Carlos Sebastián Vergara Patricia Lavega Gonzalo Año 2011

Transcript of Manual de Energías Renovables

Page 1: Manual de Energías Renovables

Energías Renovables

    

 

 

manual de la materia Profesor: Ing. Jorge Rosasco.

Alumnos Colaboradores: Ghione Carlos Sebastián Vergara Patricia Lavega Gonzalo

Año 2011

Page 2: Manual de Energías Renovables

Programa de la Materia

Semana 1 y 2

Repaso de algunos conceptos físicos referidos a la temática - Repaso de Unidades - Parámetros termodinámicos - Escalas Termométricas - Trabajo Mecánico y calor. - Definición y Equivalencias - Definición de Energía - Evacuación general de la energía - Parámetros Fluidos Dinámicos – Presión – Densidad - Índice de Viscosidad - Flujos Exteriores sobre objetos - Concepto de sustentación aerodinámica e Hidrodinámica

Semana 3

Planeta Tierra – Formación – Evolución - Aspectos Básicos de la dinámica terrestre – Agua – Aire - Corteza y Subsuelo - Aspectos Físicos y químicos de presión y temperatura en altura y profundidad - La capa de Ozono

Semana 4 y 5

El hombre y la Atmosfera - Contaminación global del aire - Lluvia acida en bosques y áreas de cultivo - Emisión de residuos de combustibles fósiles - Efecto invernadero - Atenuación de efectos nocivos - Filtrado catalítico - Reinyección de contaminantes den subsuelo - Efectos positivos de estas acciones y daños colaterales.

Semana 6

El ciclo del agua - Mar – Atmosfera – Corteza. Mar - Contaminación de los océanos - Mal aprovechamiento de los recursos naturales - Mal aprovechamiento de los recursos Hidráulicos - Explotación de los recursos y subsuelos marinos.

Semana 7

Energía Eólica, concepto, Abordaje teórico - Particularidades de diseño de las turbinas Eólicas - Componentes básicos. - Optimización del recurso del aire. - Conversión de la energía Eólica en la electricidad - Granjas Eólicas - Impactos Ambientales

Semana 8

Energía, Marco Matriz y oleaje Oceánico - Concepto del abordaje teórico - Particularidades de diseño de turbinas para aprovechamiento del oleaje. - Turbina Wells - Desarrollos exitosos para el aprovechamiento de mareas oceánicas - Componentes básicos - Conversión de la energía Mareo Motriz y Oleaje en Electricidad

Semana 9

Energía Hidráulica y Mini Hidráulica - Concepto de Salto Hidráulico - Aplicación de las ecuaciones estudiadas para el análisis del aprovechamiento energético - Descripción general de las turbinas tipo Pelton y Francis - Emprendimientos Minihidraúlicos y domésticos.

Semana 10

Energía de La Biomasa, Biocombustibles y cultivos que se prestan para la fabricación de los mismos. - Cultivos energéticos, Bioalcoholes y Biogás. – Digestores - Otros biocombustibles de reciclado de aceites industriales y de alimentación. - Procesos de filtrados y recuperación - Beneficios sobre el impacto ambiental

Page 3: Manual de Energías Renovables

Semana 11

Energía Solar térmica, concepto, descripción del proceso - Procesos activos y pasivos. - Técnicas de almacenamiento y condiciones para un emplazamiento optimo - Ciclo nocturno de las plantas de aprovechamiento de calor

Semana 12

Energía del Hidrogeno - El Hidrogeno como recurso limpio e ilimitado. - Proceso de físico-químico de las celdas de combustible -Motores eléctricos para el impulso de vehículos. -Técnicas de almacenamiento - Precauciones y protecciones para la manipulación - Rendimiento

Semana 13

Energía Nuclear de Fisión - Proceso físico - Plantas nucleares - Técnicas de enriquecimiento del uranio - Aspectos tecnológicos de las plantas - Manejo de residuos Nucleares del proceso de Fisión - Centrales Nucleares de la Argentina - Proceso de Fusión Nuclear, Estado actual del desarrollo. - Países que trabajan en el desarrollo del proceso de Fusión. - Aspectos ilimitados de utilización - Concepto acerca del reactor experimental Tokamak - Concepto de Física de Altas Energías y Plasma

Semana 14

Aspectos Políticos, legislación a nivel Internacional, nacional y Jurisdiccional - El protocolo de Kioto, alcances antecedentes contenidos, propuestas y compromisos - Argentina como país suscriptor - Compromisos a desarrollar

Semana 15 y 16

Exposición y Evaluación de trabajos realizados por los alumnos Comentarios acerca de los trabajos presentados y debate grupal

Metodología de la Evaluación Final. La condición para la presentación es el requerimiento de la carpeta completa a nivel del contenido de las temáticas explicadas y los trabajos de investigación solicitados a los alumnos. El examen Final se tomara en un turno o en dos turnos desdoblados de acuerdo a la cantidad de alumnos que se presenten. La modalidad consistirá en 5 preguntas acerca de las temáticas expuestas en el curso que el alumno deberá desarrollar y explicar brevemente apelando a l síntesis conceptual y diagramas explicativos. o bien se adoptará el sistema Múltiple Choice de 12 preguntas con 5 opciones para tildar. Para la aprobación en esta modalidad se deberán responder correctamente 6 preguntas (nota 4) y se agregará un punto por cada pregunta adicional bien respondida. Tiempo de duración: 2 horas.

Page 4: Manual de Energías Renovables

FUNDAMENTOS TEÓRICOS 1:

SISTEMAS DE UNIDADES 1.1.- Concepto de Medida en Física. Toda medida en Física se define por con tres elementos: magnitud = cantidad x unidad La magnitud es el símbolo que aplicamos para definir una entidad física en particular, por ejemplo usamos L para longitudes, S para superficies, para volúmenes se usa una V cruzada con una línea,

_V ya que la V se asigna a velocidad, y así para todas las demás que vayamos encontrando, después del signo igual se coloca una cantidad numérica y una unidad que esta referida al sistema de unidades particular que estamos utilizando. por ejemplo: L = 10m (longitud igual a 10 metros) entre el 10 y el m se puede considerar que hay un signo de multiplicación, ya que las unidades se operan ente si matemáticamente y simplifican como entidades algebraicas; en esta simbología apreciamos los tres elementos indicados antes. Al leer esta nomenclatura sabemos automáticamente que estamos hablando de algo, alguna entidad física que mide diez metros. 1.2.- Sistemas de Unidades. utilizamos habitualmente los sistemas MKS (Metro - Kilogramo - Segundo) o Sistema Internacional SI, cgs, o (centímetro – gramo - segundo), Técnico y Anglosajón. las magnitudes fundamentales se consignan en la columna derecha del cuadro, pero existen muchas otras, de acuerdo al área que estemos estudiando, no obstante todas las magnitudes físicas pueden ser establecidas por una combinación de las principales, Masa, Longitud, tiempo (M, L, t) o Fuerza, Longitud, tiempo (F, L, t), por ejemplo trabajo mecánico es [Fuerza por Distancia], presión es [Fuerza sobre longitud al cuadrado] etc. depende de la columna en que estemos trabajando algunas de estas combinaciones tienen nombres especiales conmemorativos, por ejemplo [New x m] = Joule, [New / m2] = Pascal.

Magnitudes fundamentales

MKS o S.I. CGS Técnico Anglosajón

Fuerza Dyn kgF/kg Lib (libra) Masa Kg. g UTM Slug Longitud m cm m pie Tiempo seg seg seg seg Temperatura °K °K °K °F Trabajo mecánico Joule erg Kgf*m Lib*pie Masa y fuerza está vinculados a través de la segunda Ley de Newton o Principio de inercia, cuando una fuerza es aplicada sobre una masa el efecto es producir una aceleración, es decir un movimiento acelerado, lo que significa en términos físicos que la velocidad del cuerpo se va a incrementar en una cantidad fija cada segundo indicada por el valor de la aceleración, matemáticamente esto se indica como.

. FF m a am

= → =

fuerza y aceleración son magnitudes vectoriales pero cuando se trata de un movimiento sobre un eje o una línea recta se pueden considerar cantidades escalares como se indica en la fórmula, el sistema internacional de unidades es el más usado para propósitos científicos, entonces la fuerza viene expresada en Newtons, de acuerdo a:

Page 5: Manual de Energías Renovables

  2

[ ] [ ][ ]2mNew Kg

seg=

para el sistema c.g.s. las unidades son:

[ ] [ ][ ]2cmdyn g

seg=

U.T.M La unidad técnica de masa (u.t.m.) es la unidad de masa del Sistema Técnico de Unidades y representa la masa de un cuerpo que adquiere la aceleración de 1 m/s² cuando se le somete a la acción de una fuerza de un kilogramo-fuerza o kilopondio. Esta unidad de masa no tiene símbolo reconocido, por lo que se utiliza la abreviatura u.t.m. Equivalencias 1 u.t.m. = 9,806 65 kg (SI) 1 u.t.m. = 0,672 198 slugs S.L.U.G Slug es una unidad de masa en el sistema de unidades FPS o sistema anglosajón. El slug se define como la masa que se desplaza a una aceleración de 1 ft/s² cuando se ejerce una fuerza de una Libra fuerza sobre ella.

Esta unidad se utiliza para medir la masa, cuando la fuerza se mide en libras- fuerza. Dina En física, una dina (de símbolo dyn) es la unidad de fuerza en el Sistema CGS. Equivale a 10 μN, o lo que es lo mismo, la fuerza que, aplicada a una masa de un gramo, le comunica una aceleración de un centímetro por segundo cuadrado, es decir: 1 dyn = 1 g· 1cm/s² = 10(E−5 kg·m/s²) = 10 µN Tradicionalmente, los dina /centímetro se ha usado para medir tensiones superficiales. Cuando se aplica este sistema para medir trabajo mecánico o energía que se define como fuerza por distancia, W= F.d, la unidad en cgs es ergio de manera que: Equivalencias 1 ergio= 1 dyn*cm PIE El pie es una unidad de longitud de origen natural (basada en el pie humano), ya utilizada por las civilizaciones antiguas. El "pie romano", o pes, equivalía (como media) a 29,57 cm; el "pie carolingio" (o anteriormente denominado pie drusiano o drúsico [pes drusianus]) equivalía a nueve octavos del romano, esto es, aproximadamente 33,27 cm; y el "pie castellano" equivalía a 27,86 cm. Actualmente el pie ha sido sustituido en casi todo el mundo por las unidades del Sistema Internacional (SI), salvo en el uso corriente en algunos países anglosajones. Es también la unidad de medida empleada en aeronáutica para hacer referencia a la altitud. Equivalencias 1 pie = 0,33 yardas 1 pie = 12 pulgadas 1 pie = 30,48 cm 1 pie = 0.3048m

[]

Page 6: Manual de Energías Renovables

FUNDAMENTOS TEÓRICOS 2: VARIABLES TERMODINÁMICAS AMBIENTALES

2.1.- Definición de Sistema. Una cantidad definida de sustancia fluida (líquida o gaseosa) encerrada en un recipiente fijo o con alguna pared móvil, define un “sistema” o “masa de control termodinámico”, el sistema puede estar estático o moverse, cambiar de volumen o deformarse pero su masa permanecerá constante. Esto constituye el primer principio de conservación, o principio de conservación de masa: “La masa contenida en un sistema cerrado permanece constante”. También los sistemas pueden ser abiertos o circulantes, en este caso se define un “volumen de control” por el cual el fluido circula, por ejemplo un tramo de tubería entre dos secciones, con desvíos codos reducciones etc. un grafico esquemático de sistema cerrado y abierto se da en la Fig.2_1,

Fig.2_1

En la misma se observa que los sistemas cerrados pueden intercambiar energía (en forma de calor y trabajo mecánico) pero su masa interna permanece constante. En los sistemas abiertos se intercambia masa y energía a través del volumen de control, nosmalmente los sistemas abiertos que interesan estudiar son a “regimen permanente” esto significa que la masa que entra es igual a la que sale por unidad de tiempo, y el valor de la masa que en todo instante ocupa el volumen de control es la misma. Los sistemas así definidos poseen propiedades o variables termodinámicas, siendo las principales.

presión p volumen _V temperatura T densidad y su inversa Volumen específico ρ, v viscosidad μ índice de refracción n etc.

a la derecha se han representado las nomenclaturas o símbolos que se utilizan para estas variables, en general toda variable en física tiene asignada un símbolo que lo representa.

Page 7: Manual de Energías Renovables

  2

El sistema esta en equilibrio cuando en cada lugar o punto del espacio que lo contiene las propiedades poseen un valor que no varia con el tiempo, aunque pueden ser distintas de un punto a otro; (por ejemplo el agua de una pileta de natación puede tener una temperatura de 23 grados a 5 cm de profundidad y 12 grados a 2 metros de profundidad, en una dada vertical, pero si en esos niveles la temperatura se mantiene igual el sistema está en equilibrio). Cuando el sistema pasa de un estado de equilibrio a otro se dice que hay una “evolución”. Los fluidos tienen la particularidad que cualquiera de las variables termodinámicas, por ejemplo una propiedad genérica Xi, puede siempre ser expresada como una función de la presión y la temperatura o sea matemáticamente:

( , )X f p Ti = estas ecuaciones de vínculo se denominan “Ecuaciones de Estado”. Cada variable de termodinámica tiene una función de estado diferente, pero todas son funciones de la presión y la temperatura. Para el aire, que nos interesa particularmente, cuando se lo considera un gas perfecto, se aplica la ecuación de estado básica de la termodinámica que liga presión volumen y temperatura: p RTρ= o bien lo que es lo mismo: pv RT=

en estas ecuaciones R es una constante que depende de cada sustancia, por ejemplo para el aire vale: 0.287 [KJoule / Kg ºK] y ρ es la densidad del aire que varía con la altura, poro a nivel del mar y a 20ºC su valor es: 1.29 Kg / m3 2.2.- Presión y presión atmosférica. La Presión para un fluido en general se define como la fuerza por unidad de superficie que ejerce un líquido o un gas perpendicularmente a dicha superficie. para un punto cualquiera dentro de la masa de un líquido o un gas es igual e independiente de la dirección en que se coloque la superficie (Principio de Pascal). La presión en algunos ámbitos técnicos se mide en atmósferas (atm), 1(atm) = 1Kgf /cm2, pero es una medida que no responde a un sistema de unidades concreto en particular. En el Sistema Internacional de unidades (SI), la presión se expresa en Newtons por metro cuadrado; 1 Newton /m2 y a esta unidad se le da el nombre de 1 pascal (Pa). La presión atmosférica es en particular el peso de la columna de aire en altura hasta el comienzo del vacío por unidad de superficie. con propósitos prácticos se considera que el vacío comienza a los 80 Km de altura, aunque el aire muy enrarecido se encuentra hasta los 400 Km aproximadamente donde se considera que comienza el espacio exterior. El valor de la presión atmosférica en condiciones normales a 15ºC y a nivel del mar vale 101.325 Pa, y equivale a 760 mm de columna de mercurio en un barómetro convencional. 2.2.1 Presión del agua en profundidad. Cuando un líquido cualquiera por ejemplo agua forma una interfase con el aire, la presión por debajo de la superficie del líquido se establece a través de la ecuación fundamental de la hidrostática:

. .( )p p g haguao ρ= + [1]

Page 8: Manual de Energías Renovables

  3

en esta fórmula p es la presión que se desea determinar (en pascales), po, es la presión atmosférica sobre la superficie del agua (en pascales), ρ agua) es la densidad del agua (1000 Kg/m3), g la aceleración de la gravedad, (9.81 m / seg2) y h la profundidad debajo de la superficie indicada en metros. La unidad de presión (New/m2) se denomina: (pascal). 1.3 Experimento de Torricelli.

Fig.2_2

Se realiza en forma muy sencilla, primero se llena un tubo de vidrio (no capilar) con mercurio, el tubo es cerrado en su parte superior y abierto en su parte inferior, cuando se expone la parte abierta sobre la cubeta que también contiene mercurio, se produce el equilibrio de presiones entre la atmósfera que presiona como un pistón tratando de hacer ascender al mercurio por el tubo y el peso propio del mercurio que presiona hacia abajo tratando de derramarse en la cubeta, el mercurio desciende hasta que se establece el equilibrio cuando alcanza 76 cm = 760mm, es entonces el valor de la presión atmosférica leída como altura de mercurio. Debe observarse que en la parte superior del tubo había mercurio, cuando el mercurio baja por el tubo esa zona no contiene nada y es ahora vacío. Al aplicar la ecuación [1] a este caso para la presión en profundidad a de la columna de mercurio, tomando como superficie libre el enrase superior (que por arriba tiene vacío) quedará:

. . 0 13.595[ / 3] 9.81[ / 2] 0,760[ ] 101.330[ / 2]( )p p g h Kg m m seg m New mo Hgρ= + = + × × =

o lo que es equivalente: 101,33 KPa, que también es equivalente a 1[atm]. 2.3.- Temperatura. La Temperatura en un fluido es una medida relativa del estado de agitación y vibración de las moléculas constituyentes que definen una propiedad llamada “Energía Interna”, es relativa, ya que establecemos para su medida una comparación usando un instrumento llamado ”Termómetro”. La temperatura se asocia a las nociones comunes de caliente o frío. Para un objeto más "caliente" que otro se considera que tiene una temperatura mayor, y si es más frío, se considera que tiene una temperatura menor.

Page 9: Manual de Energías Renovables

  4

En física, se define como una magnitud escalar relacionada con la energía interna de un sistema termodinámico. Más específicamente, está relacionada directamente con la parte de la energía interna conocida como "energía sensible", que es la energía asociada a los movimientos de las partículas del sistema, sea en un sentido traslacional, rotacional, o en forma de vibraciones. A medida de que sea mayor la energía sensible de un sistema, se observa que éste se encuentra más "caliente"; es decir, que su temperatura es mayor. En el caso de un sólido, los movimientos en cuestión resultan ser solamente las vibraciones de las moléculas en sus sitios cristalinos fijos dentro del sólido. En el caso de un gas ideal monoatómico se trata de los movimientos traslacionales y choques de sus moléculas (para los gases multiatómicos los movimientos rotacional y vibracional deben tomarse en cuenta también). Dicho lo anterior, se puede definir la temperatura como la cuantificación de la actividad molecular de la materia. La temperatura se mide con termómetros, los cuales pueden ser calibrados de acuerdo a una variedad de escalas que dan lugar a distintas unidades de medición de la temperatura. En el Sistema Internacional de Unidades, la unidad de temperatura es el grado Kelvin (K), y la escala correspondiente es la escala Kelvin o escala absoluta, que asocia el valor "cero kelvin" ( 0 K) al "cero absoluto", como veremos luego. Sin embargo, fuera del ámbito científico el uso de otras escalas de temperatura es común. La escala más extendida es la escala Celsius (antes llamada centígrada); y, en mucha menor medida, y prácticamente sólo en los Estados Unidos, se utiliza la escala Fahrenheit. También se usa a veces la escala Rankine (°R) que establece su punto de referencia cero en el mismo punto de la escala Kelvin, o sea el cero absoluto, pero con un tamaño de grado igual al de la Fahrenheit, y es usada únicamente en Estados Unidos, y sólo en algunos campos de la ingeniería. 2.3.1.- Ley “cero” de la Termodinámica. Si encerramos 1Kg de un gas y lo sometemos a una presión constante po y lo mantenemos inicialmente a 0ªC el gas ocupará un volumen vo , y este es un volumen específico porque esta

referido a 1Kg de gas, siendo entonces la unidad de [ 3 / ]v m Kgo , esto está representado en la Fig.2_3, siguiente.

Si ahora comenzamos a disminuir la temperatura del recipiente lentamente, manteniendo la presión constante, veremos una respuesta del sistema en la cual el volumen ocupado por el Kg de gas va disminuyendo acorde disminuye la temperatura, hasta que hay una temperatura en la que el gas ocupa volumen “cero” o sea alcanza cero en la escala de ordenadas, esta temperatura es -273ªC, el pistón se “fondea” contra la base del recipiente. La evolución describe una recta decreciente hasta que el volumen específico es cero a -273ªC.

Fig.2_3 

Page 10: Manual de Energías Renovables

  5

Cuando el experimento se repite para otras presiones iniciales se observan otras rectas como se indica en la Fig.2_4, pero todas ellas convergen a cero para la misma temperatura -273ºC en la que se considera que no hay movimientos moleculares de ningún tipo “las moléculas están muertas en el fondo” . Este comportamiento llamado ley cero de la Termodinámica, permite determinar diversas escalas, a condición de que los valores entre dos temperaturas sigan una ley lineal.

Fig.2_4 2.3.2.- Escalas Termométricas. Definen valores de Temperatura mediante variaciones lineales o sea proporcionales entre dos estados bien definidos que normalmente se toman como: - punto de fusión del hielo. - ponto de ebullición del agua liquida. Estas escalas relativas se presentan en la Fig.2_5, los segmentos permiten fácilmente obtener las equivalencias entre dos sistemas termométricos cualquiera. Por ejemplo para pasar una temperatura Centígrada a Fahrenheit o recíprocamente: Aplicamos proporciones entre los segmentos desde la temperatura deseada (por ejemplo una que está entre 0 y 100 ºC), tomamos el valor del segmento hasta el punto de fusión del hielo, y definimos la proporción en relación al segmento completo entre los puntos de fusión y de ebullición:

Fig.2_5.

Page 11: Manual de Energías Renovables

  6

entonces resultaría:

0 32100 180

180 932 32100 5100 5( 32) ( 32)180 9

F

F

F F

T Tc

T Tc Tc

Tc T T

− −= →

= + = +

= − = −

Como ya se dijo, las escalas termométricas definen valores de temperatura cuya referencia se toma para el punto de fusión del hielo y para el punto de ebullición del agua líquida. Una escala termométrica vendrá definida por los valores de temperatura asignados a los dos puntos, aceptando una variación lineal de la magnitud termométrica con la temperatura. Hay tres tipos de escalas, la escala Celsius, la escala Kelvin y la escala Fahrenheit.

Page 12: Manual de Energías Renovables

  7

[]

 

Page 13: Manual de Energías Renovables

FUNDAMENTOS TEÓRICOS 3:

EL CONCEPTO DE ENERGÍA 3.1.- Energía contenida en un sistema fluido.

De las clases de Física Básica conocemos el concepto de energía para un cuerpo sólido como la capacidad de realizar un trabajo mecánico, por ejemplo un martillo en alto a punto de descargar un golpe posee un nivel de energía que llamamos potencial porque depende de la situación en altura a la superficie donde se descargará el golpe, a medida que el martillo cae y acelera, esta energía potencial se va transformando en energía de movimiento o cinética; cuando alcance la base la potencial será cero y la cinética será máxima, pero la cantidad total de energía disponible al principio no cambió, hubo una transformación entre distintos tipos de energía sin cambio cuantitativo, esto se denomina “principio de conservación de la energía” es un principio troncal de la naturaleza.

Cuando el martillo impacta realiza un trabajo mecánico, por ejemplo hunde un clavo, rompe una baldosa etc. y una parte se transforma en calor y otra menor en sonido, el balance de energía se ha transformado en trabajo mecánico calor y sonido que son formas equivalentes de la misma.

Para las ciencias ambientales, nos interesa incursionar un poco en el terreno de la Energía de los sistemas fluidos, ya sean estos líquidos o gases, porque varios de los fenómenos y aprovechamientos que vamos a estudiar dependen de la evolución del aire y del agua en mecanismos ideados para extraer esa Energía.

Para los fluidos, el principio de conservación se enuncia diciendo que: “La Energía contenida o almacenada en un sistema cerrado aislado se mantiene constante” el sistema aislado se definió en el punto [2.1].

Por otra parte para un fluido (líquido o gas) la energía contenida o almacenada se compone de tres partes:

Energía Cinética: 1 22

E M Vc sist= ×

Energía Potencial: E M g hp sist= × ×

Energía Interna: Ei

Imagine un sistema Termodinámico como el de la Fig.2_3, que repetimos acá:

Fig.3_1

Es un dispositivo que conforma un sistema cerrado y aislado apoyado en una mesa de laboratorio, como no vuela por el aire (a menos que se lo arrojemos a alguien por la cabeza) está en reposo (velocidad = 0) respecto a su plano de referencia (la mesa) y tampoco tiene altura respecto de ella (h=0), por tanto sus componentes de Energía Cinética y Energía

Page 14: Manual de Energías Renovables

  2

Potencial son nulas, quedando solamente su Energía interna, así decimos que los sistemas Termodinámicos cerrados solamente poseen Energía interna.

Si en la muestra de fluido contenido por el sistema no se ponen de manifiesto cambios de estado, reacciones químicas o reacciones nucleares, entonces la Energía interna solamente depende de la Temperatura del fluido contenido; si la temperatura es grande, tendrá más energía interna que si la Temperatura es menor.

Si el sistema no está aislado con respecto al Medio Ambiente que lo rodea, entonces puede intercambiar Energía con el mismo, estas energías que puede intercambiar se denominan “Energías de Transición” son:

Calor. y

Trabajo Mecánico.

3.2.- Calor.

El Calor es algo intangible, no es una entidad física, sino un flujo de variación energética que se pone de manifiesto si hay una diferencia de Temperaturas entre un sistema y su medio ambiente asociado, no es algo cuya unidad pueda conservarse en un laboratorio de pesas y medidas.

Si el Medio Ambiente (MA) tiene una T mayor que el Sistema, el calor pasa del (MA) al Sistema, y a la recíproca si el sistema tiene mayor T que el (MA) que lo rodea.

La cantidad de calor que interviene en un proceso, se mide por algún cambio que acompañe el proceso y la unidad de calor se define como el calor necesario para producir una transformación tipo conocida.

Esta transformación consiste en aumentar 1ºC la Temperatura de 1gr de masa de agua pura en el intervalo (14.5 a 15.5ºC) y se define como 1cal (caloría pequeña indicada en minúscula) y su múltiplo es 1 Cal (o gran caloría que equivale a 1Kcal o sea 1000 cal).

La unidad en el sistema Anglosajón es 1BTU (British Thermal Unit) se define como la cantidad de calor que requiere 1 libra. masa de agua para que la Temperatura se eleve 1ºF , la equivalencia es:

1BTU = 252 cal = 0.252 Cal.

Es esencial que la diferencia que la diferencia entre cantidad de calor y Temperatura sea interpretada claramente, por ejemplo si tenemos dos recipientes con 1Kg y 2 Kg de agua a igual T, si se requiere aumenta la T de ambos a 90ºC, la T final será la misma, pero para lograrlo se requiere aplicar a cada recipiente cantidades diferentes de calor, Fig. 3_2.

 

  

Q 2 

Q 1 

To=20ºC   Tf =90°CTo=20ºC   Tf =90°C

Page 15: Manual de Energías Renovables

  3

Fig.3_2

la fórmula de aplicación para hallar estas cantidades de calor necesarias es:

( )Q c M T Tosist f= −

Q es la cantidad de calor [cal]

c es una constante llamada calor específico de la sustancia [cal / g ºC]

Tf es la temperatura final requerida.[ºC]

To es la Temperatura inicial del sistema [ºC]

Msist es la masa del sistema [Kg]

el calor de c para el agua es 1 [cal / g ºC], o 1 [Kcal / Kg ºC] entonces las cantidades de calor requeridas para los recipientes de la Fig.3_2 es:

primer recipiente

( ) 1[ ] 1000 [90º 20º ] 701 ºcalQ c M T T gr C C Kcalosist f gr C

= − = × × − = [3.2.1]

análogamente, segundo recipiente:

( ) 1[ ] 2000 [90º 20º ] 1402 ºcalQ c M T T gr C C Kcalosist f gr C

= − = × × − =

En lo gases el calor específico no es una constante absoluta, sino que también depende de la proceso por el cual se le da calor al sistema (en este caso una masa gaseosa). Normalmente se define un calor específico cuando se hace un calentamiento a presión constante (embolo suelto en la Fig.3_1) denominado cp y otro con el embolo trabado que es un proceso a volumen constante cv .

3.3.- Trabajo Mecánico.

En la vida diaria el concepto de Trabajo se aplica a cualquier tipo de actividad que requiera un esfuerzo muscular o intelectual, sin embargo en Física se emplea con un sentido más restrictivo.

En referencia a la Fig.3_3, si se aplica una fuerza a un cuerpo sólido con un ángulo α con la horizontal, de manera que Fy compense exactamente al peso, o sea se cumpla que:

sinF G Fy α= =

Fig.3_3

Page 16: Manual de Energías Renovables

  4

hemos logrado de esta forma neutralizar el peso del objeto, entonces la fuerza de rozamiento, que viene dada por:

( ) 0F Gr μ= − =

ahora resulta nula porque hemos neutralizado al peso con una fuerza igual y opuesta. entonces como no hay roce, no hay perdida de energía en calor, y se produce un trabajo mecánico neto sobre el cuerpo debido a la componente x de la fuerza, si el objeto se desplaza una distancia:

( )2 1d x x= −

siendo x1 su posición inicial y x2 su posición final, el trabajo mecánico que denominaremos con la letra W de (work en inglés), viene dado por:

( )2 1W F d F x xxx= × = −

la unidad de trabajo, (fuerza x distancia) viene dado en el sistema MKS en :

[New x metro] = [Joule] y en [cgs] por [dyn x cm] = [ergio].

3.4.- Equivalente Mecánico del Calor.

Calor y Trabajo mecánico son formas de Energía de transición equivalentes, ya dijimos que el rozamiento no compensado producido por el trabajo que ejerce una fuerza se transformará en calor y calentará al cuerpo que se desliza y a la superficie sobre la cual se desliza.

Como el Trabajo Mecánico se mide en [Joules], [ergios] o [Kgf m], debemos buscar una equivalencia con el calor que se mide en [cal], [Kcal], o [BTU], esto lo determinó el propio James Prescott Joule a través de un experimento famoso cuyo principio se observa en la Fig.3_4 siguiente:

Fig.3_4

Se trata de un recipiente aislado, que contiene 1 Kg de agua, un termómetro, y un dispositivo giratorio de paletas y su mecanismo asociado dentro del mismo.

Con la manivela un par de cordeles se enrollan sobre un carretel, este efecto hace subir las pesas iguales de masas m a una altura h sobre el nivel de referencia; supongamos que en el recipiente hay 1Kg (1 litro) de agua pura y que el termómetro inicialmente marca 15.5º C, Joule ajustó el experimento cambiando las alturas y soltando la manivela, la caída cuya energía total era:

Page 17: Manual de Energías Renovables

  5

(2 )E m g h=

dependía de la altura inicial de las masas; la caída de las masas, producía roce en las paletas que a su vez incrementaban la Temperatura del agua.

Cuando obtuvo exactamente 1ºC de incremento, o sea cuando leyó en el termómetro 16.5ºC, calculó la energía empleada de caída que resultó ser 4.18 [New x m] esto resulta ser la equivalencia entre el calor y el trabajo mecánico, en homenaje a la unidad

[New x m] se la denominó [Joule].

entonces:

1cal = 4.16 Joules

1Kcal = 1Cal= 4180 Joules

1BTU = 778 [lib pie]

otras definiciones importantes son:

capacidad calorífica (indicada con C mayúscula)

( )12QC Q C T C T TT

= → = Δ = −Δ

calor específico (indicado con c minúscula).

( )12Qc Q c M T c M T TsistsistM Tsist

= → = Δ = −Δ

3.5.- Calor de Combustión.

En muchos procesos referidos a Energías Renovables, vamos a ver que se utilizan calderas de biomasa, es decir una caldera convencional se adapta para usar como combustible en lugar de gas oil, fuel oil, petróleo o carbón, utilizar biomasa renovable como marlos de maíz o leña. En estos casos es importante poder conocer cuanto calor puede ser extraído por Kg de sustancia quemada.

Justamente se denomina Calor de Combustión de una sustancia, a la cantidad de calor liberada por unidad de masa, si la sustancia es sólida o líquida [Kcal / Kg], o por unidad de volumen si es gaseosa [Kcal / m3], para unidades anglosajonas, sería [BTU / Lib] ó [BTU /pie3].

algunos calores de combustión típicos son:

gas natural: 9800 a 23000 [Kcal / m3],

alcohol etílico: 7700 [Kcal / Kg]

Fuel Oil: 11000 [Kcal /Kg]

naftas: 10000 [Kcal /Kg].

3.6.- Calor de Reacción.

Es el que se produce entre Combustible y Comburente (típicamente aire) durante una reacción química de quemado, desde el punto de vista del ambiente, las que más nos interesan son:

Page 18: Manual de Energías Renovables

  6

C + O2 → CO2 + 8140 Kcal / Kg de C

es una reacción exotérmica (es decir produce calor y lo cede al medio Ambiente) cuando se combustiona carbono como componente de otros elementos más complejos por ejemplo corteza de árboles.

2C + O2 → 2CO + 2440 Kcal / Kg de C

es una combustión incompleta del carbono que produce monóxido de carbono, que es un gas de invernadero y además tóxico.

2H + O2 → 2H2O + 34400 [Kcal / Kg de H2]

Esta última es una combustión muy energética, por ejemplo la que se utiliza en las naves espaciales (Space Shuttle) y ecológica en pequeñas dosis ya que produce vapor de agua, pero en grandes cantidades el vapor de agua que es también un gas de invernadero y sería perjudicial para el ambiente.

[]

 

Page 19: Manual de Energías Renovables

FUNDAMENTOS TEÓRICOS 4: ENERGÍA CONTENIDA EN UN SISTEMA FLUIDO CERRADO.

4.1.- Clasificación de los Sistemas.

Los sistemas fluidos se clasifican en tres grupos:

Sistemas Cerrados.

Sistemas Abiertos a Régimen Permanente (SARP).

Sistemas Abiertos a Régimen No-Permanente.

Nosotros estudiaremos brevemente y resumidamente los dos primeros, que son los que más frecuentemente se presentan en Aprovechamientos Ambientales.

4.2.- Sistemas Cerrados.

Son aquellos en los que la masa de materia fluida contenida (típicamente un gas) está confinada. Habitualmente el confinamiento se hace en un dispositivo cilíndrico, cuya parte superior está cerrada por un pistón móvil que es básicamente un tapón hermético pero que puede desplazarse hacia arriba o hacia abajo dentro de la recámara del cilindro, un esquema se muestra en la Fig.4_1.

Fig.4_1

Supongamos que dentro del cilindro hay una determinada masa de un gas cualquiera a una dada Temperatura, el peso exterior y la presión atmosférica definirán una presión que el gas equilibrará con una presión interior definiendo un volumen determinado, y una condición de Equilibrio.

El pistón puede ascender por dos motivos, ya sea disminuyendo el valor del la pesa, con lo cual la presión disminuirá y el equilibrio se producirá a una altura mayor, o bien manteniendo la pesa original pero incrementando la presión interior del gas, por ejemplo agregándole Calor desde el exterior e incrementando su Temperatura, o haciendo ambas cosas a la vez.

También opuestamente podemos hacerlo descender, aumentando el valor de la pesa o bien extrayendo calor del gas desde el exterior (por ejemplo con un baño de hielo) y enfriando el gas o ambas acciones juntas.

Aumentar el valor de la pesa incrementaría la presión interior, si suponemos que el peso total sobre el gas es la suma de la pesa más el peso propio del pistón y a este valor sumado lo llamamos G, el valor de la presión aplicada es P = G/A siendo A el área del pistón, si con la nueva pesa de valor mayor el peso total es ahora G1, la nueva presión se incrementará a P1=G1/A.

Page 20: Manual de Energías Renovables

  2

Supongamos que la pesa se mantiene constante, subir y bajar el pistón dependerá en este caso del intercambio de calor con el medio ambiente. Si se agrega calor el pistón subirá o si se extrae calor el pistón bajará.

Las transacciones de calor con el medio ambiente se consideran positivas cuando el calor es incorporado al sistema, y negativas cuando el calor es quitado del sistema.

También observamos que el pistón esta haciendo trabajo mecánico cuando se mueve, ya que está moviendo un peso conjunto G una distancia d hasta retomar el equilibrio del sistema. Las transacciones de trabajo W =G d, se consideran positivas cuando el pistón asciende ya que está el sistema entregando trabajo al medio ambiente; y se considera negativo en el caso contrario ya que es el sistema el que comprime y entrega trabajo al sistema.

Como vimos antes en el punto 3.1, para un sistema cerrado la Energía Total del sistema esta constituida solamente por la Energía interna, entonces, entre dos estados de equilibrio como los descritos, donde tenemos un estado final y un estado inicial, la diferencia de la Energía Almacenada solamente depende de la diferencia o el cambio de la energía Interna, matemáticamente:

2 1 2 1E E E Ea a i i− = −

4.3.- Primer Principio de la Termodinámica aplicado a sistema cerrado.

Utilizaremos ahora el resultado anterior, para definir el primer principio de la Termodinámica o principio de conservación de la energía para un sistema cerrado, que no es más que la descripción de los fenómenos mencionados en 4.2.

“El calor suministrado a un sistema cerrado se emplea en aumentar la energía interna del sistema entre dos estados, realizar un trabajo mecánico, o ambas cosas a la vez”. Escrito en forma matemática sería:

[ ]2 1Q E E Wi i= − + [4.3.1]

que también se puede escribir cambiando el trabajo mecánico W al primer miembro como:

[ ]2 1Q W E Ei i− = − [4.3.2]

cuya descripción en palabras sería: “El balance del calor suministrado a un sistema cerrado y el trabajo intercambiado por el sistema con el Medio Ambiente es igual a la diferencia de la energía interna almacenada por el sistema entre el estado final y el inicial”.

Los signos positivos asignados a Q y W obedecen a la convención indicada en la Fig.4_2.

 

Fig.4_2 

Page 21: Manual de Energías Renovables

  3

4.4.- Proceso sobre un sistema cerrado de paredes aisladas.

Consideremos ahora que las pared del cilindro está aislada térmicamente de manera que la única superficie no aislada sea la base de apoyo que supondremos que es una planchita que se puede ya sea calentar o enfriar a voluntad, de manera que desde la base se puede agregar calor al gas contenido si es calentada y a la recíproca extraer calor del gas contenido si es enfriada; también se agregó un Termómetro T (Fig.4_4).

Fig.4_4

Si almacenamos en el dispositivo una masa M de un gas, por ejemplo aire, registramos su temperatura inicial T1, para esta temperatura el gas posee una presión tal que está equilibrando la presión atmosférica el embolo y la pesa, en un volumen inicial _

1V , asumimos también que:

a.- el embolo tiene roce despreciable con la pared del cilindro.

b.- el gas cumple aproximadamente con la ley de los gases perfectos que viene dada por:

_pV M RTsist=

en la ecuación aparecen como variables la presión , el volumen y la Temperatura que debe estar indicada en ºK, en ella, R es una constante que se denomina constante particular del gas, en este caso aire, por ejemplo:

287 / º 0.0685 / ºR Joule Kg K Kcal Kg Kaire = =

Si hacemos una representación de esta ecuación, Fig.4_5, quedan definidas hipérbolas equiláteras de T=cte, el estado inicial que hemos indicado más arriba, queda representado por el punto (A) del diagrama.

Page 22: Manual de Energías Renovables

  4

Fig.4_5

Primer Ensayo.

Trabamos el émbolo con una clavija para que no pueda moverse, y agregamos calor calentando lentamente la planchita de la base hasta que la temperatura del gas leída en el termómetro sea T2, como el volumen fue obligado a mantenerse constante en el valor _

1V , se realizó lo que se denomina una evolución a Volumen constante, esta evolución está indicada por la flecha que va desde A hasta B en la Fig.4_5, observe que esta evolución esta sobre una vertical donde el volumen inicial se ha mantenido constante; si aplicamos la ecuación del primer principio [4.3.1]:

[ ]2 1Q E E Wi i= − + [4.4.0]

pero W = 0 porque el pistón se mantuvo quieto y no se realizó entonces trabajo mecánico, por lo que lo eliminamos de la ecuación y nos queda:

[ ]2 1Q E E Eii i= − = Δ [4.4.1]

o sea solamente una variación de la energía interna, y por la definición de calor específico ecuación [3.2.1]:

( )Q c M T Tosist f= −

que en nuestro caso sería:

( )2 1Q c M T Tsist= − [4.4.2]

igualando los resultados [4.4.1] y [4.4.2] obtenemos que el calor de la variación de la energía interna:

( )2 1 2 1c M T T E E E Qsist i i i− = Δ = − =

en este caso particular al calor específico se le da el nombre de calor específico a volumen constante, ya que el proceso se hizo a volumen constante. o sea:

c cv=

( )2 1 2 1Q E E c M T Ti i sistv= − = − [4.4.3]

el calor específico del aire a volumen constante tiene un valor:

Page 23: Manual de Energías Renovables

  5

0.1715 / ºc Kcal Kg Kv =

Entonces conociendo la temperatura final, leída en el termómetro al finalizar la entrega de calor, podemos conocer cuanto calor se ha suministrado en [kcal].

Segundo Ensayo.

Cambiamos nuevamente el sistema a su estado original (punto A) pero esta vez dejamos libre el émbolo. e igual que antes, calentamos lentamente la planchita hasta que la temperatura suba a T2 en este caso la presión sobre el émbolo se ha mantenido constante, en el valor de presión absoluta:

AGp pat A

= +

siendo A el área del émbolo y G el peso combinado del émbolo y la pesa.. En este experimento, cuando se alcance T2 el volumen habrá aumentado a _

2V .

En este caso se realizó lo que se denomina una evolución a Presión constante. El calor suministrado es ahora:

( )2 1Q c M T Tp sist= − [4.4.4]

siendo ahora cp el calor específico a presión constante, cuyo valor para el aire es:

0.24 / ºc Kcal Kg Kp =

Para esta evolución como se observa en la Fig.4_5, se alcanza el punto C, cuando el termómetro alcanza la temperatura T2.

En este caso el sistema si desarrolla un trabajo mecánico sobre el Medio Ambiente, ya que el pistón mueve su propio peso y a la pesa hacia arriba en contra del medio (trabajo positivo), este trabajo mecánico es:

_[ ] [ ] [ ]2 1A A A AW p A d p Ad p V p V V− −= = = Δ = − [4.4.4b]

si aplicamos ahora la expresión del primer principio:

[ ]2 1Q E E Wi i= − + [4.4.4c]

como la variación de energía interna solamente depende de la temperatura, su valor será el mismo que para el Ejemplo 1, entonces reemplazando con lo obtenido nos queda:

( ) ( ) [ ]22 1 2 1 1c M T T c M T T p V Vp vsist sist − −− = − + − [4.4.5]

aplicando la Ecuación de los gases ideales, que en primera aproximación podemos usar para el aire:

_pV M RTsist= ,

para una variación de temperaturas será:

[ ] [ ]2 12 1Ap V V M R T Tsist− −− = −

que reemplazada en [4.4.5] nos queda:

( ) ( ) [ ]2 12 1 2 1c M T T c M T T M R T Tp vsist sist sist− = − + −

Page 24: Manual de Energías Renovables

  6

simplificando en ambos miembros queda:

c c Rp v− =

esta relación importante se denomina Ecuación o relación de Mayer, efectivamente en nuestro caso para el aire se cumple que:

0.24 [Kcal / KgºK] - 0.1715 [Kcal / KgºK] = 0.0685 [Kcal / KgºK] = R (aire)

para el proceso a presión constante calor suministrado y trabajo efectuado se calculan con las ecuaciones obtenidas [4.4.4b] y [4.4.4c].

Ejemplo de Aplicación 1.

En un recipiente cilíndrico de paredes aisladas y base conductora del calor, el peso del émbolo y el contrapeso sumados son de G = 0.8 Kgf , el sistema esta en equilibrio con un volumen de aire de 550 cm3, en un cilindro de 8 cm de diámetro, siendo la temperatura inicial del aire encerrado de 16 ºC; cuando la temperatura se incrementa a 48 ºC se desea conocer:

a.- cuanto calor se ha incorporado al sistema desde la base.

b.-cuanto trabajo mecánico el dispositivo ha efectuado sobre el Medio Ambiente.

c.- que distancia se ha desplazado el émbolo.

Respuesta:

Se trata de un sistema termodinámico cerrado que contiene aire, los datos necesarios complementarios son:

R (aire) = 0.0685 [Kcal / KgºK]

cp (aire) = 0.24 [Kcal / KgºK]

cv (aire) = 0.1715 [Kcal / KgºK]

T1(temp. inicial del aire) = 16 ºC = 289 ºK

T2(temp. final del aire) =48 ºC = 321 ºK

Page 25: Manual de Energías Renovables

  7

Area del cilindro:

22 3.14 (8 ) 32 250.26 5.026 104 4

cmA cm mπ φ × −= = = =

presión atmosférica:

101.33 101.33[ ]2KNewp Kpaat m

= =

diferencia de Temperaturas:

48 16 32º 32º2 1T T C K− = − = =

Resolución:

1.- cálculo de la presión absoluta sobre el émbolo.

0.8 9.81[ / ]/ 101330[ ] 102891[ ]32 5.026 10 [ 2]New Kgf New Kgfp p G A Paat m m

×= + == + =−

observe que [New/m2] = [Pa]

2.- cálculo de la masa dentro del sistema.

102891[ / 2] 0.000550[ 3]_ 411 6.82 10287[ / º ] 289º1

p V New m mpV M RT M Kgsistsist R T Joule Kg K K− × −= → = = =

×

3.- cantidad de calor suministrado. (respuesta a).

34( ) 6.82 10 [ ] 0.24[ / º ] 32[º ] 5.237 10 [ ]2 1Q M c T T Kg Kcal Kg K K Kcalsist p −−= − = × × =

4.- calculo de la variación de la energía interna.

3( ) 6.8210 4[ ] 0.1715[ / º ] 32[º ] 3.74 10 [ ]2 1 2 1E E M c T T Kg Kcal Kg K K Kcali i sist v −− = − = − × × =

5.- cálculo del trabajo mecánico sobre el MA (respuesta b).

[ ] ( ) ( )2 2 1 2 11W p V V c M T T c M T Tp vsist sist− −= − = − − −

3 3 35.237 10 [ ] 3.74 10 [ ] 1.49 10 [ ] 6.22[ ]W Kcal Kcal Kcal Joule− − −= − = =

c.-distancia desplazada por el émbolo. (respuesta c).

6.22[ ] 5 3[ ] [ ] 6.045 10 [ ]2 21 1 2102891[ / ]W New mW p V V V V mp New m

−− − − −= − → − = =

Page 26: Manual de Energías Renovables

  8

como

[ ]2 1V V d A− −− = →

360.45 1.20250.26cmd cmcm

= =

[]

 

Page 27: Manual de Energías Renovables

FUNDAMENTOS TEÓRICOS 5: ENERGÍA CONTENIDA EN UN SISTEMA FLUIDO ABIERTO.

5.1.- Sistemas Abiertos a Régimen Permanente (SARP).

Consideremos ahora un dispositivo abierto, es decir que tiene un área de entrada de fluido y otra de salida de fluido, en el dispositivo puede circular fluido, por ejemplo un tramo de reducción de una tubería como la indicada en la Fig. 5_1; es un sector o vena fluida convergente que describe una curva en el plano vertical.

Fig.5_1

Consideramos que el sistema es SARP, es decir que además de abierto, el fluido circula a régimen permanente. Esto significa que el caudal en masa a través del conducto se mantiene constante entre la entrada y la salida. Esto se define como sistema abierto y se trabaja sobre el volumen interior del dispositivo que se denomina “volumen de control”.

Si el caudal másico se mide en [Kg/seg] o sea la permanencia significa que la cantidad de kilogramos masa del fluido que entran o salen del conducto en cada segundo permanece constante, podríamos expresarlo matemáticamente como:

3 2[ / ][ / ][ ] [ / ]M VA Kg m m seg m Kg segρ= = =i

en la ecuación, ρ representa la densidad del fluido en [Kg/m3], V la velocidad media a través de cada sección transversal del dispositivo en [m/seg], y A el área de la sección considerada en [m2].

Como la condición para SARP es que el caudal másico entre la entrada y la salida se mantiene constante, en vace a la ecuación anterior podemos escribir que entre la sección de entrada 1-1 y la de salida 2-2 se cumple que:

1 1 2 2 21M cte V A V Aρ ρ= = =i

[5.1.1]

Nosotros vamos a considerar también que la densidad no varía entre la entrada y la salida lo que significa que el flujo se considera incompresible, esto es válido para los fluidos líquidos, y para los gases hasta un valor de velocidad de circulación menor a 330 m/seg. Entonces en la fórmula anterior ρ1=ρ2, y se podrán simplificar, quedará:

1 1 2 2V cte V A V A− = = =i

[5.1.2]

que indica que el caudal volumétricos se mantiene constante, observe que la velocidad no se mantiene constante sino que en este caso sería mayor a la salida respecto de la entrada.

Page 28: Manual de Energías Renovables

  2

2 3[ / ][ ] [ / ]V VA m seg m m seg− = = =i

Las ecuaciones [5.1.1] y [5.1.2] representan matemáticamente otro principio de la física que se denomina “Principio de Conservación de Masa” o “Principio de Continuidad” trabajaremos entonces con dos principio troncales:

“Principio de Conservación de Masa” y el

“Principio de Conservación de la Energía” o Primer principio de la Termodinámica.

queda un tercer principio troncal que nosotros no usaremos que se denomina “Principio de Conservación de la cantidad de movimiento (Lineal y angular)”, con estos tres principios troncales se define toda la física clásica.

En el caso más general, vamos a considerar también que dentro del conducto existirá un molinete y un mecanismo con el cual se puede extraer o introducir trabajo mecánico del flujo como un trabajo de eje entre el sistema y el medio ambiente mientras el fluido circula, y también un dispositivo a través del cual se intercambia calor.

Los signos del intercambio se dibujaron como positivos en la figura, o sea de acuerdo a la convención vista anteriormente, calor que ingresa (MA → dispositivo, positivo) y trabajo que egresa (dispositivo → MA, positivo), pero cada uno de ellos o los dos pueden ser también negativos es decir tener sentidos opuestos a los representados.

Al ingresar el fluido por la sección 1-1, tendrá una velocidad V1 y una presión p1, que no es la atmosférica ya que el flujo circula interiormente por una tubería y esta encerrado por tanto en un conducto, análogamente a la salida estos valores cambiarán a V2 y p2, para que el fluido circule entre 1-1 y 2-2 es necesario que p1 > p2.

Por otra parte definimos la cota media de la sección de entrada que estará a una altura z1 con respecto a un plano de referencia (que puede ser la superficie Terrestre) y lo propio para la cota media de la sección de salida que será z2.

Para este sistema abierto, deseamos encontrar una expresión matemática del “Principio de Conservación de la Energía, o Primer Principio de la Termodinámica.

5.2.- Primer Principio de la Termodinámica para Sistema Abierto.

Recordamos que la expresión del Primer Principio de la Termodinámica en general es,

[ ]2 1Q E E Wa a= − + [5.2.1]

Q es el calor intercambiado por el dispositivo entre 1 - 1 y 2 - 2,

W es el trabajo mecánico intercambiado por el dispositivo entre 1-1 y 2 -2.

Ea2 es la energía almacenada total que sale del sistema por unidad de tiempo.

Ea1 es la energía almacenada total que entra en el sistema por unidad de tiempo.

y también como habíamos visto la Energía almacenada se compone para un sistema en que la masa se mueve de tres componentes, Energía Interna, Energía Cinética y Energía Potencial Gravitatoria, entonces podemos escribir:

Page 29: Manual de Energías Renovables

  3

1 22 2 2 2 2 222E E E E E M V M g za i c p i sis sis= + + = + +

1 21 1 1 1 1 1 12E E E E E M V M g za i c p i sis sis= + + = + +

y el trabajo necesario total intercambiado estará también en este caso compuesto de tres sumandos:

W = W12

trabajo del flujo que ingresa la sección 1-1 +

trabajo del flujo que egresa la sección 2-2 +

trabajo intercambiado con el Medio Ambiente a través de eje.

entonces como el trabajo mecánico se definía como una fuerza multiplicado por una distancia, el trabajo que ingresa por la sección 1-1 será calculado como la fuerza necesaria para introducir la masa por la entrada:

1 1 1 1 1 1W p A x p V−= − = −

p1A1 es la fuerza de empuje (presión por área) en la entrada.

x1 es el tramo en distancia sobre el tubo curvado que la masa ocupa desde 1-1 hacia el interior cuando fue introducida (y el volumen deformado, ver rectángulo azul a la entrada en la Fig.5_1); luego el producto A1.x1 nos da el volumen de la masa que se incorpora en la entrada. Observe que el signo es negativo porque es trabajo que se incorpora al volumen de control.

análogamente,

2 2 2 2 2 2W p A x p V−= =

p2A2 es la fuerza de empuje (presión por área) a la salida.

x1 es el tramo en distancia sobre el tubo curvado que la masa ocupa desde 2-2 hacia el exterior cuando fue expulsada del dispositivo(y el volumen deformado, ver rectángulo azul a la salida en la Fig.5_1).En este caso el trabajo es positivo porque sale del volumen de control hacia el MA.

Entonces reemplazando en la ecuación [5.2.1], queda:

121 12[ ] [ ] 22 2 1 12 1 22 112 2

Q E M V M g z E M V M g z p V p V Wei sis sis i sis sis −= + + − + + − + − +

Ahora dividimos en ambos miembros de la ecuación por la masa del sistema Msis, con lo cual la ecuación no varía, los valores de las variables divididas por la masa del sistema define a estas variables como específicas:

Page 30: Manual de Energías Renovables

  4

1212

1

QqMsisWewe MsisEiei MsisVv

Msis ρ

=

=

=

−= =

que se denominan desde arriba hacia abajo, calor específico intercambiado con el sistema entre 1 y 2, trabajo mecánico específico intercambiado con el MA, energía interna específica y volumen específico, que es además por definición la inversa de la densidad.

Reemplazando con estas nuevas definiciones la ecuación toma su forma final.

121 12 2[ ] [ ] 1 1 2 22 2 1 1 122 2

q e V g z e V g z p v p v wei i= + + − + + − + +

y reagrupando, y poniendo los volúmenes específicos como inversos de la densidad, la ecuación toma su forma final:

121 1 22 12[ ] [ ]2 2 1 1 122 22 1

p pq w e V g z e V g ze i iρ ρ− = + + + − + + +

reordenando y considerando que el fluido es incompresible, lo que significa que su densidad a la entrada y la salida es igual. ρ1=ρ2=cte.

121 2212[ ] [ ] [ ] [ ]12 1 2 2 12

p pq w e e V V g z ze i i ρ−

− = − + + − + − [5.2.2]

la ecuación [5.2.2] se denomina ecuación de la Energía o Primer Principio de la Termodinámica para un sistema abierto en flujo permanente e incompresible, es la ecuación que nos permite calcular los aprovechamientos energéticos para máquinas Hidráulicas y Eólicas.

Ejemplo de Aplicación 2.

En una planta generadora hidroeléctrica, fluyen 100 m3/seg de agua a través de un desnivel de presa de 120m , pasando por una turbina hidráulica de acuerdo al esquema de la figura. Se pide determinar:

a.- cual será la potencia nominal entregada por la turbina en su eje de rotación a la salida hacia la máquina eléctrica.

b.-si el rendimiento del grupo turbina-generador eléctrico es de 80% estimar la potencia eléctrica que entregará el generador.

dato adicional, densidad del agua: ρ= 1000 kg/m3

Page 31: Manual de Energías Renovables

  5

Resolución:

a.- consideramos un sistema abierto entre el punto 1 y el punto 2 del dispositivo formado por el conjunto tubería de succión , turbina y tubería de salida, este conjunto constituye el volumen de control. La flecha de línea doble representa el eje de salida de la turbina que hace rotar al generador eléctrico, del mismo salen las fases eléctricas de generación.

Aplicamos la ecuación [5.2.2]:

121 2212[ ] [ ] [ ] [ ]12 1 2 2 12

p pq w e e V V g z ze i i ρ−

− = − + + − + − [5.2.2]

en el caso que estamos analizando:

q = 0 suponemos que no hay un intercambio de calor neto entre sistema y medio ambiente, esto es aproximadamente cierto si el caudal es grande y la turbina esta montada sobre rodamientos de mucha eficiencia, que no produzcan rozamiento apreciable.

ei2 = ei1 las energías internas a la entrada y salida de la tubería son iguales ya que asumimos que al no haber intercambio de calor y rozamiento la temperatura del agua en el punto 1 debe ser igual a la del punto 2.

V1 = V2 esto significa que si el diámetro de la tubería a la entrada es igual al de la salida, y como la densidad es constante y el caudal dentro del dispositivo se mantiene entre la entrada y la salida, entonces:

1 1 2 2 1 1 2 21 2 1 2

V A V A V A V AA A V Vρ ρ= → =

= → =

con estas simplificaciones la ecuación anterior queda:

12[ ] [ ]2 1p pw g z ze ρ

−− = + − [5.2.2b]

Page 32: Manual de Energías Renovables

  6

pasando el signo menos al segundo miembro:

1 2[ ] [ ]21p pw g z ze ρ−

= + − [5.2.2c]

las presiones absolutas en los puntos 1 y 2 son:

11p p g hat ρ= +

2 2p p g hat ρ= +

reemplazando en [5.2.2c]:

1 2[ ] [ ]21p gh p ghat atw g z ze

ρ ρρ

+ − −/= + −

simplificando dentro del primer paréntesis:

[ ] [ ] [( 1 1) ( 2 2)]1 2 219.81[ / 2] 120[ ] 1177.2[ 2 / 2]

w g h h g z z g h z h zew m seg m m sege

= − + − = + − + →= × =

ahora recordamos la definición de trabajo específico:

Wewe Msis=

la cual no varía si dividimos el numerador y denominador por la variable tiempo t.

//

W t We ewe M t Msis sis

•= = [5.2.3]

es decir nos queda igual al cociente entre la potencia (trabajo / tiempo) y el caudal másico:

M Vsis ρ• •

−=

despejando la potencia de la [5.2.3], queda:

1177.2[ 2 / 2] 1000[ / 3] 100[ 3 / ]

6 6117.72 10 [ ] 117.72 10 [ ] 117,72[ ]2

W w w V m seg Kg m m segMe e esisKg m m Newm Gwattsseg seg seg

ρ• •• −= = = × × =

= × = × =

b.- del enunciado vemos que la eficiencia de la máquina eléctrica es η = 0.8, entonces la potencia eléctrica que se va a obtener a la salida del generador es:

( ) ( ) 117,72[ ] 0.8 94,176[ ]W eléctrica W hidraulica Gwatts Gwattse e η• •

= × = × =

[]

 

 

Page 33: Manual de Energías Renovables

 

MÓDULO 1:. PLANETA TIERRA FORMACIÓN, EVOLUCIÓN

 1.1.-.Introducción a la Materia Energías Renovables.  A partir del momento en que los humanos comenzaron a manejar algunos aspectos de la naturaleza para dar forma a sus necesidades, los ecosistemas del planeta dieron avisos, primero tímidos y luego cada vez más intensos como en la actualidad, en respuesta a estos abusos, como el calentamiento global, la contaminación, o la perdida de bio-diversidad. Hoy en día podemos conocer a través de medios diversos de comunicación del cual tal vez Internet sea el más plural, noticias y datos referidos al cambio climático, la contaminación y la pérdida de la bio-diversidad, sobre todo los bosques vírgenes; pero ante esta inevitable realidad, ¿cuantos de nosotros nos sentimos responsables y actuamos en consecuencia por los daños que le estamos causando al planeta? Justamente el propósito de dictar esta materia es fomentar la conciencia ecológica en los docentes y futuros docentes para que a su vez puedan trasmitirla a las nuevas generaciones, entender que somos dependientes de la naturaleza y responsables del Planeta y su conservación. Al contrario de lo que se pueda pensar, desarrollo económico y conciencia ecológica no tienen que ser conceptos opuestos. Se puede producir, consumir y formar parte de un hábitat saludable, fomentando la utilización de energías limpias, evitar la deforestación para cultivar, reducir y reciclar la basura, reutilizar materiales para perpetrar su uso, consumir ahorrando agua potable, fomentar el uso de materiales bio degradables, bajar nuestros consumos de electricidad, agua potable, papel y combustibles fósiles, etc. La conciencia ecológica debe comenzar en el seno del hogar y de la escuela inicial, desterrando conductas nocivas e inútiles como tirar papeles o basura de cualquier tipo al piso en particular en el ámbito publico, hacer pintadas con aerosol, sobreabundar con propagandas y carteles, conducir con música estruendosa, tomar consciencia de que son conductas agresivas hacia nuestros pares seres humanos como nosotros y hacia el medio ambiente. A medida que una sociedad es más desarrollada consume más energía. Pero la energía que se obtiene del carbón, del petróleo y del gas no se renueva y se va agotando año tras año, y contamina nuestra atmósfera. Lo inteligente es ir aprovechando otras fuentes de energía que están a nuestro lado: viento, sol, residuos, etc. las cuales son renovables año tras año, no se agotan y además no contaminan el ambiente, lo que significa una doble ventaja para los ciudadanos. 1.2.-.Origen del Sistema Solar y de la Tierra. La Tierra se formó hace unos 4600 millones de años y ha ido evolucionando lentamente hasta la actualidad, cambiando su aspecto geológico, (movilidad de continentes, glaciaciones, etc.) Los seres humanos se estima que han evolucionado a partir de primitivos homínidos hace unos 450 millones de años siendo el fósil humanoide más antiguo conocido, un hembra que fue apodada “Lucy” encontrado en las cercanías del Lago Victoria en África oriental. La estimación cosmológica actual de la edad del universo es de 13.700 millones de años. El origen de acuerdo a las actuales teorías fue el suceso denominado ”big - bang” o gran explosión. Este suceso indica que el universo surgió de una singularidad puntual y que tenia diámetro cero y una concentración, densidad y temperatura cuasi infinitas, al inicio.

Page 34: Manual de Energías Renovables

  2

El desarrollo tecnológico actual (2012) impiden penetrar en lo que sucedió más atrás de 10-12 de segundo (una billonésima de segundo) después del big-bang, pero si se conoce con detalle la evolución a partir de ese momento. La expansión ocurre a partir de ese estado en el cual el universo era pequeño de un diámetro de pocos milímetros, y extraordinariamente concentrado en ese pequeño tamaño, vemos que la densidad tendría valores enormes y la materia no puede existir sino como un correlato de la energía de un plasma de inconmensurable Temperatura. A partir de entonces se expande y enfría dando lugar a la creación de las dimensiones, el espacio y el tiempo, en un tejido único denominado espacio-tiempo. La expansión del tejido espacio-tiempo tuvo ritmos diferentes, pero aun continua. La condensación (y cambios de fase) de la energía plasmática en forma de masa y en estructuras estables, se inicia primero condensando partículas elementales denominadas: quarks y otras partículas que se aglutinan en tríos y en duetos, y permiten la formación de protones neutrones y ambos juntos formando nucleones o núcleos atómicos y capturando luego, siempre a expensas del enfriamiento, otras partículas que se formaron y estaban sueltas como electrones dando lugar a la formación de los primeros átomos, que en principio fueron átomos básicos livianos de H (Hidrógeno), He (Helio) y Li (Litio). La formación de moléculas de estos elementos y la acumulación de estas por efecto gravitatorio, da lugar a la formación de la primera generación de estrellas (hace unos 10 mil millones de años). El proceso evolutivo de esta primera generación de estrellas de acuerdo a su masa hace que al final de su ciclo de vida se encapsulen como enanas blancas (cuando la masa de la estrella es relativamente pequeña) o bien como supernovas (cuando la masa es más grande del orden unas cinco veces la masa de nuestro Sol) estas últimas estallan al final de sus vidas dispersando los materiales creados dentro de la misma (la estrella durante su vida funcionó como un gran horno nuclear) dando lugar a la formación del resto de los elementos químicos más pesados, que están en orden creciente en el sistema periódico de elementos, desde los constituyentes que eran Hidrógeno Helio y Litio , a Berilillo, Boro, Carbono, Oxígeno etc, hasta llegar a los más pesados, el Plomo, el Torio el Uranio. Todos estos materiales son esparcidos tras la explosión de las supernovas de primera generación, hace unos 5 mil millones de años, y luego se vuelven a condensar dando lugar a la segunda generación de estrellas y creando también, al haber constituyentes diversos, sistemas solares orbitales completos. Nuestros sistema solar se constituyó de este modo hace unos 4.5 mil millones de años, y en un período que va aproximadamente entre los 4 mil millones y 400 millones de años la Tierra y los otros planetas del sistema se condensan en las formas que los observamos en la actualidad, albergando en el caso de la Tierra todos los constituyentes para la evolución de la vida. 1.3.- Ubicación del sistema Solar. El gas y polvo cósmico de esta explosión de supernova de primera generación situada en uno de los brazos espirales de una gran galaxia denominada Vía Láctea dio origen a todo el Sistema Solar y a la Tierra. Comenzó cuando el gas y el polvo de la dispersión de la supernova explotada comenzó a concentrarse debido a los efectos gravitatorios. Después, el material dispersado se condensó y comenzó a girar como consecuencia de la dinámica gravitacional. Esta rotación hizo que la región de gas y polvo disperso, adoptara forma de disco. En el centro de este disco giratorio se concentró la mayor parte de la masa de elementos livianos los que se fueron comprimiendo y calentando hasta que en su núcleo se alcanzó una temperatura que permitió la fusión nuclear de los átomos de hidrógeno y helio y empezó a brillar nuestro Sol, que es entonces una estrella de segunda generación. La materia que no formó parte de la estrella, permaneció girando alrededor de ella, atraída. comenzando a aglutinarse en distintos núcleos.

Page 35: Manual de Energías Renovables

  3

Debido al descenso de la temperatura primero se formaron fragmentos sólidos del tamaño de granos de arena. Estos fragmentos colisionaron y se unieron formando cuerpos más grandes denominados planetesimales. Los planetesimales colisionaron entre sí durante muchos millones de años, constituyendo cuerpos de mayor tamaño, hasta dar origen a los cuatro planetas interiores y a los planetas exteriores del sistema. El Sistema Solar es uno de los cientos de millones (2 x10 11 ) de las estrellas y sistemas que forman parte de la galaxia Vía Láctea., y Vía Láctea a su vez es una de los cientos de millones de otras galaxias dispersas en el tejido del universo en expansión. Además se considera que la mitad de las estrellas de la galaxia ha formado sistemas y poseen planetas.

FIG1.3_1

Básicamente podemos representar la galaxia Vía Láctea con un Núcleo de gran densidad de estrellas y varios brazos galácticos de los cuales dos son los principales (Fig.1.3_1a): - Brazo de Orión. - Brazo del Centauro El diámetro aproximado de la galaxia se estima en unos 100 mil años luz.

Page 36: Manual de Energías Renovables

  4

El Sistema Solar se ubica casi en los suburbios de la galaxia sobre el Brazo Orión, a unos 30 mil años luz del centro, pero esto es una ventaja para la vida ya que estamos lejos del centro que sería una zona de mortal radiación de alta frecuencia para las especies del tipo que habitan la Tierra. El Año luz es en realidad una unidad de distancia que es equivalente a:

12300.000[ / ] 60[ / min] 60[min/ ] 24[ / ] 365[ ] 9.5 10Km seg seg hora horas dia dia Km× × × × ≅ las unidades se van simplificando hasta quedar [Km] 1.4.- La evolución de la Tierra y los Planetas no – gaseosos. Durante muchos millones de años, la Tierra siguió recibiendo impactos de meteoritos y planetesimales y continuó incrementando su masa. Al crecer el planeta comenzó a calentarse debido a tres efectos combinados: la energía liberada por el impacto de los meteoritos, la contracción gravitatoria, y la desintegración radiactiva de elementos como el uranio, el torio hasta el potasio. Llegó un momento en que la Tierra se fundió totalmente y comenzó una diferenciación en su interior: a.- Los elementos pesados (hierro, níquel) se hundieron y formaron un núcleo fundido que, en parte, aún permanece líquido. b.- Los materiales ligeros se dispusieron en el exterior y formaron la corteza y el manto. c.- Los materiales gaseosos escaparon del interior de la Tierra y se mantuvieron orbitando afuera atraídos por la gravedad formando la atmósfera. En apariencia el agua se formó por el impacto de meteoros de hielo durante muchos miles de años. 1.5.- El privilegiado Planeta Tierra Podemos considerar aspectos privilegiados o inusuales si comparamos el Sistema Solar y el planeta Tierra en particular con otros sistemas en la galaxia y aun con otros planetas de nuestro mismo sistema. Ejemplos de este privilegio son: a.- El sistema posee una sola estrella que es el Sol, la mayoría de los sistemas en la galaxia son binarios es decir poseen dos estrellas, para estos casos esto da lugar a que las órbitas planetarias se establezcan como elipses de semi-eje mayor muy largo, o bien en forma de 8 lo que da lugar a largos períodos de calor y largos períodos de frío, en los planetas los que se transforman en poco hospitalarios para la vida. Aún con sistemas de una sola estrella lo común es que las órbitas planetarias sean elipses muy alargadas, los sistemas con órbitas de elipses casi circulares parecen escasos de acuerdo a las observaciones recientes. b.- Como dijimos antes el sistema Solar esta muy alejado del centro galáctico, lo que impide la enorme radiación de alta frecuencia letal para la vida según la conocemos. c.- En comparación la excentricidad de la órbita elíptica de la Tierra es de 2%, esto significa que solo hay un 2% de diferencia entre los semiejes mayor y menor de la elipse, vale decir que es una órbita casi circular lo que equipara la duración de las estaciones del año (en combinación con la inclinación del eje de rotación), y da un cuadro de temperaturas casi igual para los hemisferios Norte y Sur, es decir no hay grandes cambios entre los máximos acercamientos y alejamientos del Sol.

Page 37: Manual de Energías Renovables

  5

d.-La masa del Sol la Tierra y su distancia respectiva es óptima, ya que la cantidad de energía que recibe el planeta depende de esta distancia, por ejemplo Venus y Marte que son nuestros vecinos inmediatos y mundos comparables a la Tierra en masa , pero Venus está más cerca del Sol y Marte más lejos, quedando ambos fuera del “corredor habitable” este factor le permitió a la Tierra retener el agua en estado líquido. Una masa algo menor para Marte respecto a la Tierra hizo que perdiera su atmósfera y su agua y en el caso de Venus la radiación por [Km2] de superficie es tan intensa que se disparó un efecto invernadero no reteniendo el agua líquida en superficie. Un manto de vapor de agua y otros gases cubren una superficie rocosa produciendo sobre ella temperaturas inmensas. Estos tópicos nos indican claramente lo especial que es nuestro Planeta Tierra lo que indica la necesidad de unificar esfuerzos para su conservación. (Esta Clase Teórica 1, debe ser complementada por dos Trabajos de Investigación por parte de los alumnos que deben agregarse a la misma como anexos): Anexo 1.- “Un punto azul pálido” “pale blue dot” en inglés, permite analizar las fotografías de la Tierra tomadas a gran distancia de la misma hacia los confines del sistema Solar en la órbita de Neptuno, por las sondas Voyager 1 y 2, se deberá apuntar a una reflexión sobre lo pequeño y en ultima instancia lo solitarios que estamos como especie y rodeados de mundos inhóspitos, como para valorar nuestro único hogar posible y cuidarlo como se merece. Se puede ver un video completo traducido en:   http://www.youtube.com/watch?v=xYmDyHC4Oc0&feature=watch_resp Anexo 2.- La zona ”Ricitos de Oro” que es una definición basada en un cuento infantil que se da para indicar lo perfecto de nuestra posición galáctica y orbital, tamaño, masa de nuestra estrella, inclinación de nuestro eje N-S, periodicidad de la rotación, la Luna como contrapeso y ancla orbital etc, que hacen de la Tierra un lugar aparentemente único, dando lugar a lo que se denomina Principio Antrópico débil. []

_selección de los dos mejores trabajos de 2011_

Anexo 1.- Un punto azul pálido.

Un punto azul pálido (Pale Blue Dot). Puede observarse la Tierra como un punto de luz situado en la parte central de la imagen. La fotografía fue tomada a una distancia de seis mil millones de kilómetros de la Tierra.

Page 38: Manual de Energías Renovables

  6

Retrato del Sistema Solar, en falso color, mostrando a la Tierra al centro de la franja coloreada

Un punto azul pálido es una fotografía de la Tierra tomada por la nave espacial Voyager 1 a una distancia de 6.000 millones de kilómetros y el título de un libro de Carl Sagan inspirado en esta fotografía.

Muestra la Tierra como una mota de luz casi imperceptible por el fulgor del Sol. La foto fue tomada el 14 de febrero de 1990. En 2001 fue seleccionada por Space.com como una de las mejores diez fotos científicas del espacio en la historia.

Los comentarios de Carl Sagan sobre esa histórica foto, que aparecen como colofón de la serie Cosmos, fueron los siguientes:

Mira ese punto. Eso es aquí. Eso es casa. Eso es nosotros. En él se encuentra todo aquel que amas, todo aquel que conoces, todo aquel del que has oído hablar, cada ser humano que existió, y vivió sus vida. La suma de nuestra alegría y sufrimiento, miles de confiadas religiones, ideologías y doctrinas económicas, cada cazador y recolector, cada héroe y cobarde, cada creador y destructor de la civilización, cada rey y cada campesino, cada joven pareja enamorada, cada madre y padre, cada esperanzado niño, inventor y explorador, cada maestro de moral, cada político corrupto, cada “superestrella”, cada “líder supremo”, cada santo y pecador en la historia de nuestra especie vivió ahí – en una mota de polvo suspendida en un rayo de luz del sol.

La Tierra es un muy pequeño escenario en una vasta arena cósmica. Piensa en los ríos de sangre vertida por todos esos generales y emperadores, para que, en gloria y triunfo, pudieran convertirse en amos momentáneos de una fracción de un punto. Piensa en las interminables crueldades vividas por los habitantes de una esquina de ese pixel para los apenas distinguibles habitantes de alguna otra esquina; lo frecuente de sus incomprensiones, lo ávidos de matarse unos a otros, lo ferviente de su odio. Nuestras posturas, nuestra imaginada auto-importancia, la ilusión de que tenemos una posición privilegiada en el Universo, son desafiadas por este punto de luz pálida.

Page 39: Manual de Energías Renovables

  7

Nuestro planeta es una mota solitaria de luz en la gran envolvente oscuridad cósmica. En nuestra oscuridad, en toda esta vastedad, no hay ni un solo indicio de que la ayuda llegará desde algún otro lugar para salvarnos, dependemos de nosotros mismos.

La Tierra es el único mundo conocido hasta ahora que alberga vida. No hay ningún otro lugar, al menos en el futuro próximo, al cual nuestra especie pudiera migrar. Visitar, sí. Colonizar, aún no. Nos guste o no, en este momento la Tierra es donde tenemos que quedarnos.

Se ha dicho que la astronomía es una experiencia de humildad y construcción de carácter. Quizá no hay mejor demostración de la tontería de los prejuicios humanos que esta imagen distante de nuestro minúsculo mundo. Para mí, subraya nuestra responsabilidad de tratarnos los unos a los otros más amablemente, y de preservar el pálido punto azul, el único hogar que jamás hemos conocido.

[]

Anexo 2.- La zona “Ricitos de Oro”

"Planeta Ricitos de Oro" (del inglés Goldilocks planet) es un término coloquial para un planeta que se ubica en la zona habitable de una estrella, a menudo específicamente se utilizan para los planetas con tamaño cercano a la Tierra.

El nombre viene del cuento infantil de Ricitos de oro y los tres osos, en el que una niña elige de un conjunto de tres artículos, haciendo caso omiso de los que son demasiado extremos (grande o pequeño, caliente o frío, etc .), y eligiendo la del medio, que es la "elección correcta".

Del mismo modo, un planeta siguiendo este Principio de Ricitos de Oro es uno que no se encuentra ni demasiado cerca ni demasiado lejos de su estrella para excluir a la vida (como los humanos la conocemos) en el planeta.

Planetas Ricitos de Oro son de interés fundamental para los investigadores que ya sea buscan actualmente vida (y posiblemente inteligente) o para futuros hogares de la raza humana.

La Ecuación de Drake, que intenta estimar la probabilidad de vida inteligente no terrestre incorpora o sea asigna un factor que permite determinar el promedio de planetas capaces de soportar vida, en un sistema de estrellas con planetas.

El descubrimiento de planetas extrasolares Ricitos de Oro ayuda a perfeccionar las estimaciones de esta figura. Estimaciones muy bajas contribuirían a la Hipótesis de la Tierra como un lugar muy especial , que plantea que una serie de condiciones y eventos muy poco probables condujo a la aparición de la vida en la Tierra. Esto se conoce como Principio Antrópico fuerte.

Las altas estimaciones por el contrario, reforzarían el principio de mediocridad copernicano, en que un gran número de planetas con albergues Ricitos de Oro son posibles en la galaxia y en el resto del Universo, lo que implicaría que la Tierra no es especialmente excepcional.

Lo que se cree actualmente es que los dos extremos citados son falsos y que la posibilidad de hallar planetas similares a la Tierra en el universo y en particular en nuestra Galaxia, sería algo intermedio, no demasiado fácil de encontrar, a esto se lo conoce como “Principio Antrópico débil”.

Encontrar planetas con albergues Ricitos de Oro del tamaño de la Tierra es una parte clave de la Misión Kepler, que utiliza un telescopio espacial (lanzado el 07 de marzo de 2009) para estudiar y compilar las características de los planetas que se encuentren en la zonas habitables de un sistema estelar.

Page 40: Manual de Energías Renovables

  8

Por ejemplo se cree que el planeta extrasolar [70 Virginis b] a 60 años luz de distancia de la Tierra en ia constelación Virgo. fue asignado inicialmente como candidato, porque se pensaba que se encontraba en la zona habitable de la estrella, ahora se cree que es demasiado caliente para "ser apto" para la vida, y no es por lo tanto un planeta Ricitos de Oro.

impresión artística de 70 Virginis b

Otro caso posible es [Gliese 581 g] situado a 20.5 años luz de la Tierra en la Constelación de Libra, en la actualidad se cree que es un planeta rocoso situado en la zona habitable de su estrella.

impresión artística de Gliese 581 g orbitando su estrella

Otro aspecto de esta temática es analizar el “corredor habitable de nuestra estrella”. El estudio de nuestros vecinos solares, Marte y Venus, puede proporcionar a los científicos climatólogos conocimientos valiosos sobre la forma en que las catástrofes climáticas afectan a los planetas, aun que potencialmente estén en zona habitable del sistema solar en este caso, nos referimos a nuestros vecinos Venus y Marte.

El conocimiento que los científicos están adquiriendo con las misiones actuales como Mars Express y Venus Express puede ayudarnos a comprender el futuro de la vida sobre nuestro planeta.

Page 41: Manual de Energías Renovables

  9

Cómo impactan las actividades humanas sobre la calidad global de aire, mostrando puntos calientes urbanos. Crédito: KNMI/ESA

La Tierra está ubicada entre dos mundos que han sido devastados por catástrofes climáticas. Venus y Marte. En el esfuerzo para combatir el calentamiento global, nuestros vecinos pueden proporcionar conocimientos valiosos sobre la forma en que las catástrofes climáticas afectan a los planetas.

La confección de modelos climáticos de la Tierra para predecir su futuro ha asumido una importancia tremenda a la luz de la influencia humana en la atmósfera. El clima de nuestros dos vecinos presenta un fuerte contraste con el de nuestro planeta hogar, haciendo que los datos proporcionados por la Venus Express y la Mars Express de la ESA sean invalorables para los climatólogos.

Venus es un infierno nuboso, mientras que Marte es un desierto helado. Como las preocupaciones actuales sobre el calentamiento global ya han logrado una amplia aceptación, sobre los científicos ha aumentado la presión para que propongan soluciones.

El arma principal del arsenal de un climatólogo es el modelo climático, un programa de computadora que utiliza las ecuaciones de la física para investigar la forma en que trabaja la atmósfera de la Tierra. El programa ayuda a predecir la forma en que podría cambiar la atmósfera en el futuro.

“Para el público podría parecer que los modelos climáticos son como bolas de cristal, pero en realidad son simplemente ecuaciones complejas”, dice David Grinspoon, del Museo de la Naturaleza y de la Ciencia de Denver y uno de los científicos interdisciplinarios de la Venus Express.

Marte (izquierda), la Tierra (centro) y Venus (derecha), en tamaños relativos. Crédito: NASA

Cuanto más observan los científicos a estas ecuaciones, más comprenden lo complicado que es el clima de la Tierra. Grinspoon expone así el asunto: “En cincuenta o cien años, sabremos si los modelos climáticos actuales son correctos, pero si están equivocados, entonces será demasiado tarde”.

Para ayudar a aumentar la confianza en los modelos computacionales, Grinspoon cree que los científicos deberían observar a nuestros planetas vecinos. “Parecería que tanto Marte como Venus comenzaron en forma muy parecida a la Tierra y después cambiaron. Ambos poseen una información climática invalorable para la Tierra”, dice Grinspoon.

Page 42: Manual de Energías Renovables

  10

La atmósfera de Venus es mucho más densa que la de la Tierra. Sin embargo, los modelos climáticos actuales pueden reproducir bien su estructura de temperatura actual. Ahora, los científicos planetarios quieren hacer retroceder el reloj para comprender porqué y cómo Venus cambió desde sus condiciones iniciales parecidas a las terrestres hasta el infierno actual. Creen que el planeta experimentó un efecto de invernadero desbocado a medida que el Sol fue calentándose gradualmente. Los astrónomos creen que el Sol joven era menos luminoso que el actual en un 30 por ciento. A lo largo de los últimos cuatro mil millones de años, se fue haciendo gradualmente más luminoso. Durante este aumento, el agua de la superficie de Venus se evaporó y entró en la atmósfera.

La superficie árida y caliente de Venus se oculta detrás de su espesa atmósfera de dióxido de carbono. Crédito: NASA

El vapor de agua es un poderoso gas de invernadero e hizo que el planeta se calentara aún más. A su vez, esto hizo que se evaporara más agua y llevó a una poderosa respuesta de retroalimentación positiva conocida como efecto invernadero desbocado”, dice Grinspoon. A medida que la Tierra se calienta en respuesta a una contaminación humana, se arriesga al mismo destino. La reconstrucción del clima pasado de Venus puede ofrecer a los científicos una mejor comprensión sobre cuán cerca está nuestro planeta de una catástrofe parecida. Sin embargo, determinar el momento en que Venus pasó el punto de no retorno no es fácil. Ahí es donde la Venus Express de ESA entra en escena.

La nave se encuentra en órbita alrededor de Venus recogiendo datos que ayudarán a descifrar el pasado del planeta. Venus está perdiendo gas de su atmósfera, de modo que la Venus Express está midiendo la velocidad de esta pérdida y la composición del gas que se escapa. También vigila el movimiento de las nubes en la atmósfera del planeta.

Page 43: Manual de Energías Renovables

  11

Esto revela la forma en que Venus responde a la absorción de la luz solar, porque la energía del Sol proporciona la energía que hace que la atmósfera se mueva.

El desierto de Marte está cubierto por una atmósfera delgada que está compuesta principalmente de dióxido de carbono. Crédito: JPL/NASA

Además, la Venus Express está mapeando la cantidad y localización del dióxido de azufre en la atmósfera del planeta. El dióxido de azufre es un gas de invernadero y es liberado por los volcanes venusinos.

“La comprensión de todo esto nos ayudará a determinar cuándo Venus perdió su agua”, dice Grinspoon. Ese conocimiento puede introducirse en la interpretación de los modelos climáticos terrestres porque, aunque los planetas ahora parecen ser diferentes, ambos mundos son gobernados por las mismas leyes físicas.

La comprensión del pasado de Marte es igualmente importante. La Mars Express de la ESA está investigando actualmente el destino del planeta rojo. Más pequeño que la Tierra, se piensa que Marte perdió su atmósfera que escapó al espacio. Cuando los volcanes marcianos se extinguieron, también sucedió lo mismo con los medios que tenía el planeta para recomponer su atmósfera, convirtiéndolo en un desierto casi sin aire.

Lo que sucedió en estos dos mundos es muy diferente, pero podría ser igualmente desastroso para la Tierra. “Estamos dependiendo de nuestra capacidad para predecir correctamente el futuro clima de la Tierra”, dice Grinspoon. Cualquier cosa que pueda arrojar luz sobre nuestro propio futuro es valiosa. Por eso, el estudio de nuestros planetas vecinos es vital. Así, cuando los científicos planetarios hablan sobre explorar otros mundos, también están aumentando nuestra capacidad para comprender nuestro planeta.

[] 

Page 44: Manual de Energías Renovables

MÓDULO: 2 ASPECTOS BÁSICOS DE LA DINÁMICA TERRESTRE (AIRE)

 2.1.- El Aire. Se puede considerar al planeta Tierra como una esfera de aproximadamente 6400 km, de radio, sobre ella y sostenida por la fuerza gravitatoria se encuentra una comparativamente delgada capa de aire que se extiende en altura con densidad decreciente. Se puede considerar que la parte principal de la atmosfera tiene 80 Km de espesor, más arriba la atmosfera se va diluyendo y enrareciendo hasta que a unos 800 Km de altura puede considerarse ya la ausencia total de los gases que la componen, y el comienzo del espacio exterior. Habitualmente esta región inferior de 80 km se separa en tres capas diferentes para su estudio: 2.2.- Capa Inferior. La región inferior se extiende desde la base de la corteza hasta unos 10 Km a 12 Km desde de la superficie se denomina Troposfera. Es la altura que como límite pueden tener las máximas cadenas montañosas y el estrato donde tiene lugar los climas, vientos, fenómenos meteorológicos y nubosidad. Fig.2.2_1 y 1b. La troposfera contiene alrededor del 75% de la masa gaseosa de la atmósfera, así como casi todo el vapor de agua.  

  

Fig.2.2_1   

 Fig.2.2_1.b

Page 45: Manual de Energías Renovables

  2

La tropopausa es la pequeña zona de transición entre la troposfera y la estratosfera. Marca el límite superior de la troposfera, sobre la cual la temperatura se mantiene constante antes de comenzar nuevamente aumentar aprox. sobre los 20 Km sobre el nivel del mar. Esta situación térmica evita la convección del aire y confina de esta manera el clima a la troposfera, funciona como un eficiente aislador. 2.3.- Segunda Capa  Denominada Estratosfera, es un estrato que está entre los 10/15 y los 50 kilómetros. Se caracteriza por la ausencia de fenómenos meteorológicos, es una zona muy estable y es utilizada para los vuelos intercontinentales por las aeronaves de gran porte; en esta zona la radiación solar crea la capa de ozono, ( la misma se encuentra entre los 15 y 40 kilómetros de altura). Su nombre obedece a que está dispuesta en capas más o menos horizontales (o estratos).La estratosfera es la segunda capa de la atmósfera de la Tierra. A medida que se asciende, la temperatura en la estratosfera aumenta. Este aumento de la temperatura se debe a que los rayos ultravioleta transforman al oxígeno en ozono, proceso que exotérmico que genera calor. Al ionizarse el aire se convierte en un buen conductor de la electricidad y, por ende, del calor. Por este motivo se define una capa dentro de la Estratósfera en la que existe una relativa abundancia de ozono (Ozonósfera) lo que implica también que la temperatura se eleve a unos 3° C o más. Sin embargo, se trata de una atmósfera muy enrarecida, muy tenue. La función de la capa de ozono, Fig.2.3_1 (cuya acción trataremos en detalle mas adelante), es de transformar las moléculas de oxigeno [O2] en ozono [O3], la capa de ozono absorbe la mayor cantidad de radiaciones ultravioletas de alta frecuencia o nocivas y es fundamental para proteger la vida en el planeta. En la figura la ozonósfera se observa como la subcapa ubicada aprox. entre los 15 y 40 Km sobre el nivel del mar.

 Fig.2.3_1

2.4.- Tercera Capa  Denominada Mesosfera. La mesosfera en su capa superior da comienzo la ionosfera cuyo inicio se sitúa entre los 50 y 80 kilómetros de la superficie, en ella la presión atmosférica desciende hasta ser muy baja del orden de 1/1000 de la atmósfera a nivel del mar la ionosfera se extiende más allá de la Mesosfera según distintos estudios puede extenderse hasta los 600 / 800 Km medidos desde la superficie Terrestre, ver punto 2.5. La capa superior de esta zona , la ionosfera, tiene la particularidad de que los gases están muy enrarecidos y muchas de las moléculas están ionizadas de manera que se trasforma en conductoras de la electricidad, estas partículas ionizadas son procedentes del sol y se componen de electrones y algunos grupos atómicos pesados, en ella se producen descargas eléctricas que producen las auroras. Su característica le permite ser usada para reflejar ondas de radio emitidas desde la tierra y permitir trasmisiones radiales intercontinentales, que ya se usan poco debido a los nuevos sistemas de trasmisiones satelitales.

Page 46: Manual de Energías Renovables

  3

Más allá de los 80 kilómetros y hasta los 800 kilómetros, solamente se puede hallar moléculas dispersas de hidrogeno y helio en forma muy enrarecida que son restos del sistema solar primigenio.

  Fig.2.4_1 

2.5.- La Ionosfera.

La ionosfera es la parte de la atmósfera terrestre ionizada permanentemente debido a la fotoionización que provoca la radiación solar. Fig.2.5_1

Se sitúa entre la mesosfera y la exosfera, y en promedio se extiende aproximadamente entre los 80 km y los 500 Km de altitud, aunque los límites inferior y superior varían según autores y se quedan en 80-90 y 600-800 Km respectivamente.

Por otra parte, algunos consideran que la alta ionosfera constituye el límite inferior de la magnetosfera, que es un escudo generado por el campo magnético propio de la Tierra, solapándose ligeramente ambas capas (entre los 500 y 600 – 800 Km).

La ionosfera también se la llama a veces termosfera por las elevadas temperaturas que se alcanzan en ella debido a que los gases están en general ionizados. Si el sol está activo, las temperaturas en la termosfera pueden llegar a 1.500 °C; sin embargo, estas elevadas temperaturas no se corresponden con la sensación de calor que tendríamos en la troposfera porque en la termosfera la densidad es muchísimo más baja. Los gases aparecen ionizados porque esta capa refleja al espacio las radiaciones solares de menor longitud de onda (rayos gamma y rayos X) que son altamente energéticos.

Entre las propiedades de la ionosfera, encontramos que esta capa contribuye esencialmente en la reflexión de las ondas de radio emitidas desde la superficie terrestre, lo que posibilita que éstas puedan viajar grandes distancias sobre la Tierra gracias a las partículas de iones (cargadas de electricidad) presentes en esta capa. Además, en esta capa se desintegran la mayoría de meteoritos a una altura entre 80 y 110 km, debido al rozamiento con el aire y dan lugar a estrellas fugaces.

Pero las estrellas fugaces no son el único fenómeno luminoso que ocurre en esta capa. En las regiones polares las partículas cargadas portadas por el viento solar son atrapadas por el campo magnético terrestre incidiendo sobre la parte superior de la ionosfera y dando lugar a la formación de auroras.

Page 47: Manual de Energías Renovables

  4

  

Fig.2.5_1  

Cuadro general de la Atmósfera  Terrestre  

  2.6.- Presión atmosférica y perfil de presión con la altura. En la parte teórica vimos como se evalúa la presión atmosférica a nivel del mar, a través del experimento de Torricelli. A partir de considerar al aire como un gas perfecto, que constituye una primera aproximación bastante correcta, es fácil determinar la variación de presión con la altura (considerando el aire estático). Esta relación nos da:

/ )([ ]

g RTo hp patm Toαα−

=  

Page 48: Manual de Energías Renovables

  5

En esta fórmula To es la temperatura a nivel del mar expresada en grados Kelvin (cuyo valor normal es 288 K) y α es la variación de temperatura con la altura que en la troposfera es 0,0065 [º K/m], g la aceleración de la gravedad (9.81 m/seg2) y R la constante particular del aire 0.287 [KJoule/KgºK]

 2.7..- Perfil de Temperatura con la altura

 1.6.-Composición química del aire en la Tropósfera.  O2 = 21% N2 =78% CO2 = 0,04 % Resto para completar el 100% posee otros gases en proporciones menores, hidrógeno H2, helio He, metano Ch4; Monóxido de carbono CO, Neón Ne ;Kriptón  Kr.  [] 

  

Page 49: Manual de Energías Renovables

MÓDULO: 3A. ASPECTOS BÁSICOS DE LA DINÁMICA TERRESTRE (AGUA)

 3.1.-El Agua.

El agua es un compuesto simple formado por moléculas de Hidrógeno y Oxígeno, su formulación química es H2O, lo que significa que un átomo de Oxígeno, se une a dos átomos de Hidrógeno para formar una molécula de agua. (Fig.3.1_1)

Fig.3.1_1

La temperatura media de la corteza terrestre es de 2°C (sobre cero), mientras la temperatura del aire sobre la superficie varia en el rango de +/-40ºC como los puntos de solidificación e ebullición son 0 y 100° centígrados respectivamente, el agua permanece liquida en la mayor parte de la superficie terrestre, y no hay puntos donde el agua entre en ebullición espontánea, no obstante la vaporización puede producirse a temperaturas menores dependiendo de la presión. Para entender este mecanismo debemos recordar algunos conceptos adicionales de Física. 3.2.- Presión de vapor. A una dada temperatura ambiente, la presión a la cual una sustancia inicia un cambio de estado, (por ejemplo de líquido a gas) se denomina Presión de Transformación. En el caso particular del agua líquida cuando pasa a ebullición cada presión particular que a una dada temperatura inicia la ebullición se denomina Presión de Vapor a esa Temperatura, y se indica con pv . El proceso de vaporización para el agua, es representado por el diagrama de Andrews, en el cual en abscisas (x) se representa el (volumen específico v ) _1 Vv

Msistρ= =

y en ordenadas (y) las (presiones p) .En la Fig.3.2_1 se da el diagrama de Andrews para el agua donde se muestra el proceso de vaporización para 1 Kg de agua, marcando el inicio y el final de la vaporización para cada Temperatura, que se representan en las distintas curvas paramétricas de T=cte. La campana es el lugar geométrico que van tomando las rectas que indican el comienzo y el final de la vaporización a cada temperatura e indica a que Temperatura se produce.

Page 50: Manual de Energías Renovables

  2

 Fig.3.2_1

En la tabla siguiente se dan las presiones de vapor del agua como función de la temperatura, son el lugar geométrico de los puntos entre B y C de la curva que marcan el inicio de la vaporización (yendo de izquierda a derecha) o el final de la condensación (yendo de derecha a izquierda), de C a D para 1Kg de agua.

Temperatura [ºC]  (presión de vapor) [Kpa] ‐10  0.260 ‐5  0.403 0  0.0611 5  0,872 10  1.23 15  1.71 20  2.34 25  3.17 30  4.25 40  7.38 50  12,35 100  101,33 150  475,8 200  1554 

por ejemplo el agua comienza su ebullición a 100ºC para condiciones normales de presión ambiente de 1 atmosfera es decir 101.33 Kpa, pero hierve a 134ºC en una olla a presión que opera a una presión absoluta de 3 atmósferas es decir unos 304 Kpa, opuestamente, hierve a 93ºC en una olla común para una elevación de 2000m donde la presión es de 0.8 atm.

Page 51: Manual de Energías Renovables

  3

3.3.- Humedad Absoluta.

Ya vimos que la composición básica del aire es del 78% de nitrógeno (N2) y 21% de oxígeno, (O2) pero en el aire también están presentes otros gases en pequeñas proporciones como dióxido de carbono (CO2) y de agua (H2O) en forma de vapor. La masa de vapor de agua presente en el aire por unidad de volumen (metro cúbico), se llama Humedad absoluta.

( )[ ]331 ( )masa devapor deagua Kg aguaHA

m deaire m aire= =

Como se ha indicado, el aire contiene cantidades variables de agua, en forma de vapor,.La humedad absoluta del aire es la concentración de vapor de agua en el aire, es decir, la cantidad, en masa de vapor de agua por unidad de volumen de aire. Puede oscilar entre 0 y 4 % del volumen. (con valores medios de 10 a 12 g/m3, pero puede llegar hasta 40 g/m3) Medir la humedad atmosférica es importante porque:

- Afecta al balance de radiación (efecto invernadero)

- Comporta un almacenamiento y una transferencia de calor latente.

- Es el origen de los fenómenos de condensación y sublimación (nubes e hidrometeoros).

- Es uno de los elementos que condicionan el confort climático.

El vapor de agua contenido en la atmósfera procede de:

- La evaporación directa de los océanos, mares, ríos o lagos. - La evaporación del agua existente en el suelo en forma de rocío o escarcha. - La transpiración que las plantas realizan a través de los estomas de las hojas.

3.4.- Humedad Relativa. Si capturamos 1m3 de aire atmosférico a presión normal (101.33 Kpa) en una campana (Fig.2.4_1), este valor de presión define en realidad la presión de la mezcla de gases que componen el aire, sobre esta mezcla se cumple la denominada ley de Dalton, que nos dice que la presión total de la mezcla es igual a la suma de las presiones parciales de los componentes, matemáticamente:

1

n

ip piatm

=

= ∑

o sea cada uno de los gases de la muestra actúa con independencia de los otros, de tal manera que si el metro cúbico de muestra estaría ocupado solamente por ese gas por ejemplo vapor de agua, entonces la muestra tendría una presión total:

( )p p pi vapor deaguat atm= <

esto se observa esquemáticamente en la Fig.3.4_1. Con esto podemos llegar a una importante conclusión, la presión parcial del vapor de agua no puede ser mayor que la presión de vapor a esa temperatura. Si la presión parcial iguala a la presión de vapor esa temperatura, se dice que el vapor esta saturado, y comenzará la transformación de gaseoso a líquido..

Page 52: Manual de Energías Renovables

  4

Fig.3.4_1

La presión parcial del vapor de agua es la parte de la presión atmosférica total ejercida por el vapor de agua contenido en la atmósfera. Se expresa en unidades de presión, milibares, Kpa o mm de mercurio. Cuando el aire está saturado de vapor de agua, significa que ya no puede admitir contener más vapor de agua y el exceso se condensará en forma de agua líquida. Esta presión parcial particular del vapor recibe el nombre de presión de saturación, o presión de vapor el cual depende de la temperatura. Cuanto más caliente está una masa de aire, mayor es la cantidad de vapor de agua que puede almacenar. A temperaturas bajas puede almacenar menos vapor de agua. Cuando una masa de aire caliente se enfría se pueda alcanzar la presión de saturación o vapor y entonces desprende del vapor que le sobra en forma de condensación y precipitación.

La temperatura a la que el aire está saturado se llama punto de rocío, se alcanza cuando el aire ya no puede contener más vapor de agua y éste se condensa en forma de gotas. El rocío o agua líquida en micro gotas se forma primero sobre aquellos objetos que están un poco más fríos que el resto.

La atmósfera no contiene, normalmente, la cantidad máxima de vapor de agua, por eso tiene mucha importancia conocer la humedad relativa. Es un índice de la relación entre la cantidad de vapor de agua que contiene el aire en un momento dado y la que contendría si estuviese saturado a la misma temperatura. Se expresa en % o sea esto no indica la cantidad de gramos de agua que hay en la atmósfera por [m3], sino la cantidad de agua que puede aun admitir en su estado actual, (así si es del 20%, podrá incorporar un 80% más).

La humedad relativa es muy sensible a las variaciones de temperatura, aún sin modificarse la cantidad de vapor de agua del aire.

La humedad relativa, HR, es la medida de la humedad del aire más empleada. Es el cociente, expresado en porcentaje, de la presión parcial del vapor de agua y la presión de saturación del vapor de agua para la misma temperatura o sea llamamos Humedad Relativa a la relación:

( ) 100( )

p presión parcialiHRp presión de vapor a esaTv

= ×

la humedad relativa alcanza el 100% si el vapor está saturado y 0% si no hay nada de humedad en el aire. 3.5.- Interpretando la vaporización.(Punto de Rocío y Temperatura de Rocío). En la Fig.3.5_1 siguiente se ha dibujado el diagrama de Andews, para el vapor de agua, las unidades son para el eje x [m3/Kg] o sea un volumen específico y para el eje y [atm] y [Kpa] o sea una presión absoluta, en el gráfico se observa un punto notable indicado con la letra K .

Page 53: Manual de Energías Renovables

  5

Este punto para el agua está sobre la isoterma de 374 [ºC], y para una presión de 218 [atm] indica que el vapor de agua para una Temperatura de 374ºC al ser comprimido o sea al evolucionar desde el punto K hacia la izquierda en el diagrama ya no va a pasar por el estado líquido y se va a mantener gaseoso. El diagrama presenta tres zonas bien diferenciadas, a la izquierda y abajo de la isoterma crítica de 374ºC definimos la zona L, que significa que para los puntos (p, v) del área L el agua se encuentra en estado líquido; dentro de la campana la condición es L+ V es decir puede haber una coexistencia de agua en forma de líquido y vapor, es la zona de ebullición, a la derecha de la campana y debajo de la isoterma crítica es una zona V, de Vapor sobrecalentado, y por arriba de la isoterma crítica el vapor de agua se considera un gas de propiedades aproximadas a las de un gas perfecto.

Fig.3.5_1

Se observa que la isoterma correspondiente a 100ºC, define el punto donde ha concluido la vaporización por ebullición de 1Kg de agua a presión atmosférica normal, la isoterma se hace una recta horizontal donde la presión alcanza una atmósfera (punto a la izquierda) donde inicia la ebullición y el punto a la derecha donde termina. los puntos sobre la campana a la derecha de K, indican los puntos donde la presión alcanza la presión de vapor. Analicemos ahora lo que ocurre para temperaturas menores, supongamos que hay en la atmósfera a nivel del mar una temperatura de 25ºC, la campana y la tabla anterior, nos indican que la presión de vapor a esa temperatura es de 3.17 Kpa lo que significa que el agua no puede tener una presión parcial mayor a esa temperatura sin condensarse. Si el contenido de vapor de agua por metro cúbico de la atmósfera posee una presión parcial de vapor menor a la presión de vapor para esa temperatura de 25ºC, la condición del vapor se encuentra por ejemplo en el (punto A), si ahora la temperatura ambiente comienza a descender, nos movemos verticalmente hacia una isoterma más baja (por ejemplo el punto A’ ) si el descenso de Temperatura es tal que interceptamos la campana de Andrews, hemos alcanzado el punto de rocío para ese contenido de humedad ambiente, y la humedad relativa alcanzó el 100%.. Todo exceso de vapor de agua ahora condensará sobre superficies más frías o simplemente nuestra transpiración ya no podrá evaporar y se mantendrá en nuestro cuerpo. Resumidamente:

Page 54: Manual de Energías Renovables

  6

Punto de Rocío y temperatura de rocío El punto de rocío o temperatura de rocío es la temperatura a la que empieza a condensarse el vapor de agua contenido en el aire y [agua], produciendo rocío, neblina o, en caso de que la 

temperatura sea lo suficientemente baja, escarcha. 

Una masa dada de aire, a una dada Temperatura contiene una cantidad  de vapor de agua tal que el mismo tiene una presión de vapor (pi), si su presión de vapor a esa Temperatura o presión de saturación  es (pv), se define la humedad relativa como la proporción entre ambas presiones 

En lugar de trabajar con el diagrama se pueden utilizar fórmulas empíricas basadas en el mismo, que vienen dadas por el siguiente cuadro:

3.6.- Formación de Nubes. Los efectos del calentamiento del suelo por radiación hacen que las masas de aire en contacto con el mismo eleven su temperatura respecto de otras capas que se encuentran algo por encima; como el efecto del calentamiento es la elevación del volumen de la capa por el principio de Arquímedes, esta capa se elevará sobre la mas fría la que descenderá y se pondrá en marcha el mecanismo de trasmisión de calor por convección.(Fig.3.6_1)

Fig.3.6_1

Page 55: Manual de Energías Renovables

  7

El ascenso de una masa de aire con un determinado contenido de vapor de agua a una presión parcial pi < pv , al ascender se enfría, y llega un punto en que alcanza a la campana de Andrews (punto A’ del diagrama 3.5_1) alcanzando el punto de rocío produciendo condensación y la formación de una nube que básicamente es una asociación de micro gotas o partículas de agua líquida.

Fig.3.6_2 Este es el mecanismo básico a través del cual se producen nubes, habiendo otros en los cuales interviene el movimiento de la masa de aire (viento) y los efectos orográficos. Las nubosidad básica producida por el mecanismo convectivo se las define como cúmulos típicamente en función de su tamaño:

cumulus humilis cumulus congestus

En la Fig. 3.6_2 se observa como las masas más frias se mueven hacia abajo y las más cálidas hacia arriba, dando lugar al mecanismo de convección y a la formación de un pequeño cúmulo que luego va creciendo a partir de una dada cota en la que se encuentra la Temperatura de Rocío para el contenido de vapor en el aire ascendente. 3.7.-Calentamiento y Enfriamiento del aire. El aire es diatérmico, lo que significa que absorbe poco calor por radiación solar, de esta forma la radiación solar llega casi en su totalidad a la corteza, que a su vez toma temperaturas desiguales, por ejemplo durante el período diurno la corteza se caliente más rápidamente que el mar, una playa se calienta más que un bosque etc. Entonces aparte de los procesos convectivos en la dirección vertical, también se producen en la dirección horizontal, para este mecanismo de convección horizontal no se alcanza la cota de temperatura de rocío pero es la generadora de las brisas y los vientos leves. Por ejemplo se produce brisa desde el mar durante el período diurno y desde la playa al mar durante el nocturno.

Fig.3.7_1

Page 56: Manual de Energías Renovables

  8

Fig.3.7_2a - brisa diurna

Fig.3.7_2b - brisa nocturna

[]

 

Page 57: Manual de Energías Renovables

MÓDULO: 4. ASPECTOS BÁSICOS DE LA DINÁMICA TERRESTRE (AGUA 2ª PARTE)

 4.1.-Comportamiento del agua.

Los aspectos sobresalientes del comportamiento del agua en relación al medio ambiente y a la sustentación de la vida son: a.- El comportamiento Alotrópico. b.- La ley de Dalton a.- El comportamiento Alotrópico. El agua presenta un comportamiento tal que al solidificarse aumenta su volumen, lo que permite que el hielo flote sobre ríos lagos y mares evitando que la solidificación se produzca capa por capa congelando todo el entorno líquido. b.- La ley de Dalton. Como ya lo indicamos en el Módulo 3, permite mantener separadas las presiones parciales de los componentes del aire, por tanto el agua en forma de vapor contenida posee una presión parcial independiente del conjunto de los otros gases, y esto permite el fenómeno de vaporización la formación de nubes y lluvia . también para esto interviene el aire que presenta un comportamiento diatérmico, es decir no se calienta por radiación solar, sino por conducción desde la corteza, haciendo ascender las capas más calientes y descender las frías generando el proceso de convección.

4.2.- El ciclo del agua. La tierra es el único lugar en el sistema solar en el cual el agua se presenta en los tres estados simultáneamente,

Gaseoso (Vapor de agua), Liquido y Sólido (Hielo).

En orbitas más alejadas o más próximas al Sol, las temperaturas son o muy frías o muy cálidas para que existan agua líquida. El agua líquida es esencial para toda forma de vida y su ausencia es un factor limitante para muchos tipos de vegetación. En el curso de un día de verano, los árboles tropicales consumen en promedio 200 litros de agua, el agua vuelve a la atmosfera a través de la evaporación dese la superficie de las hojas.

Fig.4.1_1 

Ej. calefacción de un cuarto 

Page 58: Manual de Energías Renovables

  2

Al mismo tiempo la vegetación desempeña un papel importante disminuyendo la evaporación del suelo y protegiéndolo de la erosión, al mismo tiempo que la vegetación del suelo y las raíces bloquean parcialmente los drenajes de agua líquida que se producen por desnivel, lo que contribuye a la infiltración del suelo. El ciclo del agua (Fig.4.2_1),se compone de: 1. Evaporación: Desde el mar, los ríos, los bosques y las llanuras en ese orden de importancia, se producen los fenómenos de evaporación. Cuando el aire asciende el vapor de agua se condensa en forma de una fina niebla que se llama nube que están formadas por pequeñas partículas no asociadas entres si como las del agua líquida. 2. Traslación de las masas nubosas. El viento y los procesos convectivos diurnos mueven las nubes sobre los continentes la evaporación en los bosques aumenta las masas nubosas. El efecto orográfico de ascenso, y la evaporación de los bosques suben las masas nubosas. El contenido de humedad de las nubes. se enfría por efecto orográfico y también por cuñas de avances de aire frío o calientes. Estos efectos, sumados a partículas de polvo atmosférico contribuyen a la aglutinación y nucleación de partículas de agua líquida creando gotas, lluvias o granizo. Cuando la precipitación tiene lugar en las altas cumbres las lluvias se transforman en hielo al llegar al piso produciendo nieve y glaciares.

3. Translación del agua líquida de retorno al mar. Cuando los glaciares se van derritiendo por radiación solar el agua se va encaminando de los lugares altos a los de más bajo nivel, creando a su paso lagos y ríos corrientes abajo. Una gran proporción de agua líquida se infiltra en el suelo y se convierte en agua subterránea. El agua se filtra naturalmente y en el proceso se incorporan minerales como agua y calcio que luego se alimentan el substrato de los bosques. El agua vuelve al mar a través de los ríos y a las aguas subterráneas que fluyen por los acuíferos. 4.3.- La Circulación general del agua. El ciclo del agua une la atmosfera, la hidrosfera y la corteza, para hacerlos trabajar como una maquinaria única. En la atmosfera el agua se encuentra principalmente en forma de vapor y partículas condensadas no asociadas (Nubes). En la corteza hay dos grandes circuitos, el de los causes de aguas superficiales (arroyos, ríos y lagos) y el lento movimiento de aguas subterráneas por los acuíferos, ambos circuitos desembocan en ultima instancia en el mar, las velocidades relativas para llegar al mar desde la montaña son: 1 año de agua líquida y de 10 a 30 años para las transportadas dentro del acuífero.

Page 59: Manual de Energías Renovables

  3

Fig.4.2_1 Se pudiera admitir que la cantidad total de agua que existe en la Tierra, en sus tres fases: sólida, líquida y gaseosa, se ha mantenido constante desde la aparición de la Humanidad. El agua de la Tierra, que constituye la hidrosfera, se distribuye en tres reservorios principales: los océanos, los continentes y la atmósfera, entre los cuales existe una circulación continua definido por el ciclo del agua o ciclo hidrológico. El movimiento del agua en el ciclo hidrológico es mantenido por la energía radiante del sol y por la fuerza de la gravedad, según explicamos más arriba. El ciclo hidrológico se define como la secuencia de fenómenos por medio de los cuales el agua pasa de la superficie terrestre, en la fase de vapor, a la atmósfera y regresa en sus fases líquida y sólida. La transferencia de agua desde la superficie de la Tierra hacia la atmósfera, en forma de vapor de agua, se debe a la evaporación directa, a la transpiración por las plantas y animales y por sublimación (paso directo del agua sólida a vapor de agua). La cantidad de agua movida, dentro del ciclo hidrológico, por el fenómeno de sublimación es insignificante en relación a las cantidades movidas por evaporación y por transpiración, cuyo proceso conjunto se denomina evapotranspiración. El vapor de agua es transportado por la circulación atmosférica y se condensa luego de haber recorrido distancias que pueden sobrepasar 1,000 km. El agua condensada da lugar a la formación de nieblas y nubes y, posteriormente, a precipitación. La precipitación puede ocurrir en una fase líquida (lluvia) o bien en la fase cristalina o sólida como es el caso de nieve o granizo. El agua precipitada en la fase sólida se presenta con una estructura cristalina, en el caso de la nieve, y con estructura granular, regular en capas, en el caso del granizo. La precipitación incluye también el agua que pasa de la atmósfera a la superficie terrestre por condensación del vapor de agua (rocío) o por congelación del vapor (helada) y por intercepción de las gotas de agua de las nieblas (nubes que tocan el suelo o el mar). El agua que precipita en tierra puede tener varios destinos. Una parte es devuelta directamente a la atmósfera por evaporación; otra parte escurre por la superficie del terreno, se concentra en surcos y va a originar las líneas de agua, arroyos, y ríos.

Page 60: Manual de Energías Renovables

  4

El agua restante se infiltra, esto es penetra en el interior del suelo; esta agua infiltrada puede volver a la atmósfera por absorción y evapotranspiración de la fronda o profundizarse hasta alcanzar las capas freáticas. Tanto el escurrimiento superficial como el subterráneo van a alimentar los cursos de agua que desaguan en lagos y en océanos. Las corrientes superficiales casuales se denominan escorrentías, se presentan siempre que hay precipitación y termina poco después de haber terminado la precipitación. Por otro lado, el escurrimiento subterráneo, especialmente cuando se da a través de medios porosos, ocurre con gran lentitud y sigue alimentando los cursos de agua mucho después de haber terminado la precipitación que le dio origen. Así, los cursos de agua alimentados por capas freáticas presentan unos caudales más regulares. Como se dijo arriba, los procesos del ciclo hidrológico ocurren en la atmósfera y en la superficie terrestre por lo que se puede admitir dividir el ciclo del agua en dos ramas: aérea y terrestre. El agua que precipita sobre los suelos va a repartirse, a su vez, en tres grupos: una que es devuelta a la atmósfera por evapotranspiración y dos que producen escurrimiento superficial y subterráneo. Esta división está condicionada por varios factores, unos de orden climático y otros dependientes de las características físicas del lugar donde ocurre la precipitación. La energía solar es la fuente de energía térmica necesaria para el paso del agua desde las fases líquida y sólida a la fase de vapor, y también es el origen de las circulaciones atmosféricas que transportan el vapor de agua y mueven las nubes. La fuerza de gravedad da lugar a la precipitación y al escurrimiento. El ciclo hidrológico es un agente modelador de la corteza terrestre en particular la erosión y lentifica el transporte y deposición de sedimentos por vía hidráulica y permite la absorción de los mismos por parte de la fronda y los cultivos. Se condiciona la cobertura vegetal y, de una forma más general, la vida en la Tierra. El ciclo hidrológico puede ser visto, en una escala planetaria, como un gigantesco sistema de destilación, extendido por todo el Planeta. El calentamiento de las regiones tropicales debido a la radiación solar provoca la evaporación continua del agua de los océanos, la cual es transportada bajo forma de vapor de agua por la circulación general de la atmósfera, a otras regiones. Durante la transferencia, parte del vapor de agua se condensa debido al enfriamiento y forma nubes que originan la precipitación. El regreso a las regiones de origen resulta de la acción combinada del escurrimiento proveniente de los ríos y de las corrientes marinas. 4.4.- El agua en porcentajes. Volumen total 100% → Agua Salada 94% Agua Dulce 6% → Aguas Subterráneas 4.3% Hielo 1.7% Agua dulce de superficie → Lagos 0.0029% → Rios 0.00015% Atmosfera 0.001 % []

Page 61: Manual de Energías Renovables

MÓDULO: 5. INTERACCIÓN DEL SER HUMANO CON EL MEDIO AMBIENTE (ATMOSFERA)

 5.1.- Introducción.

El ser humano, particularmente desde mediados del siglo XIX con el comienzo de la Revolución Industrial, ha incrementado la degradación del MA, a nivel de hidrosfera , atmosfera y Corteza, sumado estos aspectos a mayores consumos en general y de alimentos en particular, explotación de recursos no renovables y contaminantes para obtener mayor movilidad y globalización, se suma a esto la superpoblación humana del planeta, hábitos de consumo y otros aspectos culturales. Si bien los problemas son muchos y diversos citaremos en este curso los tres que consideramos mas graves.

5.2.- Atmósfera, Afectación de la Capa de Ozono.

Como ya comentáramos, la capa de Ozono es una banda ubicada en la Estratosfera que presenta una mayor concentración entre los 15 y los 35 Km de altura medidos desde la superficie terrestre, que reúne el 90% del ozono existente en el planeta. En esta zona de mayor concentración, el ozono alcanzaba un valor en condiciones naturales de 300 unidades Dobson, siendo:

( 151 2.69 10uD = × moléculas de ozono / cm3.).

Para 1995 este valor había descendido a un valor de 280 uD, actualmente, después de algunas acciones comunes a nivel planetario se ha recuperado en parte siendo su valor actual, (2010 -2012) de 285 uD en promedio.

Ozono es la variante alotrópica del Oxigeno, para lo cual tres átomos de Oxigeno están asociados en una molécula de O3. El ozono tiene la particularidad de actuar como filtro de la radiación Ultravioleta (UV) de altas frecuencias contenidas en la banda de los 400 a los 300 nm de longitud de longitud de onda.El significado de nanómetro es 10 elevado a la -9, es decir las longitudes de onda filtradas están entre 9200 10−× y 9300 10−× , dejando pasar a la atmósfera inferior parte del espectro UV que es beneficioso. Las longitudes de onda del espectro total de radiaciones está dado en la Fig.5.2_1 siguiente:

Fig.5.2_1 

La gama de radiación filtrada es justamente la que es nociva para la vida y los procesos naturales.

Page 62: Manual de Energías Renovables

  2

El mecanismo resumidamente es el siguiente, cuando la radiación de lata energía impacta una molécula de O3,la escinde en: O2 + O , ahora el oxígeno atómico que quedó libre, que es altamente reactivo, se recombina nuevamente con otro oxigeno molecular O2 formando nuevamente al ozono y liberando calor hacia el espacio exterior, es decir se ha generado un proceso de absorción de energía de alta frecuencia que es devuelta al exterior como calor, ( la misma energía pero en una frecuencia menor de Infra rojo), creando de esta forma una suerte de escudo para la radiación nociva proveniente del Sol (Fig.5.2_2).

Fig.5.2_2

La utilización de Freón en la industria, en sus diversas variedades, (CFC, cloro fluoro carbonados) a partir de 1930 con la masificación de la refrigeración domiciliaria (heladeras, congeladores) afectó este proceso.

Las variedades nocivas para la capa de ozono son principalmente:

C CL3 F Tricloro-Fluorometano (Freón 11).

C CL2 F2 Dicloro difluorometano (Freón 12).

C CL3 F3 (Freón 113).

C CL4 F4 (Freón 114).

 

Fig.5.2_3

Los Freones se difunden en la atmósfera y ascienden lentamente hasta la estratósfera, allí los descompone la radiación UV de 175 a 220 nm, el oxígeno libre reactivo que se produce en la primera fase (Fig.5.2_2) opta por el Cl primario desarmado de la molécula del freón creando CLO , esta acción de oportunidad para el oxígeno reactivo, impide la formación de nuevas moléculas de O3 y su concentración en la capa va decayendo.

A partir de 1976 se firmaron varios protocolos de protección y los Freones se han dejado de utilizar como propulsantes de aerosoles, equipos de refrigeración domésticos y automotrices.

Page 63: Manual de Energías Renovables

  3

En los últimos años se ha realizado un gran esfuerzo para encontrar alternativas a los CFCs. Dentro de ellas, las más estudiadas han sido los hidroclorofluorcarbonos (HCFC) e hidrofluorcabonos (HFC). Estas moléculas contienen, unidos a los átomos de carbono, átomos de hidrógeno, cloro y/o flúor. Los radicales hidroxilo, presentes en la troposfera, degradan con facilidad los enlaces C--H de estos compuestos. Al mismo tiempo, la presencia de estos compuestos de sustituyentes de Cl y Br les confiere algunas de las ventajosas propiedades de los CFCs: baja reactividad y supresión de fuego, buenos aislantes y disolventes y puntos de ebullición adecuados para su empleo en ciclos de refrigeración.

Algunos de los CFCs han sido ya sustituidos por estos compuestos. El CHF2Cl (HCFC-22) es un refrigerante que puede sustituir al CCl2F2 (CFC-12) en los compresores de sistemas de aire acondicionados y frigoríficos domésticos. Para la fabricación de aislantes de espumas de poliuretano se pueden emplear CH3CFCl2 (HCFC-141b) o CF3CHCl2 (HCFC-123) en vez de CCl3F (CFC-11).

[]

Page 64: Manual de Energías Renovables

  4

_selección de los dos mejores trabajos de 2011 referidos a este tema_

Capa de ozono. (definición ampliada).

Esquema de la distribución de ozono en la atmósfera. El pico superior corresponde a lo que llamamos capa de ozono.

Se denomina capa de ozono, u ozonosfera, a la zona de la estratosfera terrestre que contiene una concentración relativamente alta1 de ozono. Esta capa, que se extiende aproximadamente de los 15 km a los 40 km de altitud, reúne el 90% del ozono presente en la atmósfera y absorbe del 97% al 99% de la radiación ultravioleta de alta frecuencia.

Origen del ozono.

El ozono es la forma alotrópica del oxígeno, que sólo es estable en determinadas condiciones de presión y temperatura. Es un gas compuesto por tres átomos de oxígeno (O3).

Los mecanismos fotoquímicos que se producen en la capa de ozono fueron investigados por el físico británico Sidney Chapman en 1930. La formación del ozono de la estratosfera terrestre es catalizada por los fotones de luz ultravioleta que al interaccionar con las moléculas de oxígeno gaseoso, que está constituida por dos átomos de oxígeno (O2), las separa en los átomos de oxígeno (oxígeno atómico) constituyente. El oxígeno atómico se combina con aquellas moléculas de O2 que aún permanecen sin disociar formando, de esta manera, moléculas de ozono, O3.

La concentración de ozono es mayor entre los 15 y 40 km, con un valor de 2-8 partículas por millón, en la zona conocida como capa de ozono. Si todo ese ozono fuese comprimido a la presión del aire al nivel del mar, esta capa tendría solo 3 mm de espesor.

El ozono actúa como filtro, o escudo protector, de las radiaciones nocivas, y de alta energía, que llegan a la Tierra permitiendo que pasen otras como la ultravioleta de onda larga, que de esta forma llega a la superficie. Esta radiación ultravioleta es la que permite la vida en el planeta, ya que es la que permite que se realice la fotosíntesis del reino vegetal, que se encuentra en la base de la pirámide trófica.

Al margen de la capa de ozono, mencionemos que el 10% de ozono restante está contenido en la troposfera, es peligroso para los seres vivos por su fuerte carácter oxidante. Elevadas concentraciones de este compuesto a nivel superficial forman el denominado smog fotoquímico. El origen de este ozono se explica en un 10% como procedente de ozono transportado desde la estratosfera y el resto es creado a partir de diversos mecanismos, como el producido por las tormentas eléctricas que ionizan el aire y lo hacen, muy brevemente, buen

Page 65: Manual de Energías Renovables

  5

conductor de la electricidad: pueden verse algunas veces dos relámpagos consecutivos que siguen aproximadamente la misma trayectoria.

Ciclo del ozono

El ozono se produce mediante la siguiente reacción:

O2 + hν − > O + O2

O + O2 − > O3

Es decir, el oxígeno molecular que se encuentra en las capas altas de la atmósfera es bombardeado por la radiación solar. Del amplio espectro de radiación incidente una determinada fracción de fotones cumple los requisitos energéticos necesarios para catalizar la rotura del doble enlace de los átomos de oxígeno de la molécula de oxígeno molecular.

Posteriormente, la radiación solar convierte una molécula de ozono en una de oxígeno biatómico y un átomo de oxígeno sin enlazar:

O3 + hν − > O2 + O

Durante la fase oscura, (la noche de una determinada región del planeta) el oxígeno monoatómico, que es altamente reactivo, se combina con el ozono de la ozonosfera para formar una molécula de oxigeno biatómico:

O3 + O − > 2O2

Para mantener constante la capa de ozono en la estratosfera esta reacción fotoquímica debe hacerse en perfecto equilibrio, pero estas reacciones son fácilmente perturbables por moléculas, como los compuestos clorados (como los clorofluorocarbonos3 ) y los compuestos bromurados.

 

 

 

Page 66: Manual de Energías Renovables

  6

Agujero de ozono  1 

 

La figura indica el promedio anual global de la concentración 

El seguimiento observacional de la capa de ozono, llevado a cabo en los últimos años, ha llegado a la conclusión de que dicha capa puede considerarse seriamente amenazada. Este es el motivo principal por el que se reunió la Asamblea General de las Naciones Unidas el 16 de septiembre de 1987, firmando el Protocolo de Montreal. En 1994, la Asamblea General de las Naciones Unidas proclamó el día 16 de septiembre como el Día Internacional para la Preservación de la Capa de Ozono.4

El enrarecimiento grave de la capa de ozono provocará el aumento de los casos de melanomas (cáncer) de piel, de cataratas oculares, supresión del sistema inmunitario en humanos y en otras especies. También afectará a los cultivos sensibles a la radiación ultravioleta.

Para preservar la capa de ozono hay que disminuir a cero el uso de compuestos químicos como los clorofluorocarbonos (refrigerantes industriales, propelentes), y fungicidas de suelo (como el bromuro de metilo) (Argentina, 900 toneladas/año5 ) que destruyen la capa de ozono a un ritmo 50 veces superior a los CFC.

Esperanzas de solución

“Los niveles atmosféricos de clorofluorocarbonos (CFC) por fin han comenzado a descender”, informa la revista ECOS, publicada por la institución australiana Commonwealth Scientific and Industrial Research Organization (CSIRO). Esos compuestos químicos de la atmósfera dañan la capa de ozono que protege nuestro planeta. Durante más de cincuenta años, el número de CFC presentes en la parte alta de la atmósfera ha aumentado a un ritmo constante hasta el año 2000. Desde entonces, la concentración de CFC se ha “reducido a razón de casi un 1% anual”, afirma la revista. Según el informe, el descenso “permite esperar que el agujero de la capa de ozono pueda cerrarse a mediados de siglo”. No obstante, estos productos todavía causan daño. “A pesar del descenso, el agujero de la Antártida ha alcanzado este año [2005] una extensión de casi 29.000.000 de kilómetros cuadrados, más de tres veces el tamaño de Australia”, dice el mismo informe.

[]

Page 67: Manual de Energías Renovables

  7

Agujero de la capa de ozono 2. (Definición ampliada).

Fig.5.2b_1

Fig.5.3_1, Imagen del agujero de ozono más grande en la Antártida registrada en septiembre de 2000. Datos obtenidos por el instrumento Total Ozone Mapping Spectrometer (TOMS) a bordo de un satélite de la NASA.

Se denomina agujero de la capa de ozono a la zona de la atmósfera terrestre donde se producen reducciones anormales de la capa de ozono, fenómeno anual observado durante la primavera en las regiones polares y que es seguido de una recuperación durante el verano. El contenido en ozono se mide en Unidades Dobson (siendo UD= 2.69 × 1016 moléculas/cm² ó 2.69 × 1020 moléculas/m²).

En las mediciones realizadas en tiempos recientes se descubrieron importantes reducciones de las concentraciones de ozono en dicha capa, con especial incidencia en la zona de la Antártida.

Se atribuyó este fenómeno al aumento de la concentración de cloro y de bromo en la estratosfera debido tanto a las emisiones antropogénicas de compuestos químicos, entre los que destacan los compuestos clorofluorocarbonados (CFC) utilizados como fluido refrigerante.

En septiembre de 1987 varios países firmaron el Protocolo de Montreal, en el que se comprometían a reducir a la mitad la producción de CFC´s en un periodo de 10 años. En la actualidad el problema se considera solucionado, debido a la prohibición de los productos causantes, que han sido substituidos por otros.1

Casi el 99% de la radiación ultravioleta del Sol que alcanza la estratosfera se convierte en calor mediante una reacción química que continuamente recicla moléculas de ozono (O3). Cuando la radiación ultravioleta impacta en una molécula de ozono, la energía escinde a la molécula en átomos de oxígeno altamente reactivos; casi de inmediato, estos átomos se recombinan formando ozono una vez más y liberando energía en forma de calor.

• La formación de ozono se inicia con la fotólisis (ruptura de enlaces químicos por la energía radiante) del oxígeno molecular por la radiación solar de una longitud de onda menor de 240 nm

• El ozono por sí mismo absorbe luz UV de entre 200 y 300 nm:

Page 68: Manual de Energías Renovables

  8

• Los átomos de oxígeno, al ser muy reactivos, se combinan con las moléculas de oxígeno para formar ozono:

donde M es cualquier sustancia inerte, como por ejemplo el N2. El papel que tiene M en esta reacción exotérmica es absorber parte del exceso de energía liberada y prevenir la descomposición espontánea de la molécula de O3. La energía que no absorbe M es liberada en forma de calor. Cuando las moléculas de M regresan por sí mismas al estado basal, liberan más calor al entorno.

A pesar de que todo el ozono atmosférico en CNPT sería una capa de sólo unos 3 mm. de grosor, su concentración es suficiente para absorber la radiación solar de longitud de onda de 200 a 300 nm. Así, la capa de ozono funciona como un escudo que nos protege de la radiación UV.

La formación y destrucción del ozono por procesos naturales es un equilibrio dinámico que mantiene constante su concentración en la estratosfera. Se han registrado amplias variaciones interanuales y estacionales en todas las regiones del planeta en la densidad del ozono estratosférico; se verificó que en el hemisferio austral la concentración pasa por un mínimo en primavera y luego se regenera.

Causas de la disminución de ozono en la estratosfera

El ozono es una sustancia, cuya molécula está compuesta por 3 átomos de oxigeno, la cual se forma al disociarse los 2 átomos que componen el gas de oxigeno. Cada átomo de oxigeno se une a otra molécula de oxigeno formando moléculas de ozono O3. Se le denomina Capa de Ozono a la estratosfera terrestre la cual concentra más del 90% de todo el ozono existente en nuestro planeta. Esta capa tiene una gran importancia dentro de nuestra vida ya que sirve para depurar el aire y sobre todo sirve para filtrar los rayos ultravioletas procedentes del espacio. Sin ese filtro la existencia de vida en la tierra sería imposible.

Esta capa se ha visto dañada por diferentes motivos los cuales todos conocemos como aerosoles y todo tipo de contaminación. Pero últimamente se ha descubierto que hay otro motivo por el cual la capa de ozono ha estado siendo perjudicada.

Clorofluorocarbonos

Desde mediados de los años 1970, los científicos se han preocupado por los efectos nocivos de ciertos clorofluorocarbonos (CFC) en la capa de ozono. Los CFC, que se conocen con el nombre comercial de freones, se sintetizaron por primera vez en los años 30. Los más comunes son CFCl3 (freón 11), CF2Cl2 (freón 12), C2F3Cl3 (freón 113) y C3F4Cl4 (freón 114).

Como estos compuestos se licúan con facilidad, y son más o menos inertes, no tóxicos, no combustibles y volátiles, se han utilizado como refrigerantes para acondicionadores de aire y refrigeradores, en lugar del amoníaco (NH3) y del dióxido de azufre (SO2) líquido, que son muy tóxicos.

Los CFC se utilizan en grandes cantidades para fabricar productos desechables, como vasos y platos, propelentes para aerosoles en lata, y disolventes para limpiar tarjetas de circuitos electrónicos. La mayor parte de los CFC que se usan en el comercio y la industria se arrojan a la atmósfera.

Como son poco reactivos, los CFC se difunden con lentitud (tardan años) hacia la estratosfera sin sufrir cambios; ahí se descomponen por la radiación UV de longitudes de onda de 175 a 220 nm:

Page 69: Manual de Energías Renovables

  9

Los átomos de oxígeno de esta reacción los aporta la descomposición fotoquímica del oxígeno molecular y del ozono. Se debe notar que el átomo de Cl funciona como catalizador en el mecanismo de la reacción, y, como no se utiliza, puede participar en muchas reacciones de este tipo, pudiendo destruir más de 100.000 moléculas de O3 antes de ser eliminado por alguna otra reacción. La especie ClO es un intermediario porque se produce en el primer paso elemental y se consume en el segundo paso. Este mecanismo de destrucción de O3 se ha comprobado por la detección del monóxido de cloro en la estratosfera en años recientes. La concentración de O3 disminuye en las regiones que tienen más cantidad de ClO.

Óxidos de nitrógeno

Otro grupo de compuestos que pueden destruir el ozono de la estratosfera son los óxidos de nitrógeno (representados como NOX), como NO, NO2, N2O y N2O5. Estos compuestos provienen de los gases expulsados por los aviones supersónicos que vuelan a gran altura, así como por procesos naturales y por otros procesos hechos por el hombre en la Tierra. La radiación solar descompone una cantidad considerable de otros óxidos de nitrógeno en óxido nítrico (NO), que también actúa como catalizador en la destrucción del ozono. El NO2 es el intermediario, pero también puede reaccionar con el monóxido de cloro, formando nitrato de cloro (ClONO2). Este último es más o menos estable y sirve como “depósito de cloro”, otro factor que también contribuye a la destrucción del ozono estratosférico en los polos norte y sur.

Causas naturales y artificiales

Existen estudios que sostienen que la influencia de las 7.500 toneladas de cloro provenientes de CFC que ascienden anualmente a la estratosfera es mínima frente a los 600.000.000 de toneladas de cloro y flúor (otro gas agresivo) en forma de sales que escapan de los océanos como aerosoles.

A estas cantidades de compuestos químicos de origen natural habría que sumarles los aportes de metilcloro por incendios de bosques y, por lo menos, otros 36.000.000 de toneladas anuales en forma de HCl proveniente de erupciones volcánicas. Se han observado correlaciones entre erupciones volcánicas fuertes y disminuciones temporarias en el tenor de ozono estratosférico y se considera probable que los volcanes de la Antártida tengan un efecto muy directo: uno solo de ellos, el Erebus, expulsa cada año unas 15.000 toneladas de cloro y, algo menos de flúor, a muy poca distancia de la estratosfera antártica. Sin embargo, se sabe que la mayor parte de este cloro regresa a la Tierra arrastrado por las lluvias antes de salir de la troposfera. Tampoco hay acuerdo sobre estas cifras relativas, que dependen de las mediciones y del método de cálculo.

Otro factor natural que influye en la velocidad de reconstitución de la capa de ozono es la variación de la actividad solar, ya que cuando hay mayor irradiación ultravioleta se genera más ozono, pero también más óxidos de nitrógeno que deprimen el tenor de ozono. Los orígenes de la incertidumbre acerca de los factores que afectan la capa de ozono son, como se ve, muy diversos.

Agujeros en la capa de ozono

A mediados de los años 1980 se empezó a acumular pruebas de que a finales del invierno se había formado un “agujero” en la capa de ozono del Polo sur, donde el ozono se había reducido en casi 50%. Durante el invierno, en la estratosfera se forma una corriente de aire que rodea a la Antártida y que se conoce como “torbellino polar” o vórtice. El aire que queda atrapado en este torbellino se vuelve extremadamente frío durante la noche polar, lo cual favorece la formación de partículas de hielo denominadas nubes polares estratosféricas. Estas nubes actúan como un catalizador heterogéneo al proporcionar una superficie para las reacciones en las que el HCl de la Tierra y el nitrato de cloro se convierten en moléculas de cloro reactivas:

Page 70: Manual de Energías Renovables

  10

Al comienzo de la primavera, la luz solar separa al cloro molecular en sus correspondientes átomos de cloro, que son los responsables de la destrucción del ozono.

La situación es menos grave en el Ártico porque en esta región más caliente el torbellino no dura tanto tiempo. El vórtice sella la Antártida y evita las influencias en esta región del resto de la atmósfera. El aislamiento producido por el vórtice impide que el aire más cálido y rico en ozono existente alrededor de la Antártida, proveniente de los trópicos, fluya hacia el polo, lo que ayudaría a reemplazar el ozono destruido y elevar las temperaturas en este continente.

En cambio el aire rico en ozono, que es llevado hacia el polo por las ondas planetarias, se junta al borde del vórtice, formando un "anillo" de aire con altas concentraciones de ozono que puede ser visto en las imágenes satelitales.

La NASA señaló que si no se hubiera firmado el tratado de Montreal, dos terceras partes de la capa habría sido destruido y el "agujero" de ozono hubiera sido destruido. El CFC habría aumentado la temperatura mundial en más de un grado centígrado. La radiación ultravioleta, que daña el ADN, hubiera aumentado seis veces. Apenas cinco minutos de exposición al Sol habría causado quemaduras a la piel. Los niveles de rayos ultravioletas durante el verano hubieran aumentado hasta 30. Finalmente, las tormentas de verano del Hemisferio Norte hubieran sido mucho más poderosas.2

En 1976 un informe de la Academia Nacional de Ciencias de Estados Unidos aportaba una evidencia científica sobre la disminución de ozono. A raíz de éste, unos cuantos países, incluidos Canadá, Suecia, Noruega y Estados Unidos tomaron las primeras iniciativas de eliminación de CFCs en las latas de aerosoles.

Aunque esto se concibió como un primer paso hacia una regulación más exhaustiva, los progresos posteriores se ralentizaron por factores políticos y la aparición de informes de la misma academia que indicaban que el primer informe había sobrestimado la disminución de la capa de ozono.

En 1985, 20 países, incluyendo los mayores productores de CFCs firmaron la Convención de Viena para la Protección de la Capa de Ozono, donde se establecía un marco para la negociación de regulaciones internacionales sobre sustancias que afectaran a la capa de ozono. Ese mismo año se anunció el descubrimiento del agujero de ozono en la Antártida, lo que atrajo la atención del gran público sobre el tema.

El propósito principal del Convenio de Viena es estimular la investigación y observaciones científicas y la cooperación entre las naciones a fin de tener un mejor entendimiento de los procesos atmosféricos a nivel mundial. Se acordó el control de numerosas sustancias y también una investigación más detallada. El Convenio estableció los protocolos para el futuro y especificó los procedimientos para las enmiendas y resolución de disputas.

En 1987, representantes de 43 naciones firmaron el Protocolo de Montreal. Se comprometieron a mantener los niveles de producción de CFCs de 1986, y a reducirlos en un 50% en 1999. Pero al irse acumulando más evidencia científica sobre el origen humano de la disminución del ozono, se hizo necesario un nuevo acuerdo, que se firmó en 1990 en Londres. Los participantes se comprometían a eliminar totalmente los CFCs en el año 2000. Sólo se permitía un pequeño porcentaje marcado como de uso esencial, como los inhaladores para casos de asma. Una nueva reunión en 1992 en Copenhague adelantó la fecha de eliminación al año 1996.

En gran proporción los CFCs fueron sustituidos por HCFCs. Estos últimos no suponen una amenaza para la capa de ozono, pero sí son gases que potencian el efecto invernadero.

Como propuesta curiosa, en 1989 el físico italiano Antonino Zichichi llegó a proponer lanzar misiles repletos de ozono para tapar el agujero de la Antártida.

Page 71: Manual de Energías Renovables

  11

Aunque las medidas asociadas al protocolo de Montreal han reducido las emisiones de CFCs, el efecto de esta reducción sobre el agujero de ozono aún no es estadísticamente significativo. Un trabajo de Newman et al en 2006 preveía que la recuperación total no se produjese hasta el año 2050, y que una recuperación parcial estadísticamente detectable no se daría hasta el año 2024.

Hay una incertidumbre relativa a estos resultados: proviene del calentamiento global causado por el CO2, que al calentar la estratosfera podría conducir a la disminución de la capa de ozono y de la frecuencia de aparición de agujeros.[]

Page 72: Manual de Energías Renovables

  12

5.3.- Efecto Invernadero.

La Temperatura media de la superficie de la Tierra es de unos 15ºC, lo que equivale a unos 33ºC por encima de la Temperatura que tendría la superficie si dependiera solamente de la radiación solar, que en este caso (sin la capa de aire presente) sería de -16ºC a -18ºC.

El motivo de la diferencia es que parte del calor irradiado, por la corteza de regreso al espacio, se ve atrapado por la atmósfera que actúa como una manta que cubre la corteza. En particular el efecto “manta” lo realizan dos gases que se denominan Gases de Efecto Invernadero (GEI), que son el CO2 (dióxido de carbono) y el H2O (vapor de agua).

Ambos gases absorben radiación Infra Roja (IR) de onda larga que es emitida por la corteza terrestre a unos 15ºC, este efecto se denomina Efecto Invernadero, y garantiza las Temperaturas templadas medias del planeta. Es decir que en condiciones estables el EI es algo beneficioso para el planeta.

Pero esta condición de estabilidad o equilibrio debería mantenerse entre la energía emitida promedio anual que emite el Sol y alcanza a la Tierra cuyo promedio es 494 [watts /m2 año] y la que la Tierra devuelve al espacio nuevamente por irradiación de onda larga IR de 15ºC.

Pero actualmente la energía devuelta promedio es de 493 [watts /m2 año], con lo cual vemos que hay un desbalance de 0.9 a 1[watt / m2 año], lo que conduce a una gradual acumulación de energía que se traduce en aumento promedio de la Temperatura de la capa de aire y corteza. Esto se conoce tal vez mal llamado como “Efecto Invernadero”.

El gradual incremento de la cantidad de CO2 en el aire como consecuencia de la extracción de petróleo y gas y el quemado de los mismos conduce a un gradual aumento de la energía atrapada y a potenciar el efecto.

Dos casos extremos se observa en nuestros planetas vecinos, Marte posee una atmósfera muy ligera, compuesta de CO2 pero que no es suficiente para crear Efecto Invernadero, y la radiación solar se pierde rápidamente dando lugar a temperaturas muy abiertas o extremas en la alternacia dia-noche cutya duración es muy similar a la Tierra ya que el día marciano dura 24.6 horas (mientras que el año marciano es aprox. el doble 687 días terrestres). la diferencia de temperaturas varia para latitudes próximas al ecuador entre 20º (dia) y -80ºC (noche).

El caso opuesto es Venus, su proximidad al sol ha evaporado toda el agua líquida, creando una gran capa de vapor de agua, que es un potente gas de invernadero, de efecto mayor que el CO2, se gana más energía por radiación de la que se devuelve por irradiación, generándose temperaturas extremas sobre la superficie que va desde 120ºC en los polos a 470ºC en el ecuador, asimismo esta atmósfera crea una presión a nivel superficial de unas 90 atm, condiciones que dificultarían la vida de seres muy desarrollados.

El desbalance de radiación actual para la Tierra, de 0.9 a 1[watt / m2 año],está produciendo un gradual aumento de la Temperatura promedio a escala global, los principales causantes son los GEI, que los componen un grupo de gases emitidos en su mayor parte por actividades humanas directas o indirectas, ellos son:

Vapor de agua. (H2O) procesos industriales, centrales nucleares, vehiculos impulsados a hidrógeno

Dióxido de carbono. (CO2) combustión de combustibles fósiles

Metano. (CH4) crianza de ganado en aumento, descomposición de alimentos.

Oxidos de Nitrógeno (N2O) procesos industriales

Oxidos de azufre. (SO) procesos industriales.

[]

Page 73: Manual de Energías Renovables

  13

_selección de los dos mejores trabajos de 2011 referidos a este tema_

Efecto Invernadero (definición ampliada).

La atmósfera busca el mantenimiento del equilibrio entre la recepción de la radiación solar y la emisión de radiación infrarroja que recibe del Sol. que se devuelve al espacio. Esta acción de equilibrio se llama balance energético de la Tierra y permite mantener la temperatura en un estrecho margen que posibilita la vida.

Si la radiación entrante fuese mayor que la radiación saliente se produciría un calentamiento y lo contrario produciría un enfriamiento.

Por tanto, en equilibrio, la cantidad de radiación solar entrante en la atmósfera debe ser igual a la radiación solar reflejada saliente más la radiación infrarroja térmica saliente proveniente de la superficie. Toda alteración de este balance de radiación, ya sea por causas naturales u originado por el hombre (antropógeno), es un forzamiento y supone un cambio de clima y del tiempo meteorológico asociado.

Los flujos de energía entrante y saliente interaccionan en el sistema climático ocasionando muchos fenómenos tanto en la atmósfera, como en el océano o en la corteza. Así la radiación entrante solar se puede dispersar en la atmósfera o ser reflejada por las nubes

La superficie terrestre puede reflejar o absorber la energía solar que le llega. La energía solar de onda corta se transforma en calor. Esa energía no se disipa, se encuentra como calor sensible o calor latente, se puede almacenar durante algún tiempo, transportarse en varias formas, dando lugar a una gran variedad de fenómenos en la atmósfera o en el océano; finalmente la energía vuelve a ser emitida a la atmósfera como energía radiante de onda larga.

Page 74: Manual de Energías Renovables

  14

Un proceso importante del balance de calor es el efecto albedo, por el que algunos objetos reflejan más energía solar que otros. Los objetos de colores claros, como las nubes o la superficies nevadas, reflejan más energía, mientras que los objetos oscuros absorben más energía solar que la que reflejan. Otro ejemplo de estos procesos es la energía solar que actúa en los océanos, la mayor parte se consume en la evaporación del agua de mar, luego esta energía es liberada en la atmósfera y devuelta a superficie cuando el vapor de agua se condensa en lluvia.

La Tierra, como todo cuerpo caliente superior al cero absoluto, emite radiación térmica, pero al ser su temperatura mucho menor que la solar, emite radiación infrarroja de frecuencias múltiples denominadas en física como radiación cuerpo negro. La frecuencia de la radiación emitida depende de la temperatura del cuerpo. En el estudio del NCAR han concluido que a partir de una oscilación anual media entre 15,9 °C en julio y 12,2 °C en enero compensando los dos hemisferios, que se encuentran en estaciones distintas y la parte terrestre que es de día con la que es de noche, supone una radiación media anual emitida por la Tierra de:

396 watts /m2.

La energía infrarroja emitida por la Tierra es atrapada en su mayor parte en la atmósfera y reenviada de nuevo a la Tierra. Este fenómeno se llama Efecto Invernadero y garantiza las temperaturas templadas del planeta. Según el estudio anterior de la NCAR, el Efecto Invernadero de la atmósfera hace retornar nuevamente a la Tierra 333 watts /m2.

Globalmente la superficie de la Tierra absorbe energía solar por valor de 161 w/m2 y del Efecto Invernadero de la Atmósfera recibe 333 w/m2, lo que suma 494 w/m2, como la superficie de la Tierra emite (o dicho de otra manera pierde) un total de 493 w/m2 (que se desglosan en 17 w/m2 de calor sensible, 80 w/m2 de calor latente de la evaporación del agua y 396 w/m2 de energía infrarroja), el balance supone una absorción neta de calor media anual de 0,9 w/m2, que en el tiempo actual está provocando el calentamiento de la Tierra.

Efecto Invernadero de varios gases de la atmósfera

Es el proceso por el que ciertos gases de la atmósfera retienen gran parte de la radiación infrarroja emitida por la Tierra y la reemiten de nuevo a la superficie terrestre calentando la misma. Estos gases han estado presentes en la atmósfera pero en cantidades muy reducidas durante la mayor parte de la historia de la Tierra, y actualmente están aumentando.

Aunque la atmósfera seca está compuesta prácticamente por nitrógeno (78,1%), oxígeno (20,9%) y argón (0,93%), son gases muy minoritarios en su composición como el dióxido de carbono (0,035%: 350 ppm), el ozono y otros los que desarrollan esta actividad retensiva.

Además, la atmósfera contiene vapor de agua (1%o: 10.000 ppm) que también es un gas retensivo activo, siendo con diferencia el gas natural invernadero más importante. El dióxido de carbono ocupa el segundo lugar en importancia.

Page 75: Manual de Energías Renovables

  15

La denominada curva Keeling muestra el continuo crecimiento de CO2 en la atmósfera desde 1958. Recoge las mediciones de Keeling en el observatorio del volcán Mauna Loa. Estas mediciones fueron la primera evidencia significativa del rápido aumento de CO2 en la atmósfera y atrajo la atención mundial sobre el impacto de las emisiones de los gases invernadero.

El efecto invernadero es esencial para la vida del planeta: sin CO2 ni vapor de agua (sin el efecto invernadero) la temperatura media de la Tierra sería unos 33 °C menor, del orden de 18 °C bajo cero, lo que haría inviable la vida.

Pero actualmente el CO2 presente en la atmósfera está creciendo de modo no natural por las actividades humanas, principalmente por la combustión de carbón, petróleo y gas natural que está liberando el carbono almacenado en estos combustibles fósiles y la deforestación de la selva pluvial que libera el carbono almacenado en los árboles, y corta el proceso de fotosíntesis. Por tanto es preciso diferenciar entre el efecto invernadero natural del originado por las actividades de los hombres (o antropogénico).

La población se ha multiplicado y la tecnología ha alcanzado una enorme y sofisticada producción de forma que se está presionando muchas partes del medio ambiente terrestre siendo la Atmósfera la zona más vulnerable de todas por su delgadez. Dado el reducido espesor atmosférico la alteración de algunos componentes moleculares básicos que también se encuentran en pequeña proporción supone un cambio significativo. En concreto, la variación de la concentración de CO2, el más importante de los gases invernadero de la atmósfera. Ya se ha explicado el papel básico que estos gases tienen como reguladores de la temperatura del Planeta.

Los gases invernadero permanecen activos en la atmósfera mucho tiempo, por eso se les denomina de larga permanencia. Eso significa que los gases que se emiten hoy permanecerán durante muchas generaciones produciendo el efecto invernadero. Así del CO2 emitido a la atmósfera: más del 50% tardará 30 años en desaparecer, un 30% permanecerá varios siglos y el 20% restante durará varios millares de años.

La concentración de CO2 atmosférico se ha incrementado desde la época preindustrial (año 1.750) desde un valor de 280 ppm a 379 ppm en 2005. Se estima que 2/3 de las emisiones procedían de la quema de combustibles fósiles (petróleo, gas y carbón) mientras un 1/3 procede del cambio en la utilización del suelo (Incluida la deforestación). Del total emitido solo el 45% permanece en la atmósfera, sobre el 30% es absorbido por los océanos y el restante 25% pasa a la biosfera terrestre. Por tanto no solo la atmósfera está aumentando su concentración de CO2, también está ocurriendo en los océanos y en la biosfera.

Page 76: Manual de Energías Renovables

  16

Gases de efecto invernadero

Incrementos en la atmósfera de los cinco gases responsables del 97% del efecto invernadero antropogénico en el periodo 1976-2003.

Los denominados gases de efecto invernadero o gases invernadero, responsables del efecto descrito, son:

• Vapor de agua (H2O) • Dióxido de carbono (CO2) • Metano (CH4) • Óxidos de nitrógeno (N2O) • Ozono (O3) • Clorofluorocarbonos (CFC)

Si bien todos ellos (salvo los CFC) son naturales, en tanto que ya existían en la atmósfera antes de la aparición del hombre, desde la Revolución industrial y debido principalmente al uso intensivo de los combustibles fósiles en las actividades industriales y el transporte, se han producido sensibles incrementos en las cantidades de óxido de nitrógeno y dióxido de carbono emitidas a la atmósfera, con el agravante de que otras actividades humanas, como la deforestación, han limitado la capacidad regenerativa de la atmósfera para eliminar el dióxido de carbono, principal responsable del efecto invernadero.

Gases de Efecto Invernadero afectados por actividades humanas

Descripción CO2 CH4 N2O CFC-11 HFC-23 CF4

Concentración pre industrial 280 ppm 700 ppb 270 ppb 0 0 40 ppt

Concentración en 1998 365 ppm 1.745 ppb 314 ppb 268 ppt 14 ppt 80 ppt

Permanencia en la atmósfera

de 5 a 200 años 12 años 114

años 45 años

260 años

<50.000 años

Fuente: ICCP, Clima 2001, La base científica, Resumen técnico del Informe del Grupo de Trabajo I, p. 38

Emisiones antropogénicas de Gases de Efecto Invernadero (GEI) de larga permanencia

Las actividades humanas generan emisiones de cuatro GEI de larga permanencia: CO2, metano (CH4), óxido nitroso (N2O) y halocarbonos (gases que contienen flúor, cloro o bromo).

Page 77: Manual de Energías Renovables

  17

Cada GEI tiene una influencia térmica distinta sobre el sistema climático mundial por sus diferentes propiedades y períodos de permanencia en la atmósfera. Tales influencias se homogenizan en una métrica común tomando como base el CO2 (emisiones de CO2-equivalente). Homogenizados todos los valores, el CO2 es con mucha diferencia el gas invernadero antropógeno de larga permanencia más importante, representando en 2004 el 77% de las emisiones totales de GEI antropógenos. Pero el problema no solo es la magnitud sino también las tasas de crecimiento. Entre 1970 y 2004, las emisiones anuales de CO2 aumentaron un 80%. Además en los últimos años el incremento anual se ha disparado: en el reciente periodo 1995-2004, la tasa de crecimiento de las emisiones de CO2-eq fue de (0,92 Gt CO2-eq anuales), más del doble del periodo anterior 1970-1994 (0,43 Gt CO2-eq anuales).

Según el Informe Stern que estudió el impacto del cambio climático y el calentamiento global en la economía mundial, encargado por el gobierno británico y publicado en 2006, la distribución total mundial de las emisiones de GEI por sectores es: un 24% se debe a la generación de electricidad, un 14% a la industria, un 14% al transporte, un 8% a los edificios y un 5% más a actividades relacionadas con la energía. Todo ello supone unas 2/3 partes del total y corresponde a las emisiones motivadas por el uso de la energía.

Aproximadamente el 1/3 restante se distribuye de la siguiente forma: un 18% por el uso del suelo (incluye la deforestación), un 14% por la agricultura y un 3% por los residuos.

Entre 1970 y 2004, las mejoras tecnológicas han frenado las emisiones de CO2 por unidad de energía suministrada. Sin embargo el crecimiento mundial de los ingresos (77%) y el crecimiento mundial de la población (69%), han originado nuevas formas de consumo y un incremento de consumidores de energía. Esta es la causa del aumento de las emisiones de CO2 en el sector de la energía.

También el Informe Stern señala que desde el año 1.850, Estados Unidos y Europa han generado el 70% de la emisiones totales de CO2.17

Emisiones de CO2 en el mundo procedentes de combustibles fósiles (1990-2007)

Descripción 1990 1995 2000 2005 2007 % Cambio 90-07

CO2 en millones de toneladas 20.980 21.810 23.497 27.147 28.962 38,0%

Población mundial en millones 5.259 5.675 6.072 6.382 6.535 25,7%

CO2 por cápita en toneladas 3,99 3,84 3,87 4,20 4,38 9,8%

Fuente: Agencia Internacional de la Energía18

Calentamiento global y cambio climático producido por los GEI

El cambio climático está cambiando el planeta y los humanos contribuimos diariamente a incrementarlo. En los 100 años últimos la temperatura media global del planeta ha aumentado 0,7 °C, siendo desde 1975 el incremento de temperatura por década de unos 0,15 °C . En lo que resta de siglo, según el IPCC, la temperatura media mundial aumentará en 2-3 °C . Este aumento de temperatura supondrá para el planeta el mayor cambio climático en los últimos 10.000 años y será difícil para las personas y los ecosistemas adaptarse a este cambio brusco.

Page 78: Manual de Energías Renovables

  18

En los 400.000 años anteriores, según conocemos por los registros de núcleos de hielo, los cambios de temperatura se produjeron principalmente por cambios de la órbita de la Tierra alrededor del Sol. En el tiempo actual, los cambios de temperatura se están originando por los cambios en el dióxido de carbono de la atmósfera. En los últimos 100 años, las concentraciones atmosféricas de CO2 han aumentado en un 30% debido a la combustión antropogénica de los combustibles fósiles. El aumento constante del CO2 atmosférico ha sido el responsable de la mayor parte del calentamiento. Este calentamiento no puede ser explicado por causas naturales: las mediciones de los satélites no muestran variaciones de entidad en la energía procedente del Sol en los últimos 30 años; las tres grandes erupciones volcánicas producidas en 1963, 1982 y 1991 han generado aerosoles que reflejaban la energía solar, lo cual produjo cortos periodos de enfriamiento.27

En la Tierra a partir del año 1950 se dispararon las emisiones debidas a la combustión de combustibles fósiles, tanto las de petróleo como las de carbón y gas natural.

El calentamiento atmosférico actual es inevitable, estando producido por las emisiones de gases invernadero pasadas y actuales. 150 años de industrialización y de emisiones han modificado el clima y continuará repercutiendo en el mismo durante varios cientos de años, aun en la hipótesis de que se redujeran las emisiones de gases de efecto invernadero y se estabilizara su concentración en la atmósfera.

El IPCC en su informe de 2007 manifiesta: Hay un alto nivel de coincidencia y abundante evidencia respecto a que con las políticas actuales de mitigación de los efectos del cambio climático y con las prácticas de desarrollo sostenible que aquellas conllevan, las emisiones mundiales de GEI seguirán aumentando en los próximos decenios.

Una de las estimaciones de futuro de la Agencia Internacional de la Energía en un informe de 2.009 pasa de 4 t de emisión de CO2 por persona en 1990, a 4,5 t en 2.020 y a 4,9 t en 2.030. Esto significaría que el CO2 emitido y acumulado desde 1890, pasaría de 778 Gt en 1990, a 1.608 Gt en 2.020 y a 1.984 Gt en 2.030.

Las consecuencias del cambio climático provocado por las emisiones de GEI se estudian en modelos de proyecciones realizados por varios institutos meteorológicos. Algunas de las consecuencias recopiladas por el IPCC son las siguientes:

• En los próximos veinte años las proyecciones señalan un calentamiento de 0,2 °C por decenio.

• Las proyecciones muestran la contracción de la superficie de hielos y de nieve. En algunas proyecciones los hielos de la región ártica prácticamente desaparecerán a finales del presente siglo. Esta contracción del manto de hielo producirá un aumento del nivel del mar de hasta 4–6 m.

• Habrá impactos en los ecosistemas de tundra, bosques boreales y regiones montañosas por su sensibilidad al incremento de temperatura; en los ecosistemas de

Page 79: Manual de Energías Renovables

  19

tipo Mediterráneo por la disminución de lluvias; en aquellos bosques pluviales tropicales donde se reduzca la precipitación; en los ecositemas costeros como manglares y marismas por diversos factores.

• Disminuirán los recursos hídricos de regiones secas de latitudes medias y en los trópicos secos debido a las menores precipitaciones de lluvia y la disminución de la evapotranspiración, y también en áreas surtidas por la nieve y el deshielo.

• Se verá afectada la agricultura en latitudes medias, debido a la disminución de agua. • La emisión de carbono antropógeno desde 1750 está acidificando el océano, cuyo pH

ha disminuido 0,1. Las proyecciones estiman una reducción del pH del océano entre 0,14 y 0,35 en este siglo. Esta acidificación progresiva de los océanos tendrá efectos negativos sobre los organismos marinos que producen caparazón.

El IPCC, entidad fundada para evaluar los riesgos de los cambios climáticos inducidos por los seres humanos, atribuye la mayor parte del calentamiento reciente a las actividades humanas.

La NAC (National Academy of Sciences: Academia Nacional de Ciencias) de Estados Unidos también respaldó esa teoría. El físico atmosférico Richard Lindzen y otros escépticos se oponen a aspectos parciales de la teoría.

Para John Theodore Houghton, fundador del Centro Hadley y copresidente del grupo de evaluación científica del IPCC en sus primeros tres informes, está admitido que se producirá un daño generalizado por el aumento del nivel del mar y olas de calor, por inundaciones y sequías más frecuentes e intensas. El cambio climático antropogénico afectará seriamente a las próximas generaciones y a los ecosistemas mundiales. Su incidencia podría limitarse significativamente si se emprendiera una acción conjunta mundialde reducción de emisiones .

Sería aconsejable mantener el incremento de la temperatura global solo en 2 °C por encima de la temperatura del periodo preindustrial, para ello la concentración de CO2 no debería superar las 450 ppm (hoy sobre 390 ppm). Esto implica que en 2050 las emisiones mundiales de CO2 deben reducirse al 50% del nivel de 1990 (actualmente están 15% por encima de ese nivel). En las dos próximas décadas también debería interrumpirse la deforestación tropical, responsable del 20% de las emisiones de gases de tipo invernadero.

Para Nicholas Stern, ex jefe del Servicio Económico del Gobierno del Reino Unido y ex economista jefe del Banco Mundial, para no superar 450 ppm de concentración atmosférica de CO2, se requerirá una reducción de las emisiones mundiales anuales de unas 50 gigatoneladas de CO2 equivalente en la actualidad a 35 gigatoneladas en 2030 y a 20 gigatoneladas en 2050. Para comprender el nivel del esfuerzo que se requiere, en la actualidad, las emisiones anuales por habitante son 12 toneladas en la Unión Europea, 23 toneladas en los Estados Unidos, 6 toneladas en China y 1,7 toneladas en la India. En 2050 la población mundial se estima será de 9.000 millones, y las emisiones anuales por habitante se deberían reducir a dos toneladas de CO2 equivalente de media, para que el total anual mundial sea de 20 gigatoneladas. Aunque la industrialización de los países desarrollados desde el siglo XIX es la causante de los niveles actuales de GEI, son los países en desarrollo los más vulnerables a las consecuencias del cambio climático. Los países ricos deben apoyar financieramente a los países en desarrollo para que ejecuten planes de crecimiento económico con poco carbono y frenar la deforestación en sus países. Según los últimos cálculos el mundo en desarrollo para ajustarse al cambio climático precisa de los países ricos anualmente 100.000 millones de dólares para la adaptación y otros 100.000 millones para la mitigación de aquí al 2020.

Fatih Birol, economista jefe de la Agencia Internacional de Energía, señala la importancia de los países emergentes, pues con las políticas actuales, las estimaciones de la Agencia Internacional de Energía proyectan un crecimiento anual de la demanda de energía primaria global del 1,6% mundial hasta 2030, de 11.730 millones de toneladas equivalentes de petróleo (Mtep) a 17.010 Mtep (un incremento del 45% en apenas 20 años). China e India requerirán la mitad de este incremento, y los países no miembros de la OCDE en conjunto supondrán el 87% del incremento del CO2, pasando su demanda total de energía mundial del 51% en la actualidad a suponer el 62% del total en 2030.

Page 80: Manual de Energías Renovables

  20

También para él, es imprescindible una importante transformaciónen del sector energético. Hasta ahora la larga vida útil de gran parte de sus infraestructuras causa una lenta sustitución de sus equipos, lo que motiva que el empleo de tecnologías eficientes se demore. Los sectores público y privado deben aceptar la necesidad de inversiones adicionales y el retiro temprano de instalaciones inadecuadas, para acelerar el proceso y reducir las emisiones, especialmente en centrales de energía y en equipos. Los gobiernos deben dirigir esta transformación y orientar el consumo mediante medidas claras de tarificación, incluida la tarificación por emisiones de carbono. La energía renovable desempeñará un papel importante. Se calcula que la generación global de electricidad basada en energías renovables se duplicará entre 2006 y 2030.

Se debe tener en cuenta que existe una cantidad importante de vapor de agua (humedad y nubes) en la atmósfera terrestre, y que el vapor de agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (el vapor de agua es un gas de invernadero más eficiente que el CO2).[cita requerida] A este proceso se le conoce como la retroalimentación del vapor de agua (water vapor feedback en inglés). Es esta retroalimentación la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua, así como su distribución vertical, son claves en el cálculo de esta retroalimentación.

Concentración de CO2 atmosférico medido en el observatorio de Mauna Loa: Curva de Keeling.

El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima; cualquier persona ha notado que la temperatura cae cuando pasa una nube en un día soleado de verano, que de otro modo sería más caluroso. Es decir: las nubes enfrían la superficie reflejando la luz del Sol de nuevo al espacio. Pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes podría tener efectos complejos y variados en el clima, ya que una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes.

Los incrementos de CO2 medidos desde 1958 en Mauna Loa muestran una concentración que se incrementa a una tasa de cerca de 1,5 ppm por año. De hecho, resulta evidente que el incremento es más rápido de lo que sería un incremento lineal. El 21 de marzo del 2004 se informó de que la concentración alcanzó 376 ppm (partes por millón). Los registros del Polo Sur muestran un crecimiento similar al ser el CO2 un gas que se mezcla de manera homogénea en la atmósfera. []

Page 81: Manual de Energías Renovables

MÓDULO: 6. INTERACCIÓN DEL SER HUMANO CON EL MEDIO AMBIENTE (HIDRÓSFERA)

6.1.- Introducción.

Para muchas de las culturas de la Tierra, el agua ha simbolizado la vida. Los países con agua eran prósperos y los que no la tenían se enfrentaban al desastre. El saber donde estaba el agua y donde encontrarla era la clave del éxito. Hace 400 años era difícil sacar el agua porque las bombas no eran buenas y la gente se preocupaba por ahorrar agua, no la desperdiciaba, pero hoy en día la sacan con las bombas modernas con las cuales es más cómodo obtener el agua y además hay procesos para su tratamiento. El agua es considerada como contaminada cuando sus características naturales están alteradas de tal modo que la hace total o parcialmente inadecuada para el uso al que es destinada. El ciclo natural del agua tiene una gran capacidad de purificación. Pero esta misma facilidad de regeneración del agua, y su aparente abundancia, hace que sea el vertedero habitual en el que arrojamos los residuos producidos por nuestras actividades. Pesticidas, desechos químicos, metales pesados, residuos radiactivos, etc., se encuentran en cantidades mayores o menores al analizar las aguas aun en los más remotos lugares del mundo. Muchas aguas están contaminadas hasta el punto de hacerlas peligrosas para la salud humana, y dañinas para la vida. La degradación de las aguas viene desde hace ya mucho tiempo y en algunos lugares, como la desembocadura del Nilo, hay niveles altos de contaminación desde hace siglos; pero ha sido el siglo XX cuando se ha extendido este problema a ríos y mares de todo el mundo. Primero fueron los ríos, las zonas portuarias de las grandes ciudades y las zonas industriales las que se convirtieron en sucias cloacas, cargadas de productos químicos, espumas y toda clase de contaminantes. Con la industrialización y el desarrollo económico este problema se ha ido trasladando a los países en vías de desarrollo, a la vez que en los países desarrollados se producían importantes mejoras. 6.2.- Aguas Continentales y Marítimas. Tres cuartas partes de la Tierra están cubiertas por Agua. La mayor parte del agua forma los océanos el agua dulce se localiza en lagos y ríos, se considera que existen apenas 93 mil Km3 de agua dulce, es decir, un 0.0067 % del total del agua existente en el planeta. Las aguas continentales, son aquellas que están dentro del territorio de los continentes. Éstas pueden ser saladas o dulces, pero generalmente son dulces, ya que éstas están formadas por los ríos, los lagos, los arroyos, etc. Las aguas marítimas son aquellas que se encuentran rodeando los continentes a nivel planetario. Las aguas marítimas se caracterizan por ser saladas, por tener un oleaje constante relativamente fuerte a comparación del las aguas continentales que ayudan a moldear el paisaje. El 97.5% del agua es salada, el 2.5% resultante es agua dulce distribuida en lagos, ríos y arroyos. 6.3.- Agua Potable. El agua que no tiene ningún tipo de gérmenes o de sustancias químicas dañinas, es considerada potable. Éste es el único tipo de agua que puede consumir el ser humano, sin preocuparse de contraer alguna enfermedad.

Page 82: Manual de Energías Renovables

  2

Desde hace ya muchos años, el hombre se ha preocupado por obtener agua potable. En Egipto purificaban el agua vaciándola en vasijas de barro, en donde permanecía durante un año. Al cabo de este tiempo, las impurezas se habían depositado en el fondo. Luego por medio de un sifón extraían de la parte superior de la vasija, el agua purificada. Las antiguas culturas orientales, usaban la arena o barro poroso a manera de filtros, a través de los cuales pasaban el agua para limpiarla de las impurezas. Con el paso del tiempo, la población ha ido aumentando, y con ella, la necesidad de tener más agua potable, haciendo que la cantidad de ésta ha ido disminuyendo, tanto, que es necesario tratar cualquier tipo de agua para volverla potable. Algunos de éstos tratamientos son la filtración, la ebullición y la desinfección. Hay dos fuentes de agua (potable o no) y éstas son aguas superficiales o aguas subterráneas. El agua que se obtiene de una fuente superficial es llevada hasta la planta de tratamiento para purificarla. De ahí pasa a depósitos en donde es almacenada y transportada por medio de tuberías que están debajo de la tierra; luego, a través redes de distribución no troncales, llega el agua potable a cada una de nuestras casas. El agua que proviene de fuentes subterráneas es llevada hasta los depósitos de almacenamiento, donde se le aplica la desinfección con cloro. Posteriormente es enviada a una red de distribución. Una vez que se han realizado en nuestro hogar todas las funciones que requieren del agua, se recogen los desechos domésticos por medio del sistema de alcantarillado, lo lógico es proceder a su re-purificación separando los desechos, pero en algunos casos el agua utilizada se transporta hacia algunos de los ríos, que reciben los residuos de la ciudad, la falta de una purificación artificial ha contribuido a que cada día haya menos recursos de agua potable disponible. 6.4.- Contaminación del Agua. La contaminación del agua es un problema local, regional y mundial y está relacionado con la contaminación del aire y con el modo en que usamos los recursos del planeta. El crecimiento demográfico, la industrialización y la superpoblación y concentración urbana, contribuyen a lo que es una amenaza para el hombre contemporáneo, el deterioro de su medio ambiente. Desde su origen, los grupos humanos se establecieron en las cercanías de los ríos, lagos o áreas costeras, por su dependencia vital del medio acuático, provocando así los primeros indicios del deterioro de la calidad del agua y evidenciando la contaminación. La contaminación del agua constituye la incorporación al agua de materias extrañas como microorganismos, productos químicos, residuos industriales y de otros tipos, o aguas residuales. Estas materias deterioran la calidad del agua y la hacen inútil para los usos pretendidos. un detalle de lo anterior puede ser determinado definiendo las causas de la contaminación tal como la entendemos hoy: Microorganismos patógenos. Son los diferentes tipos de bacterias, virus, protozoos y otros organismos que transmiten enfermedades como el cólera, tifus, gastroenteritis diversas, hepatitis, etc. En los países en vías de desarrollo las enfermedades producidas por estos patógenos son uno de los motivos más importantes de muerte prematura, sobre todo de niños. Normalmente estos microbios llegan al agua en las heces y otros restos orgánicos que producen las personas infectadas. Por esto, un buen índice para medir la salubridad de las aguas, en lo que se refiere a estos microorganismos, es el número de bacterias coliformes presentes en el agua.

Page 83: Manual de Energías Renovables

  3

Según los índices de medición de la Organización Mundial de la Salud (OMS) en el agua potable debe de haber 0 colonias de coliformes por cada 100 ml para agua de consumo, y un máximo de 200 colonias por 100 mililitros de agua para nadar. Desechos orgánicos. Son el conjunto de residuos orgánicos producidos por los seres humanos, ganado, etc. Incluyen heces y otros materiales que pueden ser descompuestos por bacterias aeróbicas, es decir en procesos con consumo de oxígeno. Cuando este tipo de desechos se encuentran en exceso, la proliferación de bacterias agota el oxígeno, y ya no pueden vivir en estas aguas peces y otros seres vivos que necesitan oxígeno. Para medir la contaminación por desechos orgánicos se compara la cantidad de oxígeno disuelto (OD) en el agua, o la Demanda Biológica de Oxígeno (DBO). Sustancias químicas inorgánicas. En este grupo están incluidos ácidos desechos industriales tales como, sales y metales tóxicos como el mercurio y el plomo. Si están en cantidades altas pueden causar graves daños a los seres vivos, disminuir los rendimientos agrícolas y corroer los equipos que se usan para los procesos de purificación del agua. Nutrientes vegetales inorgánicos. Nitratos y fosfatos son sustancias solubles en agua que los cultivos necesitan para su desarrollo, pero si se encuentran en cantidad excesiva inducen el crecimiento desmesurado de algas y otros organismos provocando la eutrofización de las aguas. La eutrofización (ver también punto 6.7) consiste en forzar un sistema acuático desde el exterior, con la incorporación de más nutrientes, y también de materia orgánica, que alteran temporalmente las condiciones de equilibrio, induciendo desviaciones en las características del sistema, en su composición biótica. Estos procesos introducen cambios físicos, químicos y biológicos en la calidad del agua (Figura.6.4_1). Cuando estas algas y otros vegetales mueren, al ser descompuestos por los microorganismos, se agota el oxígeno y se hace imposible la vida de otros seres vivos. El resultado es un agua contaminada e inutilizable.

Page 84: Manual de Energías Renovables

  4

Fig.6.4_1 Compuestos orgánicos. Muchas moléculas orgánicas como derivados procesados del petróleo, gasolina, plásticos, plaguicidas, disolventes, detergentes, etc. acaban en el agua y permanecen, en algunos casos, largos períodos de tiempo, porque, al ser productos fabricados por el hombre, tienen estructuras moleculares complejas difíciles de degradar por los microorganismos. Sedimentos y materiales suspendidos. Muchas partículas arrancadas del suelo por la lluvia sobre las ciudades por ejemplo y arrastradas a el agua, junto con otros materiales que hay en suspensión en las aguas, son, en términos de masa total, la mayor fuente de contaminación del agua. La turbidez que provocan en el agua dificulta la vida de algunos organismos, y los sedimentos que se van acumulando destruyen los lugares de alimentación o de desove de los peces, rellenan lagos o pantanos y obstruyen canales, ríos y puertos. Sustancias radiactivas. Isótopos radiactivos solubles a veces se presentan en el agua y, a veces, se pueden ir acumulando, alcanzando concentraciones considerablemente más altas en algunos tejidos vivos que las que tenían en el agua. Pueden provenir de Centrales nucleares con problemas de envejecimiento y mantenimiento, o catástrofes como Terremotos.

Page 85: Manual de Energías Renovables

  5

Contaminación Térmica. El agua caliente liberada por centrales de energía o procesos industriales eleva la temperatura de ríos o lagos, disminuyendo su capacidad de contener oxígeno y afectando a la vida de los organismos. (Tomamos la Papelera Botnia sobre el Rio Uruguay como ejemplo, de desidia y falta de oportunidad de los funcionarios Argentinos mientras se estaba construyendo). 6.5.- Contaminación de Mares y Océanos Los derivados industriales del petróleo y el petróleo mismo cuando es trasportado por vía marítima es un factor muy contribuyente a la contaminación de grandes cuerpos de agua, como lo son los mares y los océanos. Cuando los barcos o plataformas petroleras se hunden o sufren algún escape de líquido, el mar que rodea a dicho extractor de petróleo se contamina. Las prospecciones efectuadas en las costas también originan contaminación. El viscoso y espeso petróleo causa la muerte de especies estropeando, además de contaminar, las playas y aguas litorales, en las que no se puede nadar ni practicar deportes acuáticos. Otro factor muy importante, contaminante del agua de los mares, son los desechos derivados del petróleo ya sea industriales o de las ciudades (que usan el mar como basurero) arrojadas al mar. El mar no sólo recibe las aguas residuales, sino que, en muchas ocasiones, se usa para arrojar las basuras o, incluso, los residuos radiactivos. El 80% de las substancias que contaminan el mar tienen su origen en tierra. De las fuentes terrestres la contaminación difusa es la más importante. Llega al mar como consecuencia del barrido atmosférico por lluvia. Aproximadamente un tercio de la contaminación que llega a los mares empieza siendo contaminación atmosférica pero después acaba cayendo a los océanos. Los océanos son el lugar de deposición habitual de gran parte de los desechos de las actividades humanas. Los ríos arrastran llevan las aguas contaminadas a los mares. Muchas comunidades costeras liberan las aguas cloacales sin tratamiento alguno, además de grandes cantidades de desechos sólidos y compuestos químicos contaminantes. Varios países, entre ellos Francia e Italia, cada año, por un periodo indeterminado tienen que cerrar sus playas por la contaminación en el mar de ellas. Estados Unidos, hace 30 años, aceptó que depositaba anualmente al mar cerca de 50 millones de toneladas de desechos, llevados mar adentro por buque−tanques o barcazas (esto es sin incluir los desechos arrastrados por las aguas cloacales que son descargadas y arrojadas a lo largo de las costas de los océanos Atlántico y Pacífico y el Golfo de México). Los desechos industriales se componen de desperdicios de la perforación, explotación y de refinerías de petróleo, de fábricas de plaguicidas, de fábricas de papel, de las siderúrgicas, de acabado metálico, de operaciones de electro−deposición de metales y una gran diversidad de productos químicos y de materiales. Se cree, que en los mares y océanos de grandes profundidades, el agua puede diluir, dispersar y degradar grandes cantidades de aguas cloacales, algunos desechos industriales y petróleo. Pero, un pensamiento un poco más real sería que utilizar los océanos como vertederos de nuestros desechos retrasa la urgente necesidad de prevenir su contaminación y disminuye los recursos marinos y genera la degradación posterior de la parte vital del sistema del soporte de la vida sobre la Tierra.

Page 86: Manual de Energías Renovables

  6

6.6.- Contaminación del agua dulce. El agua dulce que utilizamos proviene de dos fuentes: agua superficial y agua subterránea (mantos freáticos). Se le llama agua superficial a aquella que al llover no se filtra a la tierra ya sea porque forma un charco, lago, laguna, etc., o porque regresa a la atmósfera. Las aguas subterráneas son las que se encuentran por debajo de la corteza terrestre. Contaminación de Aguas superficiales. La contaminación de los mantos de aguas superficiales puede ocurrir por fuentes no puntuales y por fuentes puntuales. La principal fuente no puntual de contaminación del agua es la agricultura. Mucha de la gente desecha los productos químicos y fertilizantes en los ríos y caudales cercanos. (Se puede observar residuos de glifosatos sobre las márgenes del rio Uruguay debido a la producción de Soja en Entre Rios). Una fácil solución para éste problema sería disminuir casi completamente el uso de éstos productos en tierras planas o cerca de laderas. Los ganaderos también pueden controlar la contaminación de los mantos acuíferos, al controlar el escurrimiento e infiltración de desechos animales en las granjas, así como, evitando utilizar terrenos inclinados hacia las aguas superficiales cercanas. Las aguas cloacales y los desechos industriales arrastrados por el agua de fuentes puntuales generalmente no son tratados. La mayoría de éstos desechos son descargados a las corrientes de agua más cercanas o en lagunas de desechos donde el aire, la luz solar y los microorganismos degradan a los desechos, matan a algunas bacterias patógenas (causantes de enfermedades) y permiten que los sólidos se sedimenten, contaminando no así al ambiente, pero si al cuerpo de agua que los contenga. Contaminación de Aguas Subterráneas. El agua freática es el agua subterránea que constituye una fuente muy importante para extraer agua para beber. y para riego agrícola, pero como su proceso de renovación es muy lento, resulta una fuente de agua fácil de agotar. Por otra parte, la contaminación del agua subterránea puede considerarse permanente. Algunas bacterias y la mayoría de los contaminantes sólidos son removidos o eliminados cuando el agua superficial contaminada se filtra en el suelo a los mantos acuíferos. Pero este proceso puede llegar a ser sobrecargado por grandes volúmenes de desechos domésticos e industriales. A pesar de que el suelo si retiene algunas sustancias contaminantes, no puede retener ni virus ni muchas sustancias químicas orgánicas, las cuales se disuelven en las aguas subterráneas. Las aguas subterráneas no pueden depurarse por sí mismas, ya que las corrientes de éstas son lentas y no turbulentas, y los contaminantes no se diluyen ni se dispersan fácilmente. Es difícil, también, que se lleve a cabo el proceso de descomposición aeróbica, ya que es muy poco el oxígeno debajo de la tierra, y las colonias de bacterias anaeróbicas son muy dispersas y no son suficientes para descomponer la materia. Para que las aguas subterráneas contaminadas puedan liberarse por sí mismas de los desechos contaminantes tienen que pasar cientos de años.

Page 87: Manual de Energías Renovables

  7

6.7.- Proceso de Eutrofización. Un río, un lago o una presa sufre de eutrofización cuando sus aguas se enriquecen en nutrientes. Si hay exceso de nutrientes crecen en abundancia las plantas y otros organismos. Más tarde, cuando mueren, se pudren y llenan el agua de malos olores y le dan un aspecto nauseabundo, disminuyendo drásticamente su calidad. El proceso de putrefacción consume una gran cantidad del oxígeno disuelto y las aguas dejan de ser aptas para la mayor parte de los seres vivos. El resultado final es un ecosistema casi destruido. Cuando un lago o embalse es pobre en nutrientes (oligotrófico) tiene las aguas claras, la luz penetra bien, el crecimiento de las algas es pequeño y mantiene a pocos animales. Las plantas y animales que se encuentran son los característicos de aguas bien oxigenadas como las truchas. Al ir cargándose de nutrientes el lago se convierte en eutrófico. Crecen las algas en gran cantidad con lo que el agua se enturbia. Las algas y otros organismos, cuando mueren, son descompuestos por la actividad de las bacterias con lo que se gasta el oxígeno.

Fig.6.7_1 Los nutrientes que más influyen en este proceso son los fosfatos y los nitratos. En algunos ecosistemas el factor limitante es el fosfato, como sucede en la mayoría de los lagos de agua dulce, pero en muchos mares el factor limitante es el nitrógeno para la mayoría de las especies de plantas. En los últimos 20 o 30 años las concentraciones de nitrógeno y fósforo en muchos mares y lagos casi se han duplicado. La mayor parte les llega por los ríos. En el caso del nitrógeno, una elevada proporción (alrededor del 30%) llega a través de la contaminación atmosférica. El nitrógeno es más móvil que el fósforo y puede ser lavado a través del suelo o saltar al aire por evaporación del amoniaco o por desnitrificación. El fósforo es absorbido con más facilidad por las partículas del suelo y es arrastrado por la erosión erosionadas o disuelto por las aguas de escorrentía superficiales.

Page 88: Manual de Energías Renovables

  8

Fuentes de Eutrofización. Eutrofización natural.− La eutrofización es un proceso que se va produciendo lentamente de forma natural en todos los lagos del mundo, porque todos van recibiendo nutrientes. Eutrofización de origen humano.− Los vertidos humanos aceleran el proceso hasta convertirlo, muchas veces, en un grave problema de contaminación. Las principales fuentes de eutrofización son los desechos humanos echados a las aguas que llevan detergentes y desechos orgánicos, y los desechos agrícolas y ganaderos que aportan fertilizantes, desechos orgánicos y otros residuos ricos en fosfatos y nitratos. Medida del grado de eutrofización. Para conocer el nivel de eutrofización de un agua determinada se suele medir el contenido de clorofila de algas en la columna de agua y este valor se combina con otros parámetros como el contenido de fósforo y de nitrógeno y el valor de penetración de la luz. Medidas para evitar la eutrofización. Lo más eficaz para luchar contra este tipo de contaminación es disminuir la cantidad de fosfatos y nitratos en los desechos, usando detergentes con baja proporción de fosfatos, empleando menor cantidad de detergentes, no abonando en exceso los campos, usando los desechos agrícolas y ganaderos como fertilizantes, en vez de echarlos al agua, entre otras maneras. En concreto: Tratar las aguas residuales en estaciones depuradoras de aguas residuales que incluyan tratamientos biológicos y químicos que eliminan el fósforo y el nitrógeno. Almacenar adecuadamente el estiércol que se usa en agricultura. Usar los fertilizantes más eficientemente. Cambiar las prácticas de cultivo a otras menos contaminantes. Así, por ejemplo, retrasar el arado y la preparación de los campos para el cultivo hasta la primavera y plantar los cultivos de cereal en otoño asegura tener cubiertas las tierras con vegetación durante el invierno con lo que se reduce la erosión. Reducir las emisiones de amoniaco. 6.8.- Biomagnificación. Se denomina así al proceso acumulativo de sustancias tóxicas en un organismo animal o vegetal. Los desechos industriales cuando vertidos en el agua, ya sea mares, ríos, o lagos, contienen mercurio, al igual que otros productos químicos tóxicos. Otro gran factor para éste problema es la cantidad de pesticidas e insecticidas utilizadas por el hombre que van a dar a los cuerpos de agua. Cuando un pez come algún insecto o una planta que ha sido expuesto a algún insecticida, ingiere con él la dosis de plaguicida que se va a almacenar en la grasa de su cuerpo. Cuando otro animal, se come al pez, se come también el insecticida que éste comió durante toda su vida.

Page 89: Manual de Energías Renovables

  9

Si come muchos peces en las mismas condiciones, almacena más y más insecticida. Cuando finalmente, un animal más, el depredador terciario, generalmente el hombre, se come al pescado adquiere con él todo el insecticida que ha acumulado. Así, se establece una cadena acumulativa de insecticida, del cual va aumentando su concentración proporcionalmente al tamaño de dicha cadena. No hay un solo lugar en el mundo en donde no hay alguna contaminación en el agua por parte de los insecticidas y desechos tóxicos. (Fig.6.8_1).

Fig.6.8_1 6.9.- Tratamiento de Aguas Contaminadas. La contaminación del agua puede evitarse construyendo modernos sistemas de alcantarillado, montando más plantas purificadoras y haciendo que los fertilizantes y los insecticidas no sean vertidos o lleguen naturalmente a ríos, arroyos o espejos de agua. Muchas naciones comienzan a emplear una gran cantidad de recursos en este aspecto, pero por el momento no se detiene la contaminación del agua, que crece día a día. Diversas organizaciones dependientes de la ONU están estudiando la contaminación oceánica y planteando fórmulas para resolver el problema. Si se desea que los mares de nuestro planeta se salven, todos los países del mundo has de actuar unidos en este empeño. En algunas industrias, utilizan estanques llamados facultativos, los cuales eliminan los materiales contaminantes mediante el cultivo de bacterias. Pero existen contaminantes refractarios a eto, el cual no puede ser desecho por las bacterias, y para este material, las industrias acostumbran usar carbón activado. Como el carbón activado es capaz de adsorber muchos compuestos orgánicos que no son biodegradables, resulta muy útil en el tratamiento de aguas de desecho de refinerías y de algunas industrias. También, en países desarrollados, lo utilizan en las plantas de tratamiento de aguas de desecho a pequeña escala, como en centros comerciales, unidades habitacionales o pequeñas poblaciones.

Page 90: Manual de Energías Renovables

  10

En todos los grandes centros urbanos del planeta Tierra se generan grandes cantidades de aguas cloacales como consecuencia del desarrollo de las actividades humanas, por lo que las principales fuentes de las mismas son la industria, la ganadería, la agricultura y las actividades domésticas que se incrementan con el crecimiento de la población humana. Los contaminantes biodegradables de las aguas cloacales pueden ser degradados mediante procesos naturales o en sistemas de tratamientos hechos por el hombre, en los que acelera el proceso de descomposición de la materia orgánica con microorganismos. Entre las operaciones que se utilizan en los tratamientos primarios de aguas contaminadas están: la filtración, la sedimentación, la flotación, la separación de aceites y la neutralización. Uno de los métodos más utilizados para tratar al agua contaminada es el de cloración, y aunque no es el mejor, es uno de los de menor costo. Éste proceso puede ser contraproducente, ya que el cloro reacciona con la materia orgánica en las aguas de desecho y en el agua superficial produce pequeñas cantidades de hidrocarburos cancerígenos. Algunos otros desinfectantes como el ozono, el peróxido de hidrógeno (agua oxigenada) y luz ultravioleta se empiezan a utilizar, pero son más costosos que el cloro. Otros tratamientos para aguas residuales que son un poco más avanzados que los procesos comunes son la ósmosis inversa, la electrodiálisis que se utilizan para la desmineralización de las aguas y eliminar los iones orgánicos, y el de adsorción con carbono activado que se utiliza para quitarle al agua los compuestos orgánicos. Tarea para los alumnos: Hacer un listado de las cosas que le parece, se pueden hacer a nivel individual y familiar dentro de nuestra casa y en nuestra interacción con la Ciudad en que habitamos para contribuir a la no contaminación de la hidrósfera.

[]

Page 91: Manual de Energías Renovables

  11

_selección de los dos mejores trabajos de 2011 respecto al problema referido_

Reciclado de envases PET

Uno de los contaminantes oceánicos mas importantes esta constituido por envases de gaseosas y otos productos que no han sido reciclados y terminan llegando al mar el material de estos envases se denomina Polietileno Tereftalato o (PET).

El PET, cuyo nombre técnico es Polietileno Tereftalato, fue patentado como un polímero para fibra por J. R. Whinfield y J. T. Dickinson en 1941. Catorce años más tarde, en 1951 comenzó la producción comercial de fibra de poliéster. Desde entonces hasta hoy en día, la fabricación de PET ha presentado un continuo desarrollo tecnológico, logrando un alto nivel de calidad y una diversificación en sus empleos. A partir de 1976 se emplea en la fabricación de envases ligeros, transparentes y resistentes, principalmente para bebidas, los cuales, al principio eran botellas gruesas y rígidas, pero hoy en día, sin perder sus excelentes propiedades como envase, son mucho más ligeros. La fórmula química del polietileno tereftalato o politereftalato de etileno, en resumen, PET, es la siguiente:

[CO-C6H6-CO-O-CH2-CH2-O]

El PET es un material caracterizado por su gran ligereza y resistencia mecánica a la compresión y a las caídas, alto grado de transparencia y brillo, conserva el sabor y aroma de los alimentos, es una barrera contra los gases, reciclable 100% y con posibilidad de producir envases reutilizables, lo cual ha llevado a desplazar a otros materiales como por ejemplo, el PVC. Presenta una demanda creciente en todo el mundo, lo cual se aprecia, por ejemplo, en los 450 millones de toneladas de PET empleados anualmente en Europa, casi 300 toneladas en envases. Su empleo actual es muy diverso; como envase, quizás el uso más conocido, se emplea en bebidas carbónicas, aceite, aguas minerales, zumos, tés y bebidas isotónicas, vinos y bebidas alcohólicas, salsas y otros alimentos, detergentes y productos de limpieza, productos cosméticos, productos químicos, lubricantes y productos para tratamientos agrícolas. En forma de film, se emplea en contenedores alimentarios, láminas, audio / video y fotografía, blisters, films "High-Tech", embalajes especiales, aplicaciones eléctricas y electrónicas. Además, existe un amplio sector donde este material se emplea en la construcción de

diversos elementos; fibra textil, alfombras, tuberías, perfiles, piezas inyectadas, construcción, automoción,etc. El PET, en resumen, es un plástico de alta calidad que se identifica con el número uno, o las siglas PET, o "PETE" (pronunciado Pit) en inglés, rodeado por tres flechas en el fondo de los envases fabricados con este material, según sistema de identificación SPI.

La fabricación de estos envases se consigue en un proceso de inyección-estirado-soplado que parte de la resina de PET.

Envase típico para agua

Page 92: Manual de Energías Renovables

  12

Esta resina se obtiene a partir de dos materias primas derivadas del petróleo; etileno y paraxileno, presentándose en forma de pequeños cilindros o chips, los cuales, una vez secos se funden e inyectan a presión en máquinas de cavidades múltiples de las que salen las preformas, recipientes similares a tubos de ensayo pero con rosca para un tapón. Estas son sometidas a un proceso de calentamiento controlado y gradual y a un moldeado donde son estirados por medio de una varilla hasta el tamaño definitivo del envase. Por último son "soplados" inflados con aire a presión limpio hasta que toman la forma del molde.

Gracias a este proceso, las moléculas se acomodan en forma de red, orientándose en dos direcciones; longitudinal y paralela al eje del envase, propiedad denominada biorientación la cual aporta la elevada resistencia mecánica del envase. El PET es un material que acepta perfectamente su reciclado. En Europa, es a partir de la aprobación de la Directiva Comunitaria 94/62/CE, que establece el marco de actuación en el que se han de mover los Estados miembros en lo que respecta a la política sobre los envases y los residuos de envases que se generan en sus respectivos territorios, cuando el envase de PET sufre un auge muy importante en su recuperación.

Hace apenas diez o quince años, existían muy pocos recuperadores de PET, obteniendo una producción reciclada muy pequeña, principalmente a partir del material recuperado en plantas de reciclaje. El reciclado de los envases de PET se consigue por dos métodos; el químico y el mecánico, a los que hay que sumar la posibilidad de su recuperación energética.

El primer paso para su reciclado es su selección desde los residuos procedentes de recogida selectiva o recogida común. En el primer caso, el producto recogido es de mucha mayor calidad; principalmente por una mayor limpieza. El proceso de recuperación mecánico del PET se divide en dos fases. En la primera se procede a la identificación y clasificación de botellas, lavado y separación de etiquetas, triturado, separación de partículas pesadas de otros materiales como polipropileno, polietileno de alta densidad, etc, lavado final, secado mecánico y almacenaje de la escama. En la segunda fase, esta escama de gran pureza se grancea; se seca, se incrementa su viscosidad y se cristaliza, quedando apta para su transformación en nuevos elementos de PET.

El reciclado químico se realiza a través de dos procesos metanólisis y la glicólisis, se llevan a cabo a escala industrial. Básicamente, en ambos procesos, posteriores a la de limpieza, se desarma la molécula de PET o sea se deshace o depolimeriza; se separan las moléculas que lo componen para, posteriormente, ser empleadas de nuevo en la fabricación de PET.

En comparación, el reciclado mecánico es menos costoso, pero obtiene un producto final de menor calidad para un mercado más reducido con un mayor volumen de rechazos.

Con este método químico, se obtiene PET puro incoloro destinado a bebidas refrescantes, agua, aceites y vinagres, PET verde puro para bebidas refrescantes y agua, mientras que el PET multicapa con barrera de color destinado a cervezas, zumos, etc. así como el PET puro de colores intensos, opacos y negros se obtienen del reciclado químico.

Otro tipo, el PET puro azul ligero, empleado como envase de aguas, se obtiene a partir de los dos sistemas.

Símbolo identificativo del PET

Page 93: Manual de Energías Renovables

  13

En cualquier caso, no todas las botellas de PET son reciclables, a pesar de que la tendencia actual de los fabricantes es conseguir envases ligeros, resistentes mecánicamente, etc. que a la vez sean cómodos y llamativos para el consumidor sin dificultar posteriormente su reciclado.

Por eso es muy importante al comprar gaseosas y otros insumos observar la botella para buscar el símbolo de reciclabilidad y si no comprarlo. Este reciclado se facilita con el empleo de envases de PET transparente, ya que sin pigmentos tiene mayor valor y mayor variedad de usos en el mercado, evitando los envases multicapa, así como los recubrimientos de otros materiales, que reducen la reciclabilidad del PET.

Se debe observar el empleo de tapones de polipropileno o polietileno de alta densidad evitando los de aluminio o PVC que pueden contaminar grandes cantidades de PET, así como la inclusión de etiquetas fácilmente desprendibles durante el proceso de lavado del reciclador, evitando comprar cuando hay sistemas de impresión serigráfica que provocan que el PET reciclado y granulado tenga color, disminuyendo sus posibilidades de reciclado.

También debemos descartar envases con las etiquetas metalizadas o con pigmentos de metales pesados que contaminan el producto final.

[]

Page 94: Manual de Energías Renovables

MÓDULO: 7. ENERGÍAS RENOVABLES. ENERGÍA HIDRÁULICA Y MINI-HIDRÁULICA

7.1.- Introducción.

Las Turbo máquinas son máquinas adaptadas especialmente para operar con fluidos y producir trabajo mecánico a partir de los mismos, como la energía no se gana o se pierde en forma nominal, las turbo máquinas son en realidad conversores de energía, por ejemplo convirtiendo la energía potencial de un desnivel represado de agua en trabajo rotacional de un eje que puede acoplarse a un generador eléctrico.

Ningún proceso de conversión de energía tiene un 100% de efectividad y una parte de la energía disponible del fluido siempre se pierde al hacer la conversión, fundamentalmente se pierde en rozamiento de las partes rotantes, frotamiento del fluido contra las paredes de las tuberías etc. Pero el arte de la Ingeniería es reducir las pérdidas a un mínimo, aplicando nuevas técnicas, materiales y recursos.

Las turbo máquinas se usan también para agregar energía a un fluido, esta proveniente de una acción mecánica a través por ejemplo de un eje, [caso de las bombas] o recíprocamente, para extraer energía de un fluido y convertirla en energía mecánica, [caso de las turbinas]. En la Fig.7.1_1, se ve un esquema de esto, donde tanto bombas como turbinas se han representado como cajas negras, presentando solamente los sentidos en que fluye la energía y se realiza la conversión de energía.

Fig.7.1_1

Con una flecha simple se indica el sentido de la energía del fluido a través de la máquina y con una flecha doble el sentido de la energía a través de un eje rotante. En el caso de la bomba, la energía del fluido a la entrada es pequeña, y grande a la salida, porque recibe el aporte y la conversión de la energía mecánica desde el exterior a través de un eje acoplado a un motor eléctrico a un motor de gasolina, como ejemplo pensamos en la elevación de agua por bombeo desde la cisterna de subsuelo a los depósitos de la terraza en un edificio. Lo opuesto ocurre para la turbina, la energía del fluido a la entrada es grande y pequeña en la salida, la diferencia se convierte en energía mecánica, como dijimos, pensamos en el aprovechamiento de energía de una represa que mueve la turbina por diferencia de nivel y caída de agua, la energía mecánica se extrae del eje de la máquina y se aplica para mover generadores de electricidad. Para los aprovechamientos hidráulicos o saltos se utilizan las Turbinas Hidráulicas, en este caso el fluido de trabajo es agua, y la energía contenida es potencial es decir depende de un desnivel de alturas de los espejos de agua. Para el aprovechamiento de la energía cinética del viento se utilizan otro tipo de turbinas especialmente diseñadas para este fin que se denominan Turbinas Eólicas o Molinos. En este módulo daremos un vistazo a las primeras, dejando las Turbinas Eólicas para el Modulo 8.

Page 95: Manual de Energías Renovables

  2

7.2.- Turbinas Hidráulicas. Su función quedó definida en el párrafo anterior, son básicamente generadoras de Trabajo Mecánico en un eje de salida que se indica como trabajo de eje, este concepto ya lo habíamos definido en la clase de Fundamento Teóricos 5, el trabajo de eje es un trabajo que el sistema (y la máquina dentro de él) efectúa sobre el Medio Ambiente, y lo habíamos indicado con: We. lo considerábamos positivo cuando era dado desde el Sistema al MA (caso de las Turbinas), y negativo cuando era tomado por el sistema desde el MA (caso de las bombas). Las Turbinas Hidráulicas se clasifican a su vez en dos grandes grupos:

Turbinas de Impulso o Acción, Turbinas de Reacción.

7.2.1.- Turbinas de Impulso. El agua se envía a través de una tubería que termina en una tobera convergente y se descarga a la presión atmosférica, corriente arriba el flujo tiene una presión p1 y al final en la descarga p2 = pat, de manera que la energía de presión que se obtuvo en el desnivel de los espejos de agua, se transforma en energía cinética, a su vez la zona convergente del tubo o tobera acelera más el flujo debido a la ecuación de continuidad, al estrecharse, la velocidad aumenta. El chorro de alta velocidad impacta en los alabes que tienen forma de cucharas dobles que se denominan “cangilones” . El impacto transforma la energía cinética del chorro en una fuerza que aplicada a una distancia del centro de rotación crea un par de rotación o Momento de rotación, ver Fig.7.2.1_1, este par de rotación es un trabajo de eje que se extrae conectando el eje con un generador eléctrico para obtener un trabajo útil por unidad de tiempo o potencia, potencia eléctrica en este caso.

Fig. 7.2.1_1

La turbina hidráulica de impulso también llamada Turbina Pelton, posee una rueda denominada rodete o rotor, con múltiples absorbedores del chorro o cangilones, de manera que cuando la rueda rota siempre se va presentando una cuchara frente al flujo. En la Fig.7.2.1_1 de la izquierda se observa una vista rotada de la cubeta o cangilón, que tiene una forma de dos cucharas o canales contiguos unidos.

Page 96: Manual de Energías Renovables

  3

Estos canales permiten bifurcar el flujo de entrada, normalmente se designa con Vj la velocidad del flujo a la salida de la tobera convergente, como se ve en la figura (velocidad de jet, del inglés), la máxima potencia que se logra ocurre cuando el rotor gira a una velocidad angular:

2Vjr

ω = [7.2.1]

siendo r el radio del rotor medido desde el centro de rotación hasta la línea media del cangilón, como se observa en la Fig.7.2.1_1 de la derecha. La potencia máxima a extraer viene dada por la ecuación.

( ) [ ][1 cos ]W Torque r V V rjeje ω ρ ω ω β−= × = − −i i

[7.2.2] Nosotros no demostraremos las ecuaciones anteriores para no aumentar la complejidad del curso, pero ambas salen de la aplicación de la ecuación de energía para sistema abierto ec.[5.5.2] y de la ecuación de conservación de la cantidad de movimiento. En la última, el ángulo β es el ángulo que forman los choros después del impacto en el cangilón, Fig.7.2.1_1 de la izquierda.y aparte de las variables ya citadas, aparece también el caudal volumétrico de entrada. En algunas turbinas Pelton puede haber más de una tubería con toberas, típicamente tres, o cuatro, ubicadas a 120º o 90º entre si con lo que se obtiene un Torque o Par más parejo, ver Fig.7.2.1_2.

Fig.7.2.1_2. (crédito: Máquinas Motrices Ramírez Velazquez)

Page 97: Manual de Energías Renovables

  4

En la figura se observa la caja cuadrangular (que son paredes vistas desde arriba), en la que desagota el agua después de haber impulsado la rueda Pelton, la entrada de agua es por la toma de mayor diámetro (a bajo a la izquierda), que se encuentra en la base del salto de agua. La eficiencia energética de esta turbinas es bastante alta, del orden del 90 a 95% de la energía potencial almacenada del salto. En la figura Fig.7.2.1_3. se observa una turbina Pelton montada en este caso sobre su eje horizontal su eje de trasmisión y el generador eléctrico conectado a ella por intermedio del eje de arrastre, obsérvese que las boquillas impulsoras se encuentran en un piso inferior, manteniendo la parte eléctrica y de control en el piso superior con objeto de trabajar la parte eléctrica y la hidráulica por separado. En la fotografía se observa la forma bifurcada de las cucharas o cangilones para separar el flujo de entrada como se observa en el esquema de la Fig.7.2.1_1 de la izquierda.

 

Fig.7.2.1_3. (crédito: Mecánica de Fluidos Cenguel-Cimbala)  

7.2.2.- Turbinas de Reacción. o Francis

En la turbina de impulso la expansión, es decir la disminución de la presión y el aumento de la velocidad del flujo se hace en la tubería de entrada y la tobera. En las turbinas de reacción, se hace en dos grupos de álabes, un grupo fijo o estatórico y un grupo rotante o retórico.

Un esquema de la Turbina Hidráulica de Reacción se da en la Fig. 7.2.2_1, en forma esquemática, que esta vista en planta (arriba) y vista (abajo), en estos esquemas se observa que el flujo entra con alta presión por la tubería A en un canal tórico, de sección circular cuyo diámetro va descendiendo a medida que el flujo gira en sentido contrario a las agujas del reloj.

A diferencia de la Turbina Pelton, el agua inunda totalmente la turbina, cuando ingresa es obligado a pasar por los alabes fijos del estator o álabes directores, que como se observa forman entre ellos pasajes convergentes.

Al pasar por un canal convergente el flujo disminuye su presión y aumenta su velocidad de acuerdo con la Ecuación de Bernuolli y la ecuación de continuidad.

Page 98: Manual de Energías Renovables

  5

Fig.7.2.2._1 (crédito Mecánica de Fluidos Irving Shames)

Después de dejar los pasajes convergentes del estator el flujo entra en la región del rotor, la sección rotórica es libre de girar por lo cual al pasar entre los canales convergentes del rotor sigue aumentando su velocidad y su presión disminuye hasta una presión más baja próxima a la atmosférica al ingresar al pozo B de descarga.

El rotor actúa parcialmente como tobera aumentando la velocidad del flujo, esta acción crea un impulso que es la que hace rotar los álabes del rotor. En su parte superior el rotor está vinculado al eje de salida que es donde se obtiene la potencia de eje que se vincula a la máquina eléctrica.

Por su característica de trabajar inundadas con el fluido, las turbinas de reacción dan lugar a instalaciones más compactas para iguales potencias respecto de las Turbinas de Impulso.

En la Fig.7.2.2._2 , se da una esquema algo más elaborado de una Turbina de Reacción Francis, se observa un canal ligeramente divergente a la salida que adapta la presión con la presión de salida al espejo inferior del embalse.

Los álabes de la sección estatórica (dibujados en negro) pueden ser en algunas turbinas rotados para variar las condiciones de entrada al rotor de acuerdo a la presión disponible de agua en el espejo de agua corriente arriba del embalse.

Page 99: Manual de Energías Renovables

  6

Fig.7.2.2._2 (crédito Mecánica de Fluidos Cenguel-Cimbala)

En la figura siguiente, Fig.7.2.2._3, se muestra un esquema de la parte del rotor mostrado en una vista 3D de una turbina hidráulica de tipo Francis, en ella se puede observar mejor que entre cada par de palas se genera un conducto convergente cuya función es disminuir la presión de la corriente de entrada y transformarla en energía cinética, esta acción impone una fuerza lateral sobre las palas que están libres para girar en torno al eje z , produciendo trabajo de eje que es aprovechado para movilizar un generador eléctrico. El agua entra por la periferia exterior y se desagota por el conducto central.

Page 100: Manual de Energías Renovables

  7

Fig.7.2.2._3 (crédito Mecánica de Fluidos Cenguel-Cimbala)

En la Fig.7.7.2_4, se muestra un esquema de una instalación hidráulica de eje vertical, se observa la turbina en el piso inferior y el generador en el piso superior separado con el propósito de aislar la parte eléctrica de las zonas mojadas, y a la vez los elementos contaminantes de la parte eléctrica por ejemplo micropartículas de cobre carbón etc. de los espejos de agua.

 

Fig.7.7.2_4 (crédito Mecánica de Fluidos Cenguel-Cimbala)

Page 101: Manual de Energías Renovables

  8

7.3.- Aspectos positivos e impacto ambiental de la Energía Electro-Hidráulica.

Se pueden citar como aspectos negativos:

Sumerge tierras cultivables. Genera desplazamiento de los habitantes. Produce reducción de la bio-diversidad. Dificulta la migración de peces y las zonas de desove. Impide la navegación fluvial. Modifica el nivel de las capas freáticas. El agua embalsada contribuye a la proliferación de gérmenes e insectos. Si son muy grandes pueden alterar localmente el clima. No tienen vida ilimitada ya que se acumulan sedimentos corriente arriba.

Se pueden citar como aspectos positivos:

Producción de energía limpia y abundante. Favorece el control de inundaciones. Permite el sembrado y explotación de especies ictícolas en los embalses.

7.4.- Clasificación de acuerdo a la capacidad de Generación.

grandes: producción > a 100 Mwatts. medianas: 15 a 100 Mwatts. pequeñas: 1 a 15 MWatts. Mini: 1 Mwatt. Micro: 5 a 100 Kwatts. Pico: < a 5 KWatts

El siguiente gráfico nos permite la elección del tipo de turbina a elegir en función de la altura del salto y el caudal requerido, por ejemplo, recuadro rojo Turbinas Pelton, etc.

[]

Page 102: Manual de Energías Renovables

  9

_selección de los mejores trabajos de 2011 entregados por los alumnos en referencia al tema tratado_

1.- Guía Metodológica para el establecimiento de Microcentrales Hidroeléctricas en zonas rurales.

2.- Impacto ambiental de la Energía Electro-Hidráulica.

3.- Micro Turbinas Hidráulicas para el Hogar.

Page 103: Manual de Energías Renovables
Page 104: Manual de Energías Renovables

SECRETARIA DE AGRICULTURA Y GANADERIA (SAG)

Proyecto “Promoviendo el Manejo Integrado de Ecosistemas y de Recursos Naturales en Honduras” (Proyecto Ecosistemas)

Fundación Hondureña de Investigación Agrícola (FHIA)

Guía Metodológica para el Establecimientode Micro Centrales Hidroeléctricas en Áreas Rurales

Page 105: Manual de Energías Renovables

“Generando beneficios globales ambientales, a través de la canalización de principios demanejo integrado de ecosistemas en las operaciones de los proyectos de desarrollo rural”

© Reservados todos los derechos

Guía metodológica para el establecimiento de microcentrales hidroeléctricas en áreas rurales.1era Edición

Secretaría de Agricultura y Ganadería (SAG)Proyecto “Promoviendo el Manejo Integrado de Ecosistemas y de Recursos Naturales en Honduras”(Proyecto Ecosistemas)Oficina principalCol. Tres Caminos, 7ma calle, bloque 1, casa # 127Telefax: (504) 231-1800 y 235-9019Tegucigalpa, M.D.C., Honduras C.A.Correo electrónico: [email protected]

Fundación Hondureña de Investigación Agrícola (FHIA)Contiguo a Instituto Patria, La Lima, Cortés, Honduras, C.A.Tels: (504) 668-2470, 668-2804Fax: (504) 668-2313Correo electrónico: [email protected]

Elaborado porIng. Roberto Fromm (FHIA)Ing. José Peralta Pérez (Proyecto Ecosistemas)

Revisión Proyecto Ecosistemas: Ing. Nelson Ulloa Colindres e Ing. Benjamín Bustamante ValladaresFHIA: Ing. Marco Tulio Bardales

Diseño: Centro de Comunicación Agrícola de la FHIA

Impresión: Hondupress Litografía

Abril, 2009

Se autoriza la reproducción total o, parcial del material contenido en este documento, para fines educativos y nocomerciales, siempre que se cite claramente la fuente.

333.914 Proyecto “Promoviendo el Manejo Integrado de Ecosistemas y de Recursos Naturales

P96 en Honduras” (Proyecto Ecosistemas).

C. H. Guía metodológica para el establecimiento de microcentrales hidroeléctricas en

áreas rurales / Proyecto “Promoviendo el Manejo Integrado de Ecosistemas y de

Recursos Naturales en Honduras”

(Proyecto Ecosistemas).-- [Tegucigalpa]: [Hondupress Litografía], [2009]

42 p.: Cuadros, gráficos,il

ISB: 978-99926-762-3-3

1.- RECURSOS HIDROLOGICOS. 2.- ENERGIA HIDRAULICA. 3.- CENTRALES ELECTRICAS.

Page 106: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

PRESENTACION

Ante la carencia de servicios básicos en las zonas rurales de nuestro país, las poblacioneshumanas carecen de condiciones de vida satisfactorias que garanticen el equilibrio socie-dad-ambiente, provocando de esta manera una creciente e inequívoca presión sobre el usode los recursos naturales con los que cuentan.

Siendo la norma que estas comunidades rurales no cuentan con servicios básicos como elsuministro de energía eléctrica, y según las condiciones geográficas estas se encuentransituadas en su mayoría en zonas aisladas y muy cerca de fuentes de agua. Una alternativaviable hacia sufragar esta demanda es el establecimiento de Micro Centrales Hidroeléctricas(MCH); caracterizándose estas como proyectos de bajo impacto ambiental a ser conside-rados como una estrategia de desarrollo, visto de una manera integral y orientado hacia lavalorización, manejo y acceso al recurso hídrico y la gestión sostenible de los recursos na-turales comprendidos en las microcuencas, a fin de garantizar la provisión de los serviciosque de estas se generan.

A pesar del desarrollo de este tipo de proyectos en algunas zonas del país, el relativo des-conocimiento en la valorización del recurso hídrico y de las condiciones de sitio relacionadocon la generación de energía eléctrica mediante la implementación de micro centrales hi-droeléctricas, han sido un factor que ha impedido la difusión de estas experiencias en be-neficio de las poblaciones que mas lo necesitan.

En este sentido, la Secretaría de Agricultura y Ganadería (SAG) mediante el Proyecto “Pro-moviendo el Manejo Integrado de Ecosistemas y de Recursos Naturales en Honduras” (Pro-yecto Ecosistemas) en coordinación con la Fundación Hondureña de Investigación Agrícola(FHIA) pone a la disposición el documento “Guía Metodologíca para el Establecimiento deMicro Centrales Hidroeléctricas en Areas Rurales” como una herramienta técnica, a fin deproveer el conocimiento y la experiencia para la valorización de sitios con potencial hidroe-léctrico, viéndolo de una manera integral hacia el manejo de los recursos naturales y la me-jora en la condición de vida de las poblaciones.

Este documento comprende de manera puntual el principio de generación hidroeléctrica apequeña escala, y resume paso a paso el procedimiento a seguir y las consideraciones atomar en cuenta para sugerir la viabilidad técnica para el establecimiento de MCH, cubriendoasí aquellos vacíos en las capacidades técnicas de aquellas instancias vinculadas al desarrollosocial bajo el enfoque de sostenibilidad.

Ing. Héctor Hernández Amador

Ministro de la Secretaría de Agricultura y Ganadería (SAG)

Ing. Benjamín Bustamante

Coordinador NacionalProyecto Ecosistema

Dr. Adolfo Martínez

Director GeneralFHIA

Page 107: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

CONTENIDO

I. INTRODUCCION...............................................................................................................1II. USO DEL RECURSO HIDRICO.......................................................................................2

2.1. Ciclo hidrológico ........................................................................................................22.2. Conservación y manejo de cuencas .........................................................................3

III. PRINCIPIOS CONCEPTUALES .....................................................................................53.1. Central hidroeléctrica ................................................................................................5

3.1.1. Tipos de centrales hidroeléctricas......................................................................63.1.2. Impactos ambientales potenciales.....................................................................7

3.2. Concepto de Micro Central Hidroeléctrica.................................................................83.3. Microhidroturbinas.....................................................................................................9

3.3.1. Clasificación de las microhidroturbinas..............................................................93.3.2. Criterios de selección de microhidroturbinas ...................................................13

3.4. Componentes de una Micro Central Hidroeléctrica.................................................133.4.1. Obras civiles ....................................................................................................133.4.2. Otros componentes..........................................................................................183.4.3. Operación y mantenimiento del sistema..........................................................20

IV. PASOS PARA LA IMPLEMENTACION DE UNA MHC ..................................................214.1. Selección de la microcuenca...................................................................................214.2. Evaluación del sitio..................................................................................................22

4.2.1. Caudal..............................................................................................................224.2.2. Salto de agua (desnivel o altura) .....................................................................304.2.3. Cálculo de potencia de generación hidroeléctrica ...........................................34

4.3. Aceptación de la comunidad ...................................................................................354.4. Equipo apropiado y presupuesto ............................................................................354.5. Desarrollo de las obras civiles.................................................................................354.6. Instalación del sistema............................................................................................364.7. Capacitación............................................................................................................36

V. RECOMENDACIONES GENERALES PARA LA IMPLEMENTACION DE UNA MHC ...375.1. Preselección de sitios adecuados...........................................................................375.2. Medición y monitoreo de caudales..........................................................................375.3. Equipo y materiales disponibles..............................................................................375.4. Infraestructura y distribución comunitaria................................................................375.5. Condición de la demanda comunitaria y sus responsabilidades ............................385.6. Gestión y manejo de proyectos de MCH.................................................................38

VI. LITERATURA CONSULTADA .......................................................................................39

VII. GLOSARIO ..................................................................................................................40

Page 108: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

1

I. INTRODUCCION

Honduras, considerado un país rico en recursos naturales, con un 87% de sus tierras de vo-cación natural forestal y un 41.5% del territorio cubierto aún de bosque, cuya importancia so-cial, económica y ambiental radica en su amplia diversidad biológica y en sus reservashidrográficas para la producción de agua, afronta grandes problemas en cuanto a la aceleradapérdida de la cobertura boscosa, la cual se estima en una depredación anual de 80,000 hade bosque, llevando a una precipitada pérdida de su valoración económica natural, reflejadaprincipalmente en el deterioro de los recursos hídricos y la erosión de los suelos.

Ante tales circunstancias, la identificación de los bienes y servicios ambientales contemplannumerosas opciones de productos o servicios que brindan los ecosistemas, los cuales tienenuna escasa valoración y reconocimiento por parte de los consumidores o usuarios; entreestos servicios sobresalen los servicios hidrológicos e hidroeléctricos. La valorización deestos bienes y servicios ambientales sugiere la necesidad de implementar estrategias dedesarrollo desde un punto de vista integral, vista como el ordenamiento de todas las accio-nes que los diferentes actores de los territorios asumen con la finalidad de recuperar y man-tener los recursos naturales.

La utilización del recurso hídrico como unafuente para la generación eléctrica a pe-queña escala, constituye una alternativaapropiada para aldeas rurales de Hondurasa través de la instalación de microcentralespara la generación de energía con el pro-pósito de mejorar las condiciones de vidade los pobladores.

En términos de generación de electricidad apequeña escala, los proyectos microhidrocombinan las ventajas de los proyectosgrandes y el manejo descentralizado de lageneración obtenida; tampoco tienen ladesventaja de una línea de transmisióncostosa o la dependencia de los combusti-bles fósiles tan escasos hoy en día. Losproyectos microhidro en general se caracterizan por tener una inversión inicial elevada y unbajo costo de operación y mantenimiento.

Esta elevada inversión inicial es una barrera para la ejecución de proyectos microhidro enpaíses en desarrollo. No obstante, por su larga vida útil y bajo costo de mantenimiento lasmicrohidrocentrales bien planificadas y apropiadamente operadas conservan una relacióncosto/beneficio aceptable, especialmente cuando son fabricadas localmente dentro de lasespecificaciones de calidad apropiadas.

Figura 1. Las quebradas con mayor pendiente natu-

ral son las más apropiadas para la generación de

electricidad en pequeña escala.

Page 109: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

2

II. USO DEL RECURSO HIDRICO

El aprovechamiento del recurso hídrico para la generación de energía comenzó en tiemposantiguos con el uso de ruedas hidráulicas muy rudimentarias pero que permitían la produc-ción de fuerza motriz para aliviar el trabajo manual del hombre.

Las ruedas hidráulicas más evolucionadas acompañaron el nacimiento de la era industrial,aun antes de la llegada del motor a vapor. La revolución industrial con su fuerte demandaenergética movilizó el desarrollo tecnológico de los procesos de conversión de energía y larueda hidráulica fue superada por la turbina a finales del siglo XIX.

La fuerza mecánica primero y la energía eléctrica después fueron los productos energéticos,con que el recurso hídrico contribuyó, y lo continúa haciendo en la actualidad, con el pro-greso económico y la mejora de la calidad de vida de la población.

El proceso de conversión del recurso hídrico más difundido en la actualidad es la produc-

ción de energía eléctrica, el cual permite alcanzar altos niveles de eficiencia en la conver-sión de la energía hidráulica en energía eléctrica.

2.1. Ciclo hidrológico

El ciclo hidrológico es un ciclo perfecto puesto que no ocurren pérdidas ni aportaciones adi-cionales a través del tiempo y la misma cantidad de agua que se ha evaporado de las su-perficies de los océanos, lagos, ríos y embalses que circundan el globo terráqueo, regresaa la tierra en forma de precipitación.

El ciclo del agua comienza cuando la radiación solar calienta las superficies mencionadasy se evapora una parte del agua acumulada, el vapor de agua a medida que sube hacia laatmósfera se enfría y se condensa en forma de nubes que son llevadas alrededor de latierra por las corrientes de aire. Cuando las partículas de agua en las nubes chocan entresí aumentan de tamaño hasta que caen nuevamente a la tierra en forma de precipitación.Esta precipitación puede ocurrir en forma de lluvia, nieve, escarcha o granizo y aunque lamayor parte de la precipitación cae a los océanos, una fracción de ella siempre es devueltaa los continentes. Una parte de esta precipitación debido a la gravedad, escurre sobre la su-perficie de las montañas formando los arroyos, quebradas y ríos que eventualmente llegana los océanos.

Anualmente, de los océanos se evaporan unos 335,000 km3 de agua y de las masas conti-nentales unos 65,000 km3 incluyendo lagos, ríos, glaciares y embalses. Para que haya unbalance entre las pérdidas por evaporación, debe ocurrir una precipitación igual a 400,000km3 de agua. De esta magnitud solamente 100,000 km3 de agua se precipitan sobre los con-tinentes. Se estima que cada año la evapotranspiración terrestre alcanza un 19% del aguaevaporada de los océanos.

Page 110: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

3

Es muy importante entender el ciclo hidrológico para comprender el concepto de la genera-ción hidroeléctrica a cualquier escala. Decimos que la electricidad generada por una hidro-central es renovable porque el recurso agua en la tierra es reabastecido continuamente porla precipitación derivada del ciclo hidrológico.

2.2. Conservación y manejo de cuencas

El concepto de cuenca se define como una superficie geográfica de tamaño determinado,que con la ayuda de los recursos bióticos que la componen (flora y fauna) drenan sus aguashacia un punto de interés común y cuyos límites son los filos montañosos que la rodean.

En principio la protección de una fuente de agua, consiste en asegurar que la cuenca man-tenga las condiciones necesarias para retener el agua que periódicamente recibe de las lluvias.Bajo este esquema habrá que entender que la cuenca y sus componentes naturales (suelo,bosques, manantiales, etc.) son los medios apropiados para el servicio del agua.

La protección del área de la cuenca representa la garantía en la producción de agua de lafuente en cantidad y calidad, y que se mantendrá dentro de los límites aceptables para elabastecimiento de las poblaciones para sus diversos usos: agua potable, irrigación, gene-ración de energía eléctrica, etc. La comunidad debe conocer la importancia de la cuencacomo un elemento vital para el suministro sostenible del recurso agua y las acciones quedebe ejecutar para preservarlo.

El bosque natural que cubre la cuenca está integrado por cuatro elementos importantes aconsiderar: el agua, la flora, la fauna y el suelo. Estos elementos interactúan entre si para

Figura 2. Esquema del ciclo hidrológico.

Page 111: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

4

darle al sistema el equilibrio necesario. Por lo tanto, la protección efectiva de la cuenca estábasada en el manejo y aprovechamiento planificado de cada uno de estos elementos.

En términos generales, el manejo de cuencas se puede definir como la aplicación de prin-cipios y métodos para el uso racional e integrado de los recursos naturales en la cuenca,fundamentalmente agua, suelo y vegetación, a fin de lograr la conservación sostenida deestos recursos para beneficio de los pobladores de la cuenca y de las poblaciones vincula-das a ella. De tal manera que el manejo integrado de cuencas debe ser una visión deconjunto, incorporando todos sus espacios y elementos considerando a todos los actores.Cada elemento o componente es importante y tiene una función, por lo tanto el funciona-miento de una cuenca debe analizarse como un todo. Por ello es imprescindible la partici-pación activa de la población local debidamente organizada, con el apoyo coordinado de lasinstituciones públicas y privadas.

Figura 3. El manejo de la microcuenca es un compromiso que la comunidad

debe asumir con responsabilidad para el aprovechamiento eficiente del re-

curso agua.

Page 112: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

5

III. PRINCIPIOS CONCEPTUALES

En términos generales, la generación de electricidad consiste en la transformación de al-guna forma de energía, sea esta hidráulica, mecánica, química, térmica, radiante, mare-motriz, etc., en energía eléctrica.

Dependiendo de la fuente primaria de energía utilizada, las centrales generadoras se cla-sifican en: termoeléctricas, hidroeléctricas, nucleares, eólicas, solares termoeléctricas, so-lares fotovoltaicas y mareomotrices. Todas estas centrales, excepto las fotovoltaicas, tienenun elemento en común: el generador, constituido por un alternador, movido mediante unaturbina que será distinta dependiendo del tipo de energía primaria utilizada.

3.1. Central hidroeléctrica

Una central hidroeléctrica es aquélla en la que la energía potencial del agua almacenadaen un embalse se transforma en la energía cinética necesaria para mover el rotor de un ge-nerador y posteriormente transformarse en energía eléctrica.

Las grandes centrales hidroeléctricas se construyen en los cauces de los ríos, creando unembalse para retener el agua. Para ello se construye un muro grueso de piedra, hormigónu otros materiales, apoyado generalmente en alguna montaña. La masa de agua embalsadase conduce a través de una tubería hacia los álabes de una turbina que suele estar a piede la presa, la cual está conectada al generador. Así, el agua transforma su energía poten-cial en energía cinética, que hace mover los álabes de la turbina.

Una central eléctrica no almacena energía, sino que la producción sigue a la demanda so-licitada por los usuarios. Como esta demanda es variable a lo largo del día, y con la épocadel año, las centrales eléctricas pueden funcionar con una producción variable.

Existen dos formas fundamentales para explotar esta energía hidráulica:

1. Desvío del cauce de agua

El principio fundamental de esta forma de aprovechamiento hidráulico de los ríos se basaen el hecho de que la velocidad del flujo de estos es básicamente constante a lo largo desu cauce, el cual siempre es en pendiente. Esta energía potencial puede ser aprovechadasi se hace pasar al agua a través de una turbina.

2. Retención de la corriente de agua mediante una presa

Consiste en la construcción de una presa que retenga el cauce de agua para elevar el nivelde la quebrada en su parte anterior a la presa, el cual podría eventualmente convertirse enun pequeño embalse. La presa establece una corriente no uniforme y modifica la forma dela superficie libre de la quebrada antes y después de que toman forma de las llamadas cur-vas de remanso.

Page 113: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

6

3.1.1. Tipos de centrales hidroeléctricas

Las centrales hidroeléctricas se pueden clasificar de distintas maneras según sea sus ca-racterísticas particulares al momento de su diseño, contemplado desde su forma de utiliza-ción del recurso hídrico hasta su dimensión de la capacidad instalada:

a. De acuerdo a su régimen de flujo

Estas pueden ser:

1. Centrales a filo de agua

También denominadas centrales de agua fluyente o de pasada, utilizan parte del caudal deun río para generar energía eléctrica. Operan en forma continua porque no tienen capacidadpara almacenar agua y no disponen de embalse. Utilizan el agua disponible en el múltiplede entrada de acuerdo a su capacidad de diseño. Por sus características son la mejor opcióncuando se trata de proyectos de baja inversión, además el impacto ambiental mediante laimplementación de este tipo de centrales es mínimo.

2. Centrales de embalse

Es el tipo más frecuente de central hidroeléctrica. Utilizan un embalse para acumular aguae ir graduando el agua que pasa por la turbina. Requieren una inversión mayor y reservassuficientes.

3. Centrales de acumulación por bombeo

Este método utiliza la energía potencial del agua bombeándola desde un reservorio demenor elevación hacia un embalse más elevado. Se usa la electricidad generada fuera delas horas de mayor demanda –más barata- para activar el bombeo y reutilizar el agua paragenerar electricidad mediante turbinas (usualmente tipo Francis) en los periodos de mayordemanda.

Figura 4. Para asegurar el

abastecimiento de agua

sobre la tubería de presión

se acostumbra erigir una

pequeña presa de mam-

postería.

Page 114: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

7

El sistema requiere de un diferencial de elevación entre dos cuerpos de agua naturales ograndes reservorios artificiales y solamente se aplica en grandes proyectos.

Tomando en cuenta las pérdidas por evaporación en la superficie de los reservorios y otraspérdidas en el proceso, únicamente se recupera entre el 70-85% de la energía utilizadapara bombear el agua hacia arriba; por esta razón la técnica tiene la peor relaciónbeneficio/costo para generar grandes cantidades de energía eléctrica y funciona únicamenteen aquellos países que tienen grandes variaciones en el precio kWh durante ciertos periodosde tiempo en la noche y fines de semana.

b. De acuerdo a su potencia de generación

Actualmente las centrales hidroeléctricas varían en tamaño desde las muy pequeñas quese utilizan para iluminar unas cuantas casas en aldeas remotas hasta los gigantescos em-balses que generan electricidad para millones de personas. Estas hidrocentrales puedenproducir electricidad de manera confiable y barata durante muchos años, su alta eficienciade operación aunada al alto costo de los combustibles fósiles hacen de las mismas unafuente de electricidad importante en el mundo entero.

Aunque no existe consenso entre países industrializados el tamaño de las hidrocentrales,existen algunos límites que constituyen un criterio de clasificación:

• Grandes. Todas las plantas con capacidad mayor a 100 MW.• Medianas. Aquellas plantas entre 15 y 100 MW de capacidad.• Pequeñas. Todas las plantas dentro del rango de 1 a 15 MW.• Mini. Plantas que producen más 100 kW y menos 1 MW.• Micro. Todas las plantas con capacidad entre 5 a 100 kW. Amplio rango de adaptación en

aldeas remotas de Honduras• Pico. Capacidad menor a 5 kW.

3.1.2. Impactos ambientales potenciales

Los impactos ambientales potenciales de los proyectos hidroeléctricos son siempre signifi-cativos. Sin embargo, existen muchos factores que influyen en la necesidad de aplicar me-didas de prevención; principalmente: la construcción y operación de la represa y el embalseconstituyen la fuente principal de impactos del proyecto hidroeléctrico. Los proyectos de lasrepresas de gran alcance pueden causar cambios ambientales irreversibles, en un área geo-gráfica muy extensa; por eso, tienen el potencial de causar impactos importantes al medioambiente.

Hay impactos ambientales directos asociados con la construcción de la represa (p.ej., elpolvo, la erosión, problemas con el material pesado y de los desechos), pero los impactosmás importantes son el resultado del embalse, la inundación de la tierra para formar el em-balse, y la alteración del caudal de agua, aguas abajo. Estos efectos ejercen impactos di-rectos en los suelos, la vegetación, la fauna y las tierras silvestres, la pesca, el clima y lapoblación humana del área circundante.

Page 115: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

8

Además de los efectos directos e indirectos de la construcción de la represa sobre el medioambiente, se deberán considerar los efectos del medio ambiente sobre la represa. Los prin-cipales factores ambientales que afectan el funcionamiento y la vida de la represa son aque-llos que se relacionan con el uso de la tierra, el agua y los otros recursos en las áreas decaptación aguas arriba del reservorio (p.ej., la agricultura, la colonización, el desmonte delbosque) que pueden causar una mayor acumulación de sedimentación, y cambios en lacantidad y calidad del agua del reservorio y del río.

3.2. Concepto de Micro Central Hidroeléctrica

Una Micro Central Hidroeléctrica (MHC) es aquella que se utiliza para la generación deenergía eléctrica mediante el aprovechamiento de la energía potencial que posee la masade agua de un cauce natural en virtud de un desnivel, también conocido como salto de agua,desde un punto de captación (presa o bocatoma) situada a mayor altura que la central. Elagua se lleva por una tubería de descarga a la sala de máquinas de la central, donde lasturbinas hidráulicas trasmiten la energía en forma de rotación de un eje a un generador con-virtiéndola en energía eléctrica.

La potencia mecánica de una hidroturbina se obtiene mediante la energía cinética del aguaen movimiento a través de una tubería apropiada; la capacidad en el eje de una hidroturbinaestá determinada por el caudal disponible para impulsar el rodete de la misma y por la di-ferencia de elevación o caída vertical entre la superficie del agua en la bocatoma y el nivelde las toberas o boquillas de descarga en la turbina aguas abajo del punto de captación obocatoma en la quebrada.

En un sistema a filo de agua -típico en las microturbinas- se deriva de la quebrada única-mente una fracción de la corriente que fluye por la misma. De esta manera, además de re-ducir los costos de las obras civiles del proyecto también se minimiza el impacto ambientalsobre la vida acuática presente en el sitio.

La potencia hidráulica dentro de esta modalidad se utilizó desde hace mucho tiempo. Losgriegos ya utilizaban las ruedas hidráulicas para moler trigo hace más de 2,000 años y antesde la disponibilidad comercial de la potencia hidroeléctrica, la fuerza de las caídas de aguase utilizó para irrigación y operación de maquinaria textil y en aserraderos a principios delSiglo XX en Europa y Norte América. La primera microhidrocentral fue construida en 1882en Appleton, Wisconsin, Estados Unidos, con una capacidad instalada de 12.5 kW para ilu-minar una pequeña fábrica de papel y una casa.

Como los proyectos microhidro generalmente no requieren de un embalse o reservorio,cada vez se utilizan más como una fuente alternativa para generar electricidad, especial-mente en lugares remotos y donde no es viable llevar la red eléctrica nacional. Los benefi-cios ambientales de las microcentrales son importantes porque:

Page 116: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

9

1. La generación hidroeléctrica proviene de un recurso energético renovable, ya que el aguasolamente es prestada por la microcuenca y como el agua no tiene contacto con grasasy aceites, no hay contaminación.

2. En las micro centrales hidroeléctricas no intervienen combustibles de ningún tipo y no ocu-rren emisiones contaminantes como las que liberan los generadores accionados por com-puestos derivados del petróleo.

Principales ventajas:

• Se basa en un recurso renovable y gratuito.• No es consuntiva, se toma el agua en un punto y regresa al mismo punto.• Completamente segura para personas y animales ya que no es contaminante.• Favorece el ambiente y la conservación de los recursos naturales.• Por su tamaño, la micro generación permite que los usuarios se involucren directamente

en todas las actividades, desde el inicio y desarrollo, operación, mantenimiento y admi-nistración del proyecto.

• Como componente de un esquema de desarrollo hidráulico; las micro turbinas se puedenintegrar a proyectos de irrigación o de agua potable para maximizar el beneficio compar-tiendo el costo entre varios sectores.

3.3. Microhidroturbinas

Independientemente del tipo de turbina, sea de impulso o de reacción, el concepto microhi-dro se refiere a todas aquellas unidades menores a 100 kW.

3.3.1. Clasificación de las microhidroturbinas

Las microhidroturbinas se pueden clasificar:

a. Por su funcionamiento:• De impulso: Pelton, Flujo transversal (Banki-Mitchell), Turgo.• De reacción: Francis, Propelas (Variante Kaplan).

b. Por su eje• Vertical• Horizontal

c. Por la velocidad especifica del rodete.

En este documento se tratará únicamente de las turbinas Pelton y de flujo transversal (Banki-Mitchell) porque son las turbinas más adecuadas para cubrir un amplio rango de condicionesde caída y caudal típicos en Centro América. También constituyen los prototipos más cono-cidos en aplicaciones microhidro y son más fáciles de construir localmente.

Page 117: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

10

a. Turbina Pelton

La turbina Pelton constituye la representación de las turbinas de impulso más conocidamundialmente y su nombre se debe a Lester Pelton quien, en 1880 patentó la rueda Peltonen California, Estados Unidos.

El tazón original de la Pelton tenía la arista central, muy conocida hoy en día, la cual dividela superficie interna del tazón en dos lóbulos simétricos para producir la inversión de loschorros de agua en forma de U a casi 180° y mejorar la eficiencia del sistema, pero no teníala muesca final que facilita el paso del chorro de agua de un tazón a otro.

El tipo moderno de tazón Pelton fue inventado por Abna Doble en 1899, quien diseñó lostazones elípticos y la muesca característica en el extremo de cada tazón.

Los refinamientos subsiguientes en cuanto a forma y materiales utilizados ocurrieron a partirde 1960 cuando se empezaron a fabricar rodetes de eje vertical para utilizar más de doschorros y alcanzar una mayor rotación (RPM) en el eje para facilitar el acople a generadoresde electricidad.

En la medida que han ocurrido mejoras de diseño en diferentes aspectos también se ha lo-grado incrementar la potencia generada, aún en las turbinas más pequeñas.

Básicamente la turbina Pelton está constituida por las partes siguientes:• Rodete• Múltiple de entrada• Boquillas• Carcasa

El agua que circula por la tubería de presiónsale por las boquillas en forma de un chorroreducido pero a gran velocidad que impactasobre la vena de desviación o arista de lostazones y se divide en dos partes iguales.

El impulso sobre el tazón ocurre cuando éstecolecta el agua del chorro e invierte su direc-ción en forma de U recibiendo toda la fuerzacinética que es posible de acuerdo a la presiónde trabajo en el múltiple de boquillas. A mayorcaída vertical entre la bocatoma y casa de má-quinas, mayor presión en el múltiple y mayorvelocidad del chorro. Por cada metro de caídavertical se produce por la fuerza gravitacionalun incremento de presión en las boquillas de1.42 psi (libras por pulgada cuadrada).

Boquil la

Tazones

Rotació

n

Chorro

de agua

onesonesTazoTazo

RRRotaci

R

n

i

T

Figura 5. Vista interior de la carcasa de una microhi-

droturbina Pelton de tres inyectores.

Page 118: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

11

Dependiendo del caudal disponible y de la caída vertical del sitio, las turbinas Pelton se fa-brican con eje horizontal de uno o dos chorros o con eje vertical de tres o cuatro chorros.Con más chorros se incrementa la velocidad de rotación del eje y las revoluciones del ge-nerador usualmente se sincronizan a la rotación de la turbina mediante bandas y poleasapropiadas. La turbina debe ser instalada sobre el nivel del canal de descarga y, aunqueesto significa pérdida de caída vertical, evita que el agua descargada interfiera con la rota-ción libre del rodete.

Para dimensionar una Pelton apropiadamente, lo primero que se debe determinar es el diá-metro del chorro, después se deriva el tamaño de los tazones y de los demás componentestales como el rodete, múltiple de entrada, boquillas y la turbina en general.

La eficiencia de las turbinas Pelton fabricadas localmente normalmente es inferior a la de lasgrandes hidrocentrales. Entre los factores que influyen la eficiencia de las turbinas están: dis-posición de los tazones en el rodete, tamaño, forma y número de tazones, disposición de lasboquillas y diámetro del chorro, pérdidas por fricción excesivas en el múltiple de entrada relacióndel diámetro de poleas en turbina y generador, tensión y alineamiento de las bandas, etc.

Por su versatilidad la turbina Pelton, es la más conocida y utilizada en proyectos de peque-ñas hidrocentrales en lugares remotos.

b. Turbina de flujo transversal

El desarrollo de las turbinas de flujo transversal se atribuye a Donat Banki de Hungría (1910)y Anthony Mitchell de Australia (1903) quienes obtuvieron patentes independientes.

Esta turbina consiste en una serie de remos o paletas curvas fijadas a dos discos lateralesque forman un cilindro de longitud igual al diámetro de la tubería de presión y se asumeque la boquilla rectangular tiene la misma longitud que el rodete. El chorro de agua entrapor un lado del cilindro (rodete) y sale por el lado opuesto dándole un segundo impulso alrodete, pero con menor energía que en el primero. Aproximadamente 79% de la energía ci-nética del chorro de agua en el impulso de entrada y 21% antes de salir de las paletas dellado opuesto.

Se utilizan en sitios con caída vertical baja e intermedia pero requieren caudales conside-rables. La eficiencia general de esta turbina varía con el caudal disponible y se puede alargarel rodete con un mismo diámetro en cuyo caso aumentará el caudal de diseño y la potenciasin alterar la velocidad de la turbina.

La turbina de flujo transversal se clasifica entre las turbinas de impulso pues toda la presióndel agua en la boquilla es convertida a velocidad del rodete.

La ventaja principal de esta turbina es que debido a la simetría de los remos o paletas, sepuede ampliar la longitud del rodete a conveniencia, sin cambiar las características hidráu-licas de la turbina. Por ejemplo, al duplicar el largo del rodete se duplica la potencia en el

Page 119: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

12

eje, sin alterar la rotación del mismo, puesto que el diámetro se mantiene igual. Las limitan-tes son de tipo estructural porque alargando el rodete las paletas pueden flexionar y defor-marse por la fatiga del metal, esto se puede evitar colocando más discos intermedios.

Por otra parte, debido a que el tamaño (longitud) del rodete no está limitado por el diámetrodel mismo -como en las turbinas Pelton- las caídas verticales pequeñas no limitan su po-tencia de salida significativamente. Estas turbinas pueden operar con caídas bajas y generaruna potencia considerable a RPM razonables. Sin embargo, para funcionar apropiadamenterequieren de un caudal mucho mayor que el utilizado en las turbinas Pelton. Se utilizan enuna amplia gama de caudales -entre 0.03 a 5 m3/s- dentro de un rango de caídas entre 2y 25 m generalmente.

El agua entra en la turbina a través de la compuerta reguladora y después de impulsar laprimera etapa de paletas del rodete pasa libre en medio del rodete y cambia de sentido vol-viendo a impulsar una segunda etapa antes de salir del rodete y caer por la gravedad alcanal de descarga.

Las turbinas de flujo transversal tienen un rendimiento máximo inferior al 85% pero éste semantiene constante cuando opera con una disminución de caudal del 16% del nominal y tieneun mínimo técnico en el orden del 10% del caudal de diseño. La determinación de la potenciamecánica en las turbinas Banki es más complicada que para las turbinas Pelton porque es ne-cesario conocer de antemano el ancho de admisión (boquilla) y la velocidad específica del ro-dete y cada modelo tiene sus propios valores. Pero la fórmula rápida para obtener un estimadode potencia es: P (kW)= 7 Q H asumiendo una eficiencia general del sistema de 70%.

Q = caudal disponible (m3/s)H = caída vertical (m)

Rodete

Carcasa

Boquilla

de entrada

Etapa 1

Etapa 2

Descarga

Figura 6. Diagrama de una turbina

Banki-Mitchell de flujo transversal con

boquilla horizontal.

Page 120: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

13

3.3.2. Criterios de selección de microhidroturbinas

La selección de las microhidroturbinas (MHT) depende de los factores siguientes:

1. Características del sitio (a filo de agua, embalse reducido).2. Caída vertical requerida para su funcionamiento.3. Caudal mínimo disponible en el sitio.4. Velocidad del rodete versus RPM requerido por el generador.5. Posibilidades de operar la MHT con caudales reducidos.

En términos generales, los distintos tipos de hidroturbinas a utilizar estarán sujetos a las con-diciones de campo predominantes en los sitios propuestos para su funcionamiento. En elCuadro 1 se presentan los parámetros de aplicación de distintos tipos de hidroturbinas enrelación a la caída vertical.

Cuadro 1. Límite de aplicación de las hidroturbinas.

3.4. Componentes de una Micro Central Hidroeléctrica

Para el establecimiento de una MHC, es importante considerar los siguientes componentes:

3.4.1. Obras civiles

Existen varias posibilidades para el diseño general de un proyecto microhidro exitoso. Sinembargo, en esta guía se tratará únicamente el esquema de una tubería de presión de mayorlongitud y caída vertical o salto de agua mayor a 50 m cuyos componentes principales son:

a. Presa pequeña y bocatoma.b. Tubería de presión y anclajes.c. Casa de máquinas y canal de descarga.

Pero existen otros factores que se deben tomar en cuenta antes de diseñar el conjunto deobras civiles. Por ejemplo: el agua arrastra pequeñas partículas de arena que son abrasivasy causan rápido desgaste en los tazones si no se retienen antes de entrar a la tubería depresión. Los sedimentos también pueden bloquear la entrada de la tubería si la bocatomano se instala apropiadamente.

Tipo de turbina Rango de caída vertical (m)

Kaplan y Propelas 2-40

Banki/Mitchell 2-25

Francis 10-350

Turgo 50-250

Pelton 50-1300

Page 121: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

14

El caudal de las quebradas es variable durante el año pero las obras civiles y el equipoelectromecánico se diseñan para manejar un caudal estable. Por lo mismo, la bocatomadebe derivar el caudal estimado en el diseño tanto en época de lluvias como en verano y lafunción principal de la bocatoma es asegurar que el agua llegue a la tubería con la quebradaa bajo caudal.

Durante la estación lluviosa las estructuras de derivación de caudal (presa y bocatoma) re-quieren de mucha atención, pues durante las avenidas la corriente arrastra materiales pe-sados que, acumulados en la base de la bocatoma pueden causar apilamientos dañinos ala presa, bocatoma y vertedores.

El efecto de la turbulencia es otro factor que requiere mucha atención en las corrientes cer-canas a la presa pues las alteraciones súbitas en la dirección de la corriente originan turbu-lencia y bolsas de aire que inducen a pérdidas de energía y agitan los sedimentos facilitandosu entrada en la tubería.

Cuando el agua que circula por la tubería se detiene bruscamente, debido a un bloqueocerca de la turbina, origina un golpe de ariete que resulta en una súbita elevación de la pre-sión interna que puede romper fácilmente la tubería. Además, estas sacudidas hacen quela tubería se desestabilice y se suelte de los anclajes si no está firmemente sujetada.

a. Presa pequeña y bocatoma

La presa es la estructura que se instala frente a la corriente de una quebrada para elevarel nivel de agua sobre la entrada de la tubería de manera permanente para garantizar elagua requerida por la turbina de acuerdo al caudal de diseño.

En aquellos proyectos a filo de agua si se excluye la pequeña presa puede resultar en unamerma del potencial de generación durante el verano y solamente en los casos que existeuna caída y caudal mayores que los requeridos se pueden obviar las construcciones deeste componente.

La bocatoma consiste en un espacio usualmente a un lado de la presa para acumular agualibre de piedras y sedimentos mayores sobre la entrada de la tubería. Siempre se instala unpascón metálico bien construido y de superficie 3-4 veces mayor que el área de la tuberíaque se ha empotrado en la pared de la presa. El pascón debe retener todos aquellos ma-teriales mayores a 1⁄3 del diámetro de las boquillas y toda la hojarasca, ramas y piedras quepudiesen bloquear la tubería y reducir la presión de trabajo o causar fluctuaciones en ladescarga, que pueden ocasionar averías en la turbina.

Para seleccionar el lugar donde establecer la presa se deben considerar las condiciones si-guientes:

• Elegir un lugar con base estable (rocas) que pueda resistir las probables avenidas durantela época lluviosa.

• Debe haber una corriente constante y con poca pendiente.

Page 122: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

15

• Colocar la pequeña presa o bocatoma en los tramos rectos.• Las curvas acumulan sedimento hacia adentro.• Las curvas están sujetas a erosión y daños hacia fuera durante las avenidas.

Todas las presas deben tener un vertedor colocado al lado opuesto a la bocatoma que con-siste en una abertura o canal más bajo que la corona de la presa. Este vertedor dirige la co-rriente a mayor velocidad y permite una mayor acumulación de los materiales arrastradosen el fondo. Es en este punto que se deben dejar las compuertas desarenadoras para faci-litar la limpieza del área adyacente a la presa.

b. Tubería de presión y anclajes

En los proyectos microhidro, la tubería es el conducto que lleva el agua a presión desde elsitio de boca toma hasta la turbina, excepto en los tipos de caída vertical mínima como enlas turbinas de propelas. Las tuberías de PVC utilizadas en estos sistemas generalmentequedan bajo la superficie del terreno para mayor anclaje y protección contra daños por gol-pes, pisoteo de animales, debilitamiento por el efecto del calor y los rayos ultravioletas de-rivados de la radiación solar.

A menudo la tubería de presión es el componente más caro en el presupuesto de un micro-proyecto; por lo tanto, es muy importante optimizar el diseño para reducir el costo. Para ellose debe seleccionar adecuadamente el tipo de tubería y el diámetro efectivo de la misma,a fin de decidir entre aceptar mayores pérdidas internas (Hf) y generar menos potencia o am-pliar el diámetro de tubería a un costo mayor para sostener la potencia de diseño sin las res-tricciones originadas por las pérdidas (Hf).

Las pérdidas por fricción en los tubos dependen principalmente de la presión de operación delagua que circula, por la rugosidad interna en las paredes de los tubos, por el diámetro y longitudde la tubería y por la velocidad de la columna de agua dentro de la tubería de conducción.

Pascón de tubo perforado

Descarga de bocatoma hacia tubería de presión

Presa de mampostería

Cubierta protectora de piedra

Tubo para entrada de aire que evita el colapso de la tubería en caso de un blo-queo en la bocatoma.

Figura 7. Diagrama de una bocatoma para abastecer una microturbina.

Page 123: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

16

Al aumentar el diámetro se reducen las pérdidas (Hf) pero se incrementan los costos deadquisición, transporte y colocación. A fin de decidir la tubería más conveniente es necesarioconsiderar varias opciones entre los materiales disponibles y seleccionar en base a pérdidasHf no mayores al 15% de la caída vertical total (H total). También se debe buscar la ruta demenor longitud y máxima caída vertical total, evitando en lo posible las curvas horizontalesy las ondulaciones verticales en la tubería, ya que estas deformaciones incrementan lasperdidas Hf.

La presión del agua en la tubería depende de la caída total; a mayor H total corresponde unapresión mayor. Esta presión de operación en la tubería es un aspecto crítico porque influyeen el espesor de la pared necesario para resistir los esfuerzos correspondientes sin riesgosde roturas. En Honduras se acostumbra medir la presión en las tuberías en unidades PSIo sea en libras por pulgada cuadrada; una columna de agua dentro de una tubería a 10.0m de caída vertical ejerce una presión de 14.29 PSI. En el país la tubería de presión común-mente utilizada es PVC-SDR 26; el precio de la tubería aumenta en proporción al espesorde pared, a mayor espesor es más alto su valor.

Frecuentemente, las tuberías de presión requieren de refuerzo en forma de espigones obloques de concreto empotrados en el suelo para resistir los esfuerzos laterales y longitu-dinales que ocurren a lo largo de su recorrido, especialmente en aquellos tramos sobre lasuperficie ya que la temperatura provoca un movimiento longitudinal sobre la misma (alar-gamiento-contracción), pero los esfuerzos mayores se concentran en las curvas tanto en elplano horizontal como en vertical o en ambos.

La fuerza causada por la presión hidrostática-la presión del agua que tiende a causar se-paración de las uniones y deslizamiento im-perceptible de la tubería sobre los espigonesde concreto- a menudo es la fuerza de mayormagnitud. Pero la expansión térmica de lostubos, el peso de la porción de tubería sobreel espigón y su empuje sobre las curvas tam-bién transmiten esfuerzos que afectan la tu-bería cuando no está correctamente ancladaa intervalos apropiados.

Para cortar o dar paso al flujo de agua quemueve la turbina se acostumbra colocar unaválvula de compuerta en el tramo de tuberíaadyacente a la turbina; pero no se debería deutilizar como válvula de regulación, ya queesto provocaría turbulencias que afectan elrendimiento de la turbina.

Figura 8. Para obtener una caída vertical apro-

piada, la tubería de presión generalmente se ins-

tala con dificultad siguiendo pendientes muy

pronunciadas.

Page 124: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

17

Para evitar el colapso de la tubería por un vacío ocasionado si hubiese un bloqueo severo enla bocatoma, se debe instalar un tubo vertical de entrada de aire, colocándolo en el primertubo de salida de la presa, justamente al lado de la pared exterior de la misma. Como refe-rencia, este tubo deberá tener un diámetro tres veces menor con relación al diámetro de latubería madre.

c. Casa de máquinas

La casa de máquinas es una pequeña edificación que protege la turbina, el generador ydemás equipo electromecánico. Aunque la casa sea una estructura simple, debe tener unacimentación sólida.

Por razones de seguridad y de resistencia estructural, el piso de la casa de máquinas debe que-dar sobre el nivel del agua todo el año y se debe tomar como referencia el nivel más alto al-canzado por las quebradas durante la época de inundaciones, observando las marcas dejadasen los taludes. También se debe consultar a las personas que han vivido durante mucho tiempoen el sector. Por otra parte, la casa de máquinas debe quedar situada de manera que facilitela descarga del agua utilizada en la turbina nuevamente a la quebrada y tan cerca de la aldeacomo sea posible para un mejor acceso y reducción del costo de conducción de electricidad.

El canal de descarga que emergede la casa de máquinas debe que-dar protegido de la corriente princi-pal y siempre se orienta conpendiente en el sentido aguasabajo de la quebrada para evitaracumulación de balseras durantelas avenidas mayores. Para evitarel impacto destructivo de las aguasdurante las crecidas, al final delcanal de descarga debe quedar enun tramo recto en el cauce naturaldel río o quebrada.

Durante la selección del sitio para ins-talar la casa de máquinas y el canalde descarga siempre se deben teneren cuenta los aspectos siguientes:

• Deben planificarse en base a una condición de las probables crecidas en el cauce delas quebradas.

• La naturaleza y composición del cauce natural determina el grado de erosión y cambiosde curso en el futuro.

• Los promontorios rocosos o peñascos adyacentes pueden proteger las obras civiles delproyecto.

Figura 9. La casa de máquinas, aunque es una estructura sim-

ple, siempre debe quedar bien cimentada sobre terreno firme.

Page 125: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

18

3.4.2. Otros componentes

Además de las obras civiles que corresponden a un sistema de micro central hidroeléctrica,descritas anteriormente, también se deben considerar otros componentes importantes a lahora de planificar un proyecto microhidro, ya que son estos los encargados de generar y dis-tribuir la energía hasta su uso final:

a. Equipo de generación

El equipo de generación es un componente importante en la generación de energía eléc-trica. Forma parte de lo que se denomina casa de máquinas y lo constituyen:

1. Generador

El generador es la máquina que transforma toda la potencia mecánica provista por la turbinaen electricidad. Entre las partes, los componentes más importantes son:

a. El rotor que a su vez está compuesto por otros elementos como los campos electro-magnéticos, ejes y aisladores. Es la parte giratoria e impulsada directamente por lasbandas de las poleas de la turbina. La velocidad de operación nominal generalmentees de 1,800 RPM en generadores monofasicos de baja potencia.

b. El estator. Es la parte del generador que permanece fija sujetada a la carcasa.c. El anillo colector que recoge toda la energía generada en el interior del generador y la

transfiere a los carbones.d. Diodos rectificadores funcionan por el roce entre los carbones y el colector y transfieren

la energía eléctrica generada al sistema de distribución.

Figura 10. Diagrama de

un generador.

Page 126: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

19

El generador debe mantenerse protegido de descargas eléctricas por medio de una cone-xión a tierra correctamente instalada.

Tipos de generadores:

• Sincrónicos corriente alterna. • De inducción corriente alterna. • Alternadores de corriente directa.

2. Reguladores de velocidad o gobernadores

Se conocen como gobernadores de velocidad y frecuencia y pueden ser:• Mecánicos: muy costosos para sistemas microhidro.• Electrónicos: siempre deben tener carga útil conectada al gobernador que puede ser

mediante calentadores de aire o calentadores de agua.

b. Red de distribución eléctrica

Este componente corresponde a toda la infraestructura en cuanto a equipo y materiales ins-talados fuera de la casa de máquinas, para la distribución de la electricidad generada. In-cluye entre otros: tendido eléctrico primario, postes, accesorios y equipo de protección einstalaciones eléctricas domiciliarias.

La energía generada debe transmitirse mediante una red de baja tensión hasta el centro deconsumo. Dependiendo de la distancia entre la casa de máquinas y el centro de consumoserá necesario tender redes de transmisión al voltaje apropiado y reducir pérdidas y caídasde voltaje. Cuando es necesario se utilizan transformadores de capacidad apropiada al sis-tema para contrarrestar las caídas de voltaje inevitables en los tramos mayores a 1 km delínea principal.

Este concepto puede llegar a ser unode los componentes más caros en elestablecimiento de proyectos microhi-dro, dependiendo de la dispersión delas casas en la aldea y del tipo y canti-dad de postes y accesorios que se vana instalar. En aldeas con dispersión decasas de un radio mayor a un kilometrode la casa de máquinas se encarece elproyecto.

Al realizar la instalación de la red do-miciliaria se deben considerar los si-guientes aspectos:

• Elaborar un croquis a escala de laubicación de las viviendas partici-pantes en el proyecto.

Figura 11. La red de distribución debe ser instalada por

personal técnico capacitado.

Page 127: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

20

• El diseño del croquis deberá tomar en cuenta las principales calles o caminos dentrode la comunidad, procurando conservar los tramos rectos y evitando obstáculos aéreos(árboles) que puedan dificultar la instalación de la línea de distribución.

• El cable a utilizar en la línea primaria de distribución eléctrica debe ser de calidad y en basea las especificaciones indicadas para reducir las caídas de voltaje.

• Los postes y las crucetas que servirán en la línea de distribución se seleccionan deacuerdo al presupuesto disponible (concreto, madera curada, madera rolliza). Es pre-ferible una inversión inicial mayor para obtener una larga vida útil del sistema.

• Se recomienda instalar los dispositivos de protección necesarios, tales como retenidasen las curvas y suficientes bajadas de polo a tierra.

c. Instalaciones eléctricas domiciliarias

Corresponde a aquellas instalaciones eléctricas que se derivan de la red de distribucióneléctrica hacia el interior de las vivien-das o infraestructura en donde se haráuso de la energía generada. Este com-ponente incluye todo lo correspondienteal cable eléctrico de interiores, acceso-rios de uso domiciliario (rosetas, tomacorrientes, interruptores, etc.) y los dis-positivos de protección como panel decontrol de sobre carga (breakers apro-piados) y limitadores de consumo.

Estas instalaciones deben efectuarsecon el apoyo de personal calificado, demanera tal que se ejecuten bajo las es-pecificaciones y criterios técnicos míni-mos, a fin de evitar futuros desperfectos.

3.4.3. Operación y mantenimiento del sistema

El personal responsable de la operación y mantenimiento de la microcentral desempeña unpapel importante para asegurar el funcionamiento adecuado y prolongar la vida útil del sis-tema. Aunque el proyecto haya sido bien diseñado y el equipo instalado sea de buena ca-lidad, este puede no operar confiablemente sino es correctamente manejado. Por lo tantolos operadores seleccionados para realizar estas tareas deben hacerlo con buena actitud,aptitud, integridad y compromiso con su comunidad.

Se debe diseñar un plan de capacitación a largo plazo que sea efectivo y consistente, en elque participen los encargados de operar el sistema en la comunidad.

Figura 12. Una adecuada instalación eléctrica en la vi-

vienda garantiza el funcionamiento eficiente y seguro del

servicio eléctrico.

Page 128: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

21

IV. PASOS PARA LA IMPLEMENTACION DE UNA MHC

Para el establecimiento de una MHC se deben considerar una serie de pasos que permitanlograr un proyecto exitoso y con una buena relación costo/beneficio.

4.1. Selección de la microcuenca

La comunidad y el personal técnico deben identificar la microcuenca que reúna las condi-ciones apropiadas para su aprovechamiento con fines hidroeléctricos. Esta área debe seruna zona no intervenida, con cobertura boscosa apropiada que garantice la protección dela fuente de agua y sin conflictos de tenencia de la tierra.

Es importante considerar que el recurso hídrico es aprovechable en un punto del sitio de su

Figura 13. Esquema de un proyecto de generación de energía mediante una microcentral.

A. Bocatoma

B. Tubería de presión

C. Casa de máquinas

D. Microhidroturbina

E. Canal de desagüe

F. Línea de transmisión

G. Instalación domiciliaria

Componentes deuna microcentral

Page 129: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

22

emplazamiento, por lo que debe estar en el área donde se localiza la comunidad que serábeneficiada con el proyecto. Si no se encuentran restricciones de importancia que imposi-biliten la utilización de dicho emplazamiento (situaciones geológicas, ambientales, afectaciónde actividades socio económicas, etc.) se procede a realizar mediciones para la evaluacióndel sitio.

4.2. Evaluación del sitio

La evaluación del sitio permite valorar el potencial del recurso hídrico para satisfacer los re-querimientos eléctricos del sistema a instalar en una comunidad. Esta evaluación consisteen recabar la información concerniente a caudal y salto de agua.

Con los datos de caudal y desnivel localizado en cada emplazamiento seleccionado, puedehacerse una primera estimación de la potencia continua disponible en los mismos. Sobre labase de este análisis se realiza una preselección de los emplazamientos que resultan demayor interés para resolver el abastecimiento de la demanda localizada en el área.

Los principales parámetros tomados en cuenta para la evaluación del sitio con potencialpara la instalación y funcionamiento de una MHC son: caudal y desnivel.

4.2.1. Caudal

El caudal se define como la cantidad de agua en movimiento por la corriente de la quebradamedida en galones por minuto (gal/min), litros por segundo (l/s) o metros cúbicos por se-gundo (m3/s).

La precisión en la medición de caudales deberá siempre considerarse como un factor rela-cionado directamente con la capacidad potencial del sistema a instalar, ya que este defineel diseño del mismo bajo los siguientes conceptos:

• El caudal de diseño siempre debe ser un porcentaje inferior al caudal aforado.• El caudal de diseño determina el diámetro de la tubería de presión.• El caudal de diseño determina el diámetro de las boquillas

La precisión en la medición del caudal depende de la demanda de electricidad previstasegún la encuesta de los beneficiarios (número de casas) y de la caída vertical disponibleen el sitio; por ejemplo, si el caudal disponible es mayor que lo requerido para el proyectoy de antemano se sabe que es sostenible durante todo el año, no es necesario hacer unamedición rigurosa. En todo caso, el mejor momento para efectuar los aforos es al final dela época seca cuando las quebradas mantienen su caudal más reducido.

Hay que tener en cuenta que no es aceptable desviar toda la corriente hacia la turbina puesen cada país se exige conservar un caudal ecológico reglamentario para preservar la vidaacuática del sitio.

Page 130: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

23

Existen varios métodos para medir la cantidad de agua que fluye por una quebrada, río ocaudal. Para efectuar esta valoración de caudal a nivel local, cuando no se dispone de equi-pos de precisión, ni se considera pertinente su uso, es conveniente utilizar métodos reco-nocidos y ampliamente difundidos, entre los cuales podemos mencionar:

a. Método del recipiente

Este es un método sencillo y preciso para medir caudales pequeños en lugares donde hayuna tubería de salida o una caída natural apropiada para acomodar el recipiente.

Consiste en medir el tiempo que gasta el agua en llenar un recipiente de volumen conocido,para lo cual, el caudal es fácilmente calculable con la siguiente ecuación: Q= V/t. En donde“V” es el volumen de agua del recipiente (en litros o galones) y “t” es la duración de tiempocronometrado (en segundos) en que se tarda en llenar el recipiente.

Con una cubeta de 20 l de capacidad se pueden aforar descargas menores a 10 l/s y conun barril común de 55 gal (+ 200 l de capacidad) se pueden medir caudales menores a 30l/s. Si la descarga es mucho mayor que el recipiente, se forman turbulencias que afectan laprecisión del método. En estos casos es mejor registrar el tiempo requerido para llenar elbarril y después medir el volumen de agua captada con recipientes calibrados previamentey de menor tamaño para facilitar la extracción del agua contenida y asegurar una mayorprecisión.

Procedimiento

Se toma un recipiente de volumen determinado y se realiza su llenado directamente en lafuente de agua, al mismo tiempo con un reloj se registra cuánto es la duración del llenadodel mismo. Se deben de realizar repeticiones en el llenado del recipiente para determinar elvalor promedio del tiempo. Por ejemplo:

Si se utilizó un recipiente de 50 l de capacidad, realizando tres repeticiones en el llenado delmismo y los tiempos medidos fueron de 2, 3 y 4 s, el caudal de la fuente se puede calcular

de la siguiente manera:

a. Promedio del tiempo de llenado (t promedio).

t promedio = (2 + 3 + 4) = 3 s3

b. Cálculo de caudal (Q).

Donde, V es igual al valor de la capacidad del recipiente (50 l) dividido por eltiempo de llenado (3 s), es decir que Q es igual a:

Q = V/tQ = 50 ÷ 3 = 16.6 l/s

Page 131: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

24

b. Método del vertedor

Los vertedores son estructuras que se colocan opuestos a la corriente que se va a medirpara crear una obstrucción parecida a una pequeña presa y hacer pasar toda el agua porla cresta de dimensiones preestablecidas, de manera que con una sola medición del espesorde la corriente sobre la cresta es posible estimar el caudal. La precisión del aforo dependedel cuidado en instalar el vertedor y de hacer pasar toda el agua de la quebrada por elmismo.

Durante muchos años se hicieron numerosas investigaciones para calibrar las escotadurasde los vertedores comúnmente utilizados para medir el caudal especialmente en canales deirrigación y corrientes naturales de menor tamaño.

Los tipos de vertedores más conoci-dos son los rectangulares, trapezoi-dales o Cipoletti y los triangulares a90° también conocidas como de es-cotadura en V. Estos últimos son losmás comunes y pueden medir pe-queños caudales con mayor preci-sión que un vertedor rectangular.Por otra parte, con estructuras rec-tangulares se pueden aforar co-rrientes de mayor caudal. El tipoCipoletti también es utilizado por-que sus paredes verticales enforma de trapecio inclinados haciaafuera en relación vertical a hori-zontal 4:1 simplifican la fórmula yelimina el factor de corrección re-querido en las mediciones con ver-tedor rectangular (Figura 14).

Los vertedores se colocan en posición transversal a la corriente que se va a medir y la crestadebe quedar por arriba del nivel natural del agua en la quebrada de manera que se formeuna pequeña presa para que al salir del vertedor el agua caiga libremente como una cortinadejando un espacio de aire entre la cresta y el nivel de la corriente aguas abajo del vertedor(napa). La medición del espesor de la carga de agua sobre la cresta (h) se hace aguasarriba a una distancia mayor a 4 h para reducir el error.

Figura 14. Medición de caudal utilizando un vertedor triangular.

Page 132: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

25

En el sitio de medición no debe haber obstrucciones de la corriente como bancos de arena,peñascos o malezas en las cercanías al vertedor y la cresta debe quedar exactamente anivel en los rectangulares y Cipoletti. El tipo triangular usualmente forma un ángulo de 90°juntando dos lados inclinados 45° de la vertical.

Las ecuaciones para medir los caudales en todos los tipos de vertedor de cresta angosta sonválidas para h mayor a 5 cm y menores a 0.5 m. Los vertedores triangulares se pueden utilizarpara medir caudales entre 5.0 y 100 l/s, lo que constituye un rango significativo para medicio-nes con un solo instrumento. Los vertedores rectangulares y Cipoletti se pueden usar para afo-rar corrientes mayores a 10 l/s hasta un incremento no mayor a 20 veces (200 l/s).

Para utilizar las ecuaciones sin necesidad de utilizar factores de corrección, los vertedoresse deben instalar aguas debajo de una poza de suficiente longitud y profundidad para quela corriente fluya lentamente hacia el vertedor, preferiblemente a velocidad inferior a 0.15m/s. Aunque los detalles específicos sobre la construcción de un determinado vertedor pue-den variar, es importante asegurar los contornos del mismo y sellarlos con tiras de plásticoaguas arriba del vertedor fijado con arena, grava o piedras para que no sean arrastradas porla corriente.

Ejemplo

Cálculo de caudal utilizando método de vertedor triangular.

Q = m3/s H = m

h h h4

1

h

>4h

>0.15 m/s >2h

Rectangular

Q= 1.8 (L - 0.2 h) h3/2 Q= 1.9 L h

3/2Q= 1.4 h5/2

>2h L >3h >2h

Cipoletti

>2h L >3h >2h

Triangular (90º)

>2h >2h

Q = Descarga por el vertedero (m3/s)

L = Longitud de la cresta (m)

h = Espesor de la carga de agua sobre la cresta

Figura 15. Criterios de diseño y ecuaciones características para tres tipos de vertedores.

Page 133: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

26

Q = 1.4 H5/2

Se obtuvo una H de 0.40 m sobre la marca de referencia a 2.0 m aguas arriba del vertedor.

Q = 1.40 x 0.405/2

= 1.40 x 0.101

= 0.14 m3/s (140 l/s)

c. Método del flotador

Este es un método sencillo y práctico para medir caudales con suficiente exactitud. Se buscaun tramo de corriente recto en una distancia de 10 m o más, se marcan con estacas los pun-tos AA y BB y se tiende una cuerda entre las estacas. Como la sección transversal de la que-brada será distinta entre AA y BB. Se mide 5 veces o más (siempre en números impares)la profundidad del agua a distancias iguales en el punto AA y se obtiene la profundidad pro-medio. La sección transversal en m2 es la profundidad media multiplicado por el ancho dela corriente.

Se procede del mismo modo en el punto BB y se suman ambos valores para obtener lasección transversal media.

Después se encuentra la velocidad media de la corriente usando un flotador. Se deja queel flotador inicie unos metros arriba del punto AA y se comienza la lectura del cronómetrocuando el flotador pasa justamente al lado de las estacas aguas arriba hasta que llega alpunto BB. Se repite la prueba por lo menos 3 veces y se obtiene el tiempo promedio. Si unade las medidas difiere mucho de la anterior se hace una medida adicional y se descarta lamedida inapropiada.

Para calcular el caudal se multiplica Ā (m2) por V (m/s) habiendo utilizado previamente losfactores de corrección. El resultado será en m3/s, para estimar el caudal en l/s se multiplicael resultado por 1000.

Cuadro 2. Factores de corrección.

Condiciones del sitio Factor Precisión

Quebrada profunda y lenta 0.75 Razonable

Arroyo pequeño, de lecho parejo, liso 0.65 Mala

Arroyo rápido y turbulento 0.45 Muy mala

Arroyo pequeño, de lecho rocoso 0.25 Muy mala

Page 134: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

27

Este método puede ser más exacto si se aumenta la distancia entre los puntos AA y BB a20 m o más, cuando las condiciones del sitio lo permiten.

Los materiales y equipos requeridos son los siguientes:• Un objeto flotante, puede ser una bola de ping-pong, una botella plástica pequeña, una

rama o trozo de madera que flote libremente en el agua.• Un reloj o cronómetro.• Una cinta medidora.• Una regla o tabla de madera graduada.

Para su aplicación es necesario seguir los siguientes pasos:

a. Paso 1. Seleccionar el lugar adecuado

Se selecciona en el río o quebrada un tramo uniforme, sin piedras grandes, ni troncos deárboles, en el que el agua fluya libremente, sin turbulencias, ni impedimentos.

b. Paso 2. Medición de la velocidad

En el tramo seleccionado ubicar dos puntos, A (de inicio) y B (de llegada) y medir la distan-cia, por ejemplo 12 m (cualquier medida, preferiblemente del orden de los 10 m).

Una persona se ubica en el punto A con el flotador y otra en el punto B con el reloj o cronó-metro. Se medirá el tiempo de recorrido del flotador del punto A al punto B.

Se recomienda realizar un mínimo de tres mediciones y calcular el promedio; supongamosque el promedio del tiempo de recorrido fue de 8 s.

La velocidad de la corriente de agua de la quebrada se calcula con base en la siguienteecuación:

Velocidad (V) = Distancia del tramo A-B (m) ÷ Tiempo de recorrido (s)

Para nuestro ejemplo, tendríamos: V= 12 ÷ 8 = 1.5 m/s

Page 135: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

28

c. Paso 3. Medición del área de la sección transversal de la quebrada

Un método práctico, con aceptable aproximación para calcular el área transversal, es tomarla profundidad promedio. Esto consiste en dividir el ancho de la quebrada en por lo menostres partes (preferiblemente cinco), y medir la profundidad en cada punto para luego calcularel promedio.

Por ejemplo, consignemos los resultados de las mediciones de la profundidad (Cuadro 3).

Cuadro 3. Valores de la medición de la profundidad de la quebrada en su sección transversal.

Calculamos ahora, la profundidad promedio de conformidad con los valores expuestos enel Cuadro 3:

Puesto que la profundidad promedio, h= (h1+h2+h3+h4+h5+h6) ÷ 6, para nuestro ejemplo,

Punto A

Punto B

Sitio adecuado10-20 m

Sitio inadecuado

Figura 16. Esquema

para la medición de

la velocidad de la

corriente de la que-

brada.

Profundidad mh1 0.00h2 0.22h3 0.35h4 0.44h5 0.30h6 0.00

Page 136: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

29

tenemos:

h = (0+0.22+0.35+0.44+0.30+0) ÷ 6 = 0.22 m.

Una vez que se ha determinado el valor promedio de la profundidad, se procede a realizarla medición del ancho de la quebrada. Supongamos que para nuestro ejemplo, ese valor es2.4 m.

El área de la sección transversal (A) de la quebrada se calcula en base a la siguiente ecuación:

A = Ancho x profundidad promedio

Para nuestro ejemplo, el área de la sección transversal es igual a:

A = 2.4 m x 0.22 m = 0.53 m2

d. Paso 4. Cálculo del caudal de la quebrada

Con los datos obtenidos se procede a calcular el caudal de la quebrada (Q), en base a lasiguiente ecuación:

Q (m3/s) = Velocidad (m/s) x Area transversal (m2) x Factor de corrección

Para nuestro ejemplo, tenemos:Velocidad: 1.5 m/sÁrea transversal: 0.53 m2

Factor de corrección: 0.50

Entonces, el caudal, será: Q = 1.5 x 0.53 x 0.50 = 0,398 m3/s

o igual a, Q= 398 l/s, en razón que 1 m3 es igual a 1,000 l.

d. Medición con molinete

Una determinación más exacta de la velocidad se puede obtener utilizando un molinete ocorrientómetro.

Entre los tipos de molinete están el de taza cónica, el cual gira sobre un eje vertical y el de tipohélice, el cual gira sobre un eje horizontal (Figura 17). En ambos casos la velocidad de rotaciónes proporcional a la velocidad de la corriente; se cuenta el número de revoluciones en un tiempodado, ya sea con un contador digital o como golpes oídos en los auriculares que lleva el operador.

En las corrientes superficiales se montan pequeños molinetes sobre barras que sostienenoperarios que caminan por el agua. Cuando hay que medir caudales de una avenida engrandes ríos, las lecturas se toman desde un puente o instalando un cable suspendido por

Page 137: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

30

encima del nivel máximo de la ave-nida; el molinete se baja por medio decables con pesas para retenerlo con-tra la corriente del río.

El fabricante de estos aparatos en-trega los valores o correlación del nú-mero de vueltas por segundo y lavelocidad de la corriente en cada uni-dad. Generalmente los molinetes seutilizan para medir velocidades entre0.2 y 5.0 m/s, con un error probablede 2%.

4.2.2. Salto de agua (desnivel o altura)

Es la diferencia de elevación (m) entrela boca toma aguas arriba y el rodete de la turbina en la casa de máquinas. Nos determinala carga hidráulica, a mayor altura mayor potencial de generación hidroeléctrica. Se deberecorrer un tramo sobre la vertiente de agua evaluada buscando la parte que tenga la mayordiferencia de altura en el trayecto más corto para ubicar la bocatoma y la turbina.

Previo a la elaboración de un estudio de factibilidad para desarrollar un proyecto de micro-central, es importante realizar adecuadamente las mediciones preliminares del salto deagua o caída vertical de la quebrada preseleccionada. Para medir el desnivel aprovechabledeben evaluarse, en campo, la ubicación de la cámara de carga o boca toma y de la casade máquinas.

Para medir el desnivel que puede lograrse dentro de longitudes aceptables de las obras deconducción (canales y tuberías), existen distintos métodos, entre ellos se mencionan: clinó-metros o nivel Abney, manguera y manómetro, y niveles; cada uno de ellos con caracterís-ticas sobre la precisión en la medición.

Para efectos de estimaciones preliminares, la medición de salto de agua o desnivel se puederealizar con el uso de un GPS de precisión con altímetro barométrico, el cual mediante ladiferencia de altitud (msnm) entre el punto definido de la bocatoma y el punto de la casa má-quinas se obtiene la altura total de caída. Es recomendable verificar los valores obtenidoscon otro método de mayor precisión porque el altímetro puede tener errores considerables.

Además se pueden utilizar otros sistemas de medición tales como:

a. Medición con manguera

Para medir la caída vertical la manguera se llena de agua y se sacan todas las burbujas, aun-que es un sistema lento, es de bajo costo y da buenos resultados. Para efectuar la revisiónse requieren dos personas y se usa el mismo método que usan los albañiles: una manguera

Figura 17. Molinete tipo hélice.

Page 138: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

31

de plástico transparente de unos 20 m de largo y 3⁄8 de diámetro se llena de agua, dejandounos 30 cm vacíos en un extremo. Para evitar errores en las lecturas se sacan todas las bur-bujas de aire, así al levantar los extremos de la manguera el agua siempre buscará el mismonivel. Se utilizan estacas clavadas al suelo y desde una marca superior se toman las lecturashacia abajo, hasta el lugar donde se espera instalar la turbina. Para obtener el desnivel totalse suman todos los valores obtenidos, tanto en el registro de desnivel como en la longituddesde el sitio probable de la presa hasta la casa de máquinas.

Una variante de este método se hace colocando un manómetro de baja graduación -nomayor a 10 psi- en un extremo de la manguera y se extiende la manguera por tramos quese marcan con estacas y se anotan las lecturas de presión que da el manómetro en cadaestación. La suma de las presiones registradas da el cálculo de desnivel total. Cada libra porpulgada cuadrada (psi) en el manómetro equivale a 2.31’ de altura vertical (0.70 m) y cadametro de desnivel aplica 1.42 psi sobre el manómetro.

En el Cuadro 4 se presenta un ejemplo ilustrativo del registro de los datos obtenidos durantela medición de altura usando el método de manguera con manómetro.

Cuadro 4. Lecturas obtenidas durante la medición.

1 Lecturas tomadas desde la estación 1 a la estación 20.

Es importante que al llenar la manguera no queden burbujas de aire dentro de la misma por-que alteran la confiabilidad en las lecturas. También se debe manejar el manómetro y lamanguera con mucho cuidado para que no se rompa la aguja del aparato. Para obtener lalectura de presión confiable es necesario calibrar el manómetro de antemano, esto se hacemidiendo una pared alta o la rama de un árbol con una cinta métrica y se utiliza como refe-rencia de presión en el manómetro versus altura total

Una ventaja adicional en este método es que simultáneamente a la medición de caída ver-tical se mide la longitud del tramo entre la bocatoma y la casa de máquinas.

Estación1Distancia

(m)

Presión

(psi)

Altura

(m)

1 0-30 10 7

2 30-60 8 5.6

3 60-90 12 8.4

20 570-600 6 4.2

Total 600 115 80.5

Page 139: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

32

b. Medición con clinómetro o nivel Abney

Es un instrumento de topografía muy sencillo perorequiere destreza para utilizarlo con precisión, seutilizan dos bastones de igual longitud clavados enel suelo y deben quedar a la altura del ojo. Se co-loca el primero en el sitio destinado para la casade máquinas y el segundo se lleva a una distanciade + 30 m en dirección hacia la bocatoma mante-niendo una línea visual sin obstáculos. Se mide ladistancia entre los dos bastones y se anota estadistancia (distancia d). Algunos clinómetros yatraen incorporado un distanciómetro para tomar laslecturas de distancia, en caso contrario se utilizauna cinta métrica larga.

Se lee cuidadosamente el ángulo entre los puntossuperiores de los bastones y se anota en la libretade campo. Hay que mantener completamente ver-tical ambos bastones y el clinómetro descansa sobre el bastón #1.

Este proceso se repite hasta llegar al nivel propuesto para el vertedor de la presa. Los des-niveles entre cada par de estaciones se calculan por medio de la Ley de los Senos y sesuman para obtener la caída vertical total.

Elevación H = distancia x seno (A)

Figura 18. Para obtener la

caída vertical con este método,

se convierte la presión del

manómetro (psi) a metros de

columna equivalente.

Figura 19. Nivel Abney o inclinómetro.

Page 140: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

33

Ejemplo:

Cuadro 5. Lecturas obtenidas empleando el clinómetro o nivel Abney.

c. Medición con altímetros digitales

Probablemente este sea el método más caropara medir la caída vertical, aunque es el mássimple y más rápido. Como el altímetro mide laselevaciones en base a las variaciones de presiónatmosférica, el usuario solamente tiene que re-gistrar una lectura en el sitio propuesto para labocatoma y otra en el lugar de la casa de máqui-nas para determinar el desnivel.

Sin embargo, factores tales como cambios detemperatura, presión atmosférica, humedad re-lativa causan muchas variaciones en estos apa-ratos. También afecta el grado de precisión en lalectura la calidad del aparato que se está utili-zando. La mejor manera de anular los efectosdel tiempo es que se utilicen dos altímetros idén-ticos y se tomen las lecturas simultáneamente.Se mantiene fijo en una sola posición, sea lacasa de máquinas o la bocatoma, para verificarlos cambios de presión atmosféricos y el otro seutiliza para calcular el desnivel. Como es fácil re-petir las mediciones varias veces para verificarel desnivel se toma el tiempo que una personatarda en llegar al segundo lugar. Se coordinanlos relojes para tomar una nueva lectura al mismo tiempo y se restan las dos lecturas paraconocer la caída vertical.

d. Medición con nivel de burbujas

Aunque existen variaciones en la medición de caída con un nivel de burbujas, todas siguenel mismo principio pero se trata de efectuar un mínimo de estaciones. Básicamente se em-pieza en el lugar de la casa de máquinas y se coloca el nivel sobre una estaca de longitudapropiada para mantener el nivel a la altura del ojo, dirigiendo la línea visual sobre el canto

Estación Distancia (m) Angulo A D x seno A1 31.5 14º 30ʼ 7.89

2 29.0 7º 15ʼ 3.66

11 23.1 10º 20ʼ 4.14Caída total 57 m

Figura 20. Medición de caída vertical utilizando

el nivel Abney.

Page 141: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

34

de desnivel hacia adelante hasta que coincida con la superficie del terreno. Se marca la se-gunda estación y se mide la altura “h” en la primera estación, simultáneamente se mide lalongitud entre los puntos 1 y 2 y se registra en la libreta de campo. Sucesivamente se pro-gresa en la medición hacia arriba hasta llegar al nivel de la bocatoma y la suma de las “h”representa la caída tota. La suma de distancia entre estaciones representa la longitud deltramo entre la casa de máquinas y la bocatoma.

e. Medición con nivel de topógrafo

Se utiliza un lente de aumento tipo monóculo colocado sobre un plato giratorio a nivel y untrípode y se toma la distancia siempre hacia abajo, siguiendo la línea convenientementedespejada para observar el punto indicado en una estadia muy larga para reducir el númerode estaciones. Se requiere observar el nivel de burbuja y ajustar el trípode en cada estaciónantes de efectuar la comprobación de la línea visual horizontal y siempre se hace con dospersonas, una que mueve la estadia y otra para manejar el trípode y el nivel. Los errores enel posicionamiento del trípode para mantener el nivel horizontal pueden afectar la precisiónde la medida, especialmente en pendientes muy empinadas. Con este método se agiliza lamedición de caída vertical y la longitud en la tubería entre la bocatoma y casa de maquinas.La caída total es el producto de la sumatoria de las lecturas de la estadia menos el total delas alturas de trípode registradas en la libreta de campo en cada estación.

4.2.3. Cálculo de potencia de generación hidroeléctrica

La potencia que puede generar una quebrada es el producto del desnivel o caída vertical ydel caudal. La caída vertical se mide desde la superficie del agua en la bocatoma hasta lasalida de la boquilla inferior en la Micro Turbina Pelton. A mayor caída vertical correspondeuna mayor potencia y mayor rotación del eje de la turbina. No se debe confundir la caída oaltura vertical con la longitud de la tubería.

Debido a que a mayor longitud de la tubería de presión se incrementan los costos en ma-terial e instalación y suben las pérdidas por fricción -independientemente del tipo de materialde la tubería- es conveniente localizar sitios con la mayor caída posible en menor distancia.

Para calcular la potencia hidráulica de un río o quebrada se multiplica el desnivel o altura(m) por el caudal (litros por segundos) por la constante fuerza de gravedad (9.81 m/s²).

Phid = H x Q x 9.81= Watts

Para obtener la potencia eléctrica real hay que trabajar en base a la eficiencia de cada unode los componentes que forman parte del esquema de generación eléctrica: tubería a pre-sión, turbina, generador y línea de transmisión = 0.95 x 0.75 x 0.85 x 0.90 = Eficiencia apro-ximada de 55–66%.

Ejemplo:¿Cuál es el potencial de generación de una quebrada con una caída vertical de 60 m y uncaudal de diseño de 25 l/s?

Page 142: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

35

H = 60 mQ = 25 l/s (0.025 m3/s)g = 9.81 m/s2

P = ¿ ?

P = 60 x 0.025 x 9.81 = 14,715 Watts (14.7 kW)

Aceptando una eficiencia del 60% en el sistema se obtendrá:

P = 14.7 x 0.60 = 8.82 kW de generación eléctrica

4.3. Aceptación de la comunidad

Una vez abordados los aspectos técnicos para la factibilidad de un sistema MHC, es impor-tante que la comunidad en asamblea comunitaria tome la decisión si acepta la implemen-tación del sistema para el abastecimiento de energía eléctrica a baja escala. La comunidaddeberá conocer la capacidad real del sistema a instalar para definir un balance entre la ca-pacidad de generación y la satisfacción de la demanda de energía eléctrica para iluminaciónentre los beneficiarios. Esto permitirá que la población adquiera un compromiso de apoyartodas las acciones que conduzcan a la instalación del sistema.

La población beneficiaria deberá considerar el pago de una tarifa por el servicio recibido, elcual sería destinado a sufragar aquellos costos de operación y mantenimiento y contar conun fondo para reparaciones o reemplazo de equipo.

4.4. Equipo apropiado y presupuesto

Al momento de planificar la instalación de una MHC se debe considerar que el equipo ainstalar sea de calidad y de acuerdo a las normas técnicas dictadas por el personal técnicoa cargo del proyecto. Las obras de infraestructura deben establecerse de acuerdo a los cri-terios y especificaciones técnicas para su óptimo funcionamiento. Es importante el empleode mano de obra calificada en la instalación de una MHC.

La elaboración de un presupuesto permitirá definir el costo de la obra, tipo de materiales yequipo a utilizar y si estos se encuentran disponibles en el mercado nacional. Con esto lacomunidad podrá realizar las gestiones necesarias para la obtención de recursos económi-cos para la instalación de la MHC.

4.5. Desarrollo de las obras civiles

El desarrollo de las obras civiles contempladas en la implementación de un sistema MHCdeberá de cumplir con los lineamientos y especificaciones técnicas adecuadas, a fin de ga-rantizar una vida útil del proyecto. Su ejecución estará a cargo de las personas que serán

Page 143: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

36

beneficiadas, quienes formarán cuadrillas de trabajo que estarán bajo la supervisión y ase-soría técnica del personal técnico calificado. Esto permitirá que la comunidad aporte la manode obra en forma organizada y oportuna durante la etapa de construcción de las diferentesobras civiles que conformarán el sistema.

La comunidad debe elaborar un plan de trabajo en el cual se establece un sistema de rota-ción de los beneficiarios, a fin de garantizar la participación de ellos en la implementacióndel sistema.

4.6. Instalación del sistema

La instalación del sistema estará directamente a cargo del personal técnico calificado paratal fin, el cual además se asistirá y acompañará del apoyo de los pobladores de la comuni-dad beneficiaria. Es importante considerar las medidas de seguridad que deben seguirse du-rante el funcionamiento del sistema para prevenir cualquier situación de riesgo en lasacciones de operación y mantenimiento.

4.7. Capacitación

Considerando que en algunos proyectos no se ha brindado el mantenimiento adecuadopara el funcionamiento óptimo de la MHC, se debe establecer un plan de capacitación enla comunidad en el que participen las personas que estarán a cargo del manejo del sis-tema. Se deberá de seleccionar dentro de la comunidad dos personas responsables di-rectamente de la operación y mantenimiento del sistema, los cuales tendrán que serdebidamente entrenados mediante un plan de capacitación de largo plazo para que seaefectivo y consistente.

La capacitación del personal deberá ser orientada a proveer de los conocimientos básicospara la operación y mantenimiento de un proyecto MHC, llevando un programa de mante-nimiento realista y apropiado para cada componente del sistema; esto significa además,contar con un plan preventivo y de respuesta ante posibles averías, así como también el usode una bitácora para llevar el registro de los mantenimientos efectuados. Esta actividaddebe ejecutarse previo a la entrega del sistema a la comunidad, a efecto de garantizar undesempeño prolongado y confiable del proyecto en beneficio de los usuarios.

Como parte del entrenamiento, la organización supervisora debe asistir a la comunidad pe-riódicamente y monitorear el estado del proyecto, evaluar la calidad de las reparacionesefectuadas y verificar las modificaciones al sistema, si las hubiere.

Es importante además tomar en cuenta la capacitación de más personas dentro de la co-munidad que estén preparadas para asumir las tareas en caso de que los operadores se-leccionados no estén disponibles por razones ajenas a su voluntad.

Page 144: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

37

V. RECOMENDACIONES GENERALES PARA LA IMPLEMENTA-CION DE UNA MHC

Con el propósito de que los participantes (instituciones, comunidad, personal técnico y au-toridades) en el proceso de implementación de una MHC, cuenten con mayores elementospara su planificación, es importante considerar una serie de recomendaciones que debenser tomadas en cuenta para lograr el éxito en esta actividad.

5.1. Preselección de sitios adecuados

Elegir el sitio adecuado que permita pre-factibilizar el proyecto, evitando de esta manera im-previstos de orden mayor que signifiquen un riesgo para la implementación del mismo.

5.2. Medición y monitoreo de caudales

Los caudales de las fuentes de agua previamente seleccionados, deben ser monitoreadosen distintas épocas del año para conocer las variaciones cíclicas de las fuentes, enfatizandoen la medición del caudal en el verano para tomar la información recolectada como referen-cia del caudal mínimo.

La medición del caudal mínimo es importante para determinar la potencia que se puede ge-nerar permanentemente y la capacidad del equipo electromecánico que se debe instalar.

5.3. Equipo y materiales disponibles

Es importante considerar el tipo y la disponibilidad del equipo electromecánico (turbina, ge-nerador, etc.), los materiales necesarios y costos actuales.

5.4. Infraestructura y distribución comunitaria

La condición de las comunidades con una amplia e irregular dispersión de viviendas, reducela calidad del potencial de energía eléctrica que ha de recibir cada abonado, asi también,encarecerá los costos globales del proyecto.

Además, es preciso efectuar un levantamiento de la demanda por el número de casas ubi-cadas dentro del radio de 1.0 km y conocer cuantas familias estarán dispuestas a pagar porel servicio de electricidad y aportar la mano de obra requerida.

La situación de la considerable distancia desde el sitio de la casa de máquinas hasta las co-munidades es un factor que encarece la implementación de sistemas de hidroenergía, esto

Page 145: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

38

debido al mayor requerimiento de los materiales y accesorios eléctricos. Además, que re-duce la calidad de energía hacia el abonado.

La condición de largas distancias y difícil acceso a las comunidades para el establecimientode este tipo de proyectos encarece los costos regulares, tanto por transporte de materialescomo por concepto de servicios profesionales.

5.5. Condición de la demanda comunitaria y sus responsabilidades

Se deberá determinar si en la comunidad seleccionada priva el deseo de electrificaciónlocal, disposición a pagar y capacidad para operar el proyecto.

Verificar la viabilidad en base a la demanda versus el potencial de generación eléctrica dela fuente de agua seleccionada. Por lo tanto se debe considerar la relación de costo bene-ficio previo a la implementación de estos proyectos, ya que la relación de oferta y demandapodría no llegar a satisfacer las necesidades del usuario respecto al costo y aporte de la con-traparte local.

Para garantizar el éxito, la instalación se hace con la activa participación de la comunidady su compromiso de trabajo. De esta forma se puede garantizar la sostenibilidad del pro-yecto pues asegura el contacto de los residentes con todos los componentes y procesos deconstrucción y operación de la microcentral. Solo así se logrará una verdadera y eficaztransferencia tecnológica.

5.6. Gestión y manejo de proyectos de MCH

Al momento de planificar la ejecución de un proyecto MHC, se deberá de considerar siempreel marco institucional y procedimientos legales-administrativos relacionados a estos, a fin deabordar las instancias pertinentes

La implementación de proyectos de hidroenergía se deberá de manejar de una manera integralhacia el manejo del recurso hídrico (microcuenca), a fin de garantizar la sostenibilidad de los mis-mos, previendo el involucramiento de la población en su totalidad en cada fase del proyecto.

Para la gestión de fondos se deberá de involucrar a las comunidades beneficiadas comoprincipales actores en este proceso, ya que es en ese momento en donde se deben dedejar establecidas las responsabilidades de las distintas partes al momento de ejecutarestos tipos de proyectos.

Es así que, preferiblemente se deben presentar los resultados del estudio preliminar a la co-munidad en asamblea pública y abierta, sobre estimando los costos generales y subesti-mando la potencia disponible. Explicar las responsabilidades para financiar, operar yadministrar el proyecto.

Page 146: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

39

VI. LITERATURA CONSULTADA

Einsenring, M. 1991. Micro Pelton Turbines. MHPG series Vol. 9. Swiss Center for AppropiateTechnology. Sankt Gallen, Switzerland.

European Small Hydropower Association. 2004. Guide on How to Develop a SmallHidropower Plant. European Renewable Energy Council.

Harvey, A; et al. 2006. Microhydro Design Manual, ITDG Publishing Bourton Hall Warwickshire, UK.

Inversin, A. R. 1986. Microhidropower Sourcebook NRECA International Foundation, Wash-ington D.C. 20036.

Meier, U. 1981. Experiencias locales con micro tecnologías. Centro Suizo de TecnologíaApropiada. Sankt. Gallen, Suiza.

Micro Hydropower System: A buyerʼs Guide. 2004. CANMET Energy Technology Center,Natural Resources, Canada.

Russell, G.E. 1985. Hidraulics. Holt, Rinehart and Wiston, Inc. Cambridge, Massachussets.Traducción Guillermo A. Fernández de Lara.

Sánchez, T. y Ramírez, G. 1995. Manual de mini y microcentrales hidraúlicas ITDG. Lima,Perú.

Simon, L. A. 1981. Practical hydraulics. John Wiley and Sons. New York, USA.

Smith, N. 1994. Motors as generators for microhidropower. ITDG Publishing. SouthamptonRow, London, UK.

Trueba, S. 1970. Hidraúlica. Compañía Editorial Continental S.A. Mexico, DF.

Thake, J. 2000. The microhidro Pelton turbine manual. ITDG Publishing. London, UK.

Widmer, R and Arter, A. 1992. Village Electrification. MHPG series Vol. 5. Swiss Center forAppropiate Technology. Sankt St Gallen, Switzerland.

Williams, A. 1997. Pumps as turbines, A userʼs guide. Intermediate Technology PublicationsLtd. 103-105 Southampton Row, London, UK.

Page 147: Manual de Energías Renovables

Guía Metodológica para el Establecimiento de Micro Centrales Hidroeléctricas en Areas Rurales

40

VII. GLOSARIO

Alumbrado domiciliario El sistema eléctrico de una casa.

Altímetro Aparato que utiliza la presión barométrica para medir la dife-rencia de elevación entre dos puntos.

Cámara de carga o bocatoma Estructura que a veces se construye frente al comienzo de latubería de presión para asegurar suficiente carga hidráulicasobre la tubería de salida.

Casa de máquinas Estructura sencilla en la que se instala y protege la turbina,generador, panel de control y dispositivos de regulación.

Caudal ecológico Caudal reglamentario que se debe mantener para reducir el im-pacto sobre la vida acuática en el tramo de la quebrada com-prendido entre la bocatoma y el canal de desagüe de la turbina.

Corriente eléctrica El movimiento positivo o negativo de partículas eléctricas –electrones- acompañado de un efecto visible como la gene-ración de calor o un campo magnético.

Eficiencia La capacidad de producir los resultados deseados con unmínimo costo de energía, tiempo, dinero o materiales involu-crados en un proyecto.

kW Unidad de potencia-kilo watt= 1000 Watts.

MW Unidad de potencia-mega watt= 1 millón de Watts.

Potencia Medición de energía suplida y demanda. Se expresa en va-tios (W) o kilo vatios (kW). Tiene distintas formas como la po-tencia hidráulica, mecánica y eléctrica.

psi Libras por pulgada cuadrada. Forma usual de registrar pre-siones hidráulicas en tuberías.

Sistema de distribución Sistema de cables que conecta el punto de generación conlas casas.

Válvula Dispositivo usado para regular el flujo de agua en la tuberíade presión.

Page 148: Manual de Energías Renovables
Page 149: Manual de Energías Renovables

Micro Turbinas Hidráulicas para el Hogar.

Estamos tomando conciencia de que necesitamos detener urgentemente la quema de combustibles fósiles como forma predominante de obtener electricidad. Estamos ensayando nuevas celdas solares, energía eólica y analizando cómo obtener electricidad de las olas del mar. Pero parece que lo mejor en un futuro cercano a la hora de recarga un dispositivo pequeño como una computadora portátil o un celular será una turbina conectada al grifo de tu fregadero.

Es posible que vivas en una zona donde el tiempo predominante incluye cielos nublados, haciendo imposible que uses cargadores solares. O que tengas tu hogar en un lugar donde no sopla el viento. Pero si a pesar de todo aun quieres ser “ecológicamente correcto” a la hora de recargar tus pequeños dispositivos y descargar el consumo local de la red troncal, la Mini Hydro Turbina (mini turbina hidráulica) del diseñador industrial Jin Woohan puede ser la respuesta a tus plegarias.

Mini Hydro Turbina, del diseñador industrial Jin Woohan

El artefacto funciona mediante la presión del agua del grifo, cuyo flujo sirve para impulsar una turbina que mueve un pequeño generador. Como resultado, cada vez que abres una canilla estás generando corriente eléctrica que puedes destinar a la carga de alguno de los tantos dispositivos pequeños que te rodean. El dispositivo tiene toda la electrónica necesaria como para entregarte directamente los 220V que necesitan para funcionar tus cargadores convencionales, por lo que no necesitas nada más para comenzar a utilizarlo.

Además, una batería interna almacena la electricidad generada cuando no tienes nada conectado a la Mini Hydro Turbina, y unos pequeños LEDs dispuestos en forma de “margarita” indican en todo momento el nivel de energía almacenada. Obviamente, este invento no implica desperdiciar agua, porque simplemente aprovecha las veces que utilizamos los grifos para otras tareas, como cocinar, lavar platos o bañarnos. Se trata de aprovechar la energía mecánica que está disponible en esos momentos, y que de otra forma se perdería en el desagüe. La instalación parece bastante simple, solo hay que hacer una derivación para que la cañería pase por dentro del aparato.

[]

Page 150: Manual de Energías Renovables

MÓDULO: 8. ENERGÍAS RENOVABLES. ENERGÍA EÓLICA

8.1.- Introducción.

Las Turbinas Eólicas son máquinas adaptadas para obtener el máximo aprovechamiento de la Energía Cinética del aire en movimiento (Viento), que en este caso es el Fluido de Trabajo.

La Energía Cinética de la corriente, que a veces se denomina Energía del Viento o Poder del Viento se incorpora en las cercanías de la máquina a una velocidad V1 [m/seg], en parte se transforma en Trabajo de Eje, fluyendo luego corriente abajo a una velocidad menor V2[m/seg].

La diferencia de la Energía Cinética entre la entrada y la salida es la que se transforma en Trabajo Mecánico de Eje.

El diseño básico de las palas del molino se basa en la teoría de los Perfiles Aerodinámicos. Un corte de sección transversal de una pala de Molino Eólico o simplemente Eólica, nos determina un Perfil Aerodinámico, este se parece a un tubo ahusado en forma de lágrima achatada por uno de sus flancos como se indica en la Fig.8.1_1.

Fig.8.1_1

La región gris oscura debe interpretarse como un corte de una sección de la pala que continúa perpendicular al papel como un cuerpo de tipo “cilíndrico” de esa sección.

A: En la región superior del ala el aire es acelerado creando una caída de presión, (zonas rojas de presión menores a la presión atmosférica, cuanto mas intenso el color mayor es esta depresión o succión).

B: En la región inferior, el aire es frenado ligeramente creando una zona celeste de sobre presión en la región frontal inferior es decir presión mayor que la presión atmosférica.

Los efectos de A y B crean una fuerza cuya descomposición vectorial según los ejes x e y nos dan la Fuerza de Sustentación C (que también se indica con la letra L de lift o sustentación en inglés) y una fuerza D de resistencia o Arrastre, Drag en Inglés.

Un dibujo esquemático hecho en la pizarra, se representa en la Fig.8.1_1b, donde se indican otras variables que debemos definir.

Fig.8.1_1b

Page 151: Manual de Energías Renovables

  2

El ángulo que forma la base más plana del perfil con la horizontal se denomina ángulo de ataque y se indica con la letra α . Con c se indica la cuerda del perfil que va desde la tangente frontal al vértice de la cola [m], y b el ancho de la cuerda o del ala [m].

También se estudia el perfil desde un punto de vista relativo, es decir es lo mismo que el perfil se mueva hacia la izquierda en aire quieto con velocidad V, o que el perfil se mantenga quieto y se haga incidir el aire con velocidad V de izquierda a derecha.

Cuando la corriente de velocidad V incide relativamente con el perfil, se crea una fuerza resultante R que se descompone en una dirección normal (según y) y otra horizontal (según x).

La componente normal se denomina Fuerza de Sustentación y se la indica como dijimos más arriba con L y la horizontal se denomina Fuerza de Arrastre y se la indica con D, L y D se relacionan con los parámetros del perfil y de la pala a través de:

1 221 22

L

D

L C V A

D C V A

ρ

ρ

=

=

[8.1.1]

En estas fórmulas ρ es la densidad del aire (1.29 Kg / m3) a nivel del mar y aproximadamente hasta unos 300 m, ; V es la velocidad relativa de acometida del aire o velocidad incidente, en [m / seg]; A es el área proyectada de la pala o ala en [m2] y que es igual al producto cuerda por ancho:

A c b= ×

Finalmente CL y CD son dos coeficientes sin dimensiones, que se denominan Coeficientes de Sustentación y Arrastre respectivamente, ellos dependen de cada forma particular del perfil y del ángulo de ataque, su valor se obtiene de graficas o tablas que se encuentran en los denominados libros de Reports de perfiles: son gráficas del siguiente tipo (Fig.8.1_2):

Fig.8.1_2

Como se observa a medida que el ángulo de ataque aumenta, los coeficientes aumentan; a un cierto valor, CL muestra una caída brusca mientras que CD sigue aumentando, en este ángulo que se denomina ángulo crítico se alcanza la sustentación máxima, a partir de ese ángulo la sustentación cae abruptamente se denomina “ángulo de pérdida”. Por tanto, los perfiles se trabajan en ángulos típicos menores de entre 5 y 12º, donde se obtienen los mejores resultados.

8.2.- Descripción y funcionamiento de la Máquinas Eólicas.

Un esquema de las palas de una máquina eólica típica se muestra en la Fig.8.2_1,se observa que las palas de la hélice de una eólica son entonces palas perfiladas que se montan sobre un eje a través de un Núcleo de Rotación. pero en forma opuesta a las hélices de tracción típicas de un avión.

Page 152: Manual de Energías Renovables

  3

Fig.8.2_1

El viento de acometida de derecha a izquierda con velocidad V, incide sobre las partes inclinadas del los planos de las palas, iniciando la rotación, cuando se ha adquirido la velocidad de rotación de régimen ω, se produce un vector velocidad compuesto que tiene sobre cada perfil un ángulo de ataque particular α; como la velocidad tangencial varia con el radio, es necesario que la pala adopte una torsión o ángulo de torsión entre la raíz y la punta para ir adaptando los vectores componentes que son:

la velocidad relativa del viento V

la velocidad tangencial de rotación en cada sección ubicada a un radio r desde el eje de rotación, (-u )

esto se observa en la Fig.8.2_2, para una sección genérica ubicada a una distancia r desde el eje de rotación.

 

Fig.8.2_2 

observe que cuando el perfil rota hacia la derecha la velocidad tangencial relativa se dibuja hacia la izquierda, ya que es lo que vería un perfil quieto, o con el sistema de coordenadas relativo al perfil.

Page 153: Manual de Energías Renovables

  4

en las figuras anteriores las fuerzas están referidas a perfiles de un ancho muy pequeño o diferencial para el cual la sección se considera uniforme, y ubicada a un radio r desde el centro de rotación, por eso las fuerzas se toman como diferenciales, dR, dL, dD, cuando se hace la suma extendida o integral sobre todas las secciones se calculan las fuerzas netas totales, R, L y D.

Por otra parte en la figura siguiente, Fig.8.2_3, vemos diagramas acerca de como varían la presión y la velocidad cuando la corriente pasa a través del plano de rotación de la eólica.

 

Fig.8.2_3 

Los aspectos salientes son que la presión se incrementa levemente respecto a la presión atmosférica al alcanzar el plano de rotación (que funciona como un obstáculo para la corriente), y luego decrece corriente abajo nuevamente hasta la presión atmosférica.

La velocidad disminuye desde la velocidad de acometida corriente arriba, lejos de la eólica V1, V2 y V3 antes y después de pasar por el disco, se consideran iguales, V2 = V3 = V descendiendo luego al valor V2 corriente abajo, lejos de la eólica. -Rx representa la fuerza reactiva que el mástil debe efectuar para compensar la diferencia de presiones que se operan sobre el disco.

Como el ángulo de torsión de la pala φ (ver Fig.8.2_2) es variable con el radio a la que se toma la sección del perfil, se conviene para el diseño, tomar la sección que está a r = 0.7R o sea al 70% del radio total de la pala, como posición para el diseño óptimo, ajustándose luego el ángulo de torsión y la cuerda de cada perfil para adaptar el diseño de toda la pala.

8.3.- Fórmulas de Aplicación.

Partiendo de la Fig.8.2_3, puede verse que el tubo de corriente se ensancha en la región posterior al disco de la hélice porque la velocidad disminuye corriente abajo.

se puede considerar al tubo de corriente como un sistema abierto entre las secciones 1 y 2, aunque no haya una frontera física sólida, y aplicar para el cálculo de la potencia extraíble del molino, las fórmulas ya obtenidas para sistemas abiertos a régimen permanente:

conservación de masa o continuidad:

1 1 2 2 1 1 2 2V A V A V A V Aρ ρ= → =

Page 154: Manual de Energías Renovables

  5

conservación de la cantidad de movimiento lineal:

[ ]2 1R M V Vx− = −i

conservación de la energía:

2 22 1 2 1 [ ] [ ]2 1 2 12p p V Vq g z z ei eieω ρ

− −− = + + − + −

8.4.- Desarrollo de las ecuaciones específicas para turbina eólica.

Esta sección esta destinada a los alumnos que posean un mejor conocimiento de matemática y física o que tengan la inquietud para saber de donde provienen las ecuaciones finales de aplicación, pero si no es el caso, se pueden utilizar como datos las ecuaciones finales que están recuadradas y pasar directamente al punto 8.5. (Estos tópicos están tomados del Manual de Mecánica de Fluidos del Ing. Jorge Rosasco – Facultad de Ingeniería UCA).

Teoría elemental de las turbinas eólicas La hélice convertidora de energía eólica se debe considerar como una turbina de tipo axial. En principio como vimos, las bombas centrífugas pueden ser convertidas en turbinas centrífugas con pocos cambios, pero básicamente permutando la salida por la entrada, de esta forma el flujo acomete la máquina y se obtiene un trabajo mecánico de eje a la salida. Las turbinas centrífugas que funcionan bajo este principio, se denominan o clasifican a veces como Turbinas Francis, y trabajan en parte por impulso y en parte por reacción acelerando la corriente a la salida de los pasajes entre los álabes, para distinguirlas de las turbinas que trabajan por impulso puro clasificadas como Turbinas Pelton. De una manera simétrica las bombas de flujo axial expuestas (hélices), pueden transformarse en una turbina abierta axial con pocos cambios, acometiendo con la corriente fluida en la entrada con la hélice fija a un marco de referencia y extrayendo trabajo mecánico de rotación en el eje de la misma. La hélice diseñada óptimamente para este fin se denomina normalmente Eólica, Molino de viento o Molinete, Fig.16.10_1 y so típicamente son de eje horizontal (HAWT´s) Horizontal Axis Wind Turbines.

Fig.16.10_1 En este caso la energía cinética de la corriente (generalmente se habla de la energía del viento o del poder del viento) se incorpora a las cercanías de la máquina a una velocidad V1 y se transforma en parte en trabajo de eje, fluyendo corriente abajo a una velocidad menor V2. esta diferencia del nivel cuantitativo en la energía cinética de la corriente es la que se transforma en trabajo mecánico.

Page 155: Manual de Energías Renovables

  6

Un esquema del flujo y sus parámetros se da en la Fig.16.10_1b, y un rápido análisis comparativo con la Fig.16.9_3, nos indica que hay una simetría espejo con la hélice tractora en los valores de la velocidad, las áreas y las presiones en las diferentes posiciones consideradas.

Fig.16.10_1b

Aquí vemos que la potencia de la máquina ahora es extraída del sistema hacia el medio ambiente y que el sentido de la fuerza necesaria para inmovilizar al volumen de control es hacia la izquierda, también que la corriente pierde energía cinética (velocidad) cuando se mueve corriente abajo, y el volumen del conducto fluido se expande para mantener las condiciones que impone la continuidad. Una caída bastante súbita en la presión se produce a través del disco del conversor eólico convergiendo después corriente abajo, nuevamente a la presión atmosférica Po. Las ecuaciones referidas al conversor, se obtienen en forma similar al caso anterior: continuidad entre 1 y 2

1 1 1 2 2 2 1 1 2 2V A V A V A V Aρ ρ ρ ρ= → = [16.10.1] c. de m. lineal entre 1 y 2:

2 2 [ 2 1]2 2 1 1Rx V A V A M V Vρ ρ•

− = − = − [16.10.2] c. de m. lineal entre 3 y 4:

AppRxxRApAp

]43[04433

−=→=−−

[16.10.3] siendo A=A3=A4, V3=V4 ecuación de la energía entre 1 y 2

]2221[21

2

2122 - 2

2122 VVMeWVVM

eWVVew −=→

−=→

−=−

••

[16.10.4]

Page 156: Manual de Energías Renovables

  7

ecuación de la energía entre 1 y 3, (Bernuolli).

02

212313 =−

+− VVppρ

[16.10.5]

ecuación de la energía entre 4 y 2, (Bernuolli).

02

242242 =−

+− VVppρ

[16.10.6]

sumando y operando con las [16.10.4] y [16.10.5] y considerando que 43 VV ≡ : 1 12 2 2 2[ ] [ ]2 1 1 24334 2 2

p p V V p p V Vρ ρ− = − → − = − [16.10.7]

y comparando [16.10.2] y [16.10.7]

AppRx ]43[ −= → →−=−•

]2221[21]21[ VVAVVM ρ

1 1[ ] [ ][ ] [ ]3 1 2 1 2 1 2 3 1 22 2V A V V A V V V V V V Vρ ρ− = − + → = + [16.10.8]

o sea la velocidad en el disco es el promedio de las velocidades lejanas corriente arriba y corriente abajo. El trabajo por unidad de tiempo o potencia extraída desde el disco del molino será:

2 2[ ] [ ][ ] [ ]1 23 1 2 3 1 2 1 22 2M MW R V M V V V V V V V V Ve x• •

• •= = − = − + = −

y como para el plano del molino es:

1 [ ]1 23 2M V A A V Vρ ρ•= = +

resulta:

1 2 2[ ] [ ]1 2 1 24W A V V V Ve ρ•

= − + [16.10.8b]

Para una dada velocidad de viento corriente arriba V1, podemos encontrar la máxima potencia extraíble del molino, en la ecuación anterior observamos que V1 es un dato y que la potencia queda en función de V2, por tanto diferenciando la expresión anterior respecto de V2 e igualando a cero, obtenemos, desarrollando la anterior, e igualando a cero una cuadrática en V2,que nos permite determinar su valor :

12 23 2 0 2 12 1 2 1 3V V V V V V− − + = → =

y de la [16.10.8], obtenemos la condición de velocidad de acometida óptima en el disco del molino:

132

43 VVVV ===

Estos importantes resultados, nos indican que el óptimo se obtendrá cuando la velocidad lejana corriente abajo sea la tercera parte que la velocidad lejana corriente arriba, reemplazando ahora este resultado en [16.10.8b],

Page 157: Manual de Energías Renovables

  8

8 3(max) 127W A Ve ρ=i

Si esta expresión de potencia máxima extraíble la ponemos en función del diámetro del rotor, y reemplazamos el valor de la densidad para el aire a nivel del mar, el resultado quedará expresando en unidades SI:

8 8 2 2 333 [ 1.23 ] 0.286(max) 1127 27 4W A V D V D Ve

πρ= = =i

[16.10.8c]

Este valor se denomina también máximo teórico de Betz, y llegaremos a él también por otro camino. Trabajando con la expresión [16.10.8b] obtenemos la potencia para cualquier condición:

2 31 1 2 2 23 2 2 3 3[ ] [1 ] 1 1 2 2 1 2 1 2 34 4 1 1 1V V VW A V V V V V V AVeV V V

ρ ρ•

= + − − = + − − →

21 2 23[1 ][1 ]1 24 1 1V VW AVeV V

ρ•

= − + [16.18.8c]

Por otra parte definimos la máxima potencia disponible que acarrea la corriente que se dirige al impacto con el disco del molino, como si este fuese un disco sólido y esto es la energía cinética teórica máxima que posee el tubo de corriente por unidad de tiempo que embiste el molino.

1 12 31 12 2W MV AVw ρ• •

= = [16.18.8d]

y definimos el coeficiente de potencia o rendimiento de potencia como el adimensional:

/Cp We Ww=i i

, reemplazando con el valor de las dos últimas:

21 2 2[1 ] [1 ]22 11

W V VeCp VVWw

•= = − + [16.10.9]

por la nomenclatura no se debe confundir el coeficiente e potencia del molino con el coeficiente de presión. Teoría de optimización de Albert Betz .(por otro método). Albert Betz en conjunto con Ludwig Prandtl y Hermann Glauert son considerados los padres de la aerodinámica moderna, en los años previos a la primera guerra mundial entre 1908 y 1912, los dos primeros trabajaron en el laboratorio de la Universidad Karl Wilhem de Gottingen, obteniendo los resultados prácticos que permitieron explicar los mecanismos que relacionan la viscosidad, la capa límite, y la separación, con la circulación ligada sobre el perfil aerodinámico, sin contradecir el teorema Kelvin – Helmholtz. Vinculando esto con los desarrollos teóricos de Martin Kutta y Nikolai Joukowsky la teoría permitió explicar la aparición de la resistencia de arrastre, y el comportamiento previsible del ala de envergadura finita y de hélices.

Page 158: Manual de Energías Renovables

  9

Ahora podemos obtener los resultados de la optimización por otra vía más fácilmente, a través de la representación gráfica o la búsqueda de máximos y mínimos a partir de la expresión [16.10.9], en la que se grafica Cp como función de la relación [V2/V1] y se observa el máximo Cp.. En la Fig. 16.10_2 se da un esquema de esta representación , observando que para V2/V1=0 → Cp=0.5, y que para V2/V1=1 → Cp=0. Si llamamos con la letra griega ν a V2/V1, resulta que:

,33.00 =→= ννd

dCp [16.10.10]

con lo cual

16 / 27 0.593 0.6(max)Cp = = ≈

aplicando la ecuación [16.10.8c], si trabajamos con unidades para el sistema SI es,

recordando que /Cp We Ww=i i

:

16 1 83 3 3 2 30.296 0.286(max) 1 1 1 127 2 27W AV AV AV D Ve ρ ρ ρ•

= = = = [16.10.11]

donde hemos llamado D al diámetro del disco que subtiende el área A. barrida por el molino y hemos tomado ρ = 1.23Kg/m3.

Fig.16.10_2

El valor indicado anterior, es la máxima potencia teórica que a través del molino puede extraerse de la corriente, la forma óptima de acercarse al valor teórico, es tratando de optimizar el diseño de la planta de conversión de energía eólica o molino. Dos conclusiones interesantes para el análisis a partir del resultado de la [16.10.10] es que al reemplazar en la [16.10.8], se obtienen los valores de las velocidades de las corrientes de transición en el disco a partir de la velocidad lejana:

1 2 0.663 12V VV V+

= = [16.10.12]

0.332 1V V=

Page 159: Manual de Energías Renovables

  10

Son las velocidades que permiten definir geométricamente el conducto de la Fig.16.10_1b. a partir de conocer la velocidad de la corriente de acometida lejana y hacer el cálculo teórico de la potencia extraíble de la corriente aplicando la ecuación integral de la energía. La potencia extraída, permite vincularla a la fuerza reactiva en el mástil y al torque disponible.

/W R V T T R Ve x xω ω= = → =i

[]

8.5.- Aspectos Tecnológicos de la Turbinas Eólicas.

El mejor diseño de una instalación eólica es aquel que resulta de obtener el mínimo costo de energía para un sitio determinado. Hay muchas decisiones previas que se deben tomar para definir el diseño de una instalación eólica moderna. El optimo diseño para una ubicación no es necesariamente el optimo para otra, debido fundamentalmente a que la distribución de velocidades de vientos varían para diferentes ubicaciones, asimismo, la turbina con la mayor eficiencia no es necesariamente la optima, ya que es posible para una turbina un poco menos eficiente tener un menor costo para la energía obtenida. El recurso Aire. La Fig.8.5_1, muestra una distribución de velocidad típica para una locación, la que después de tomar muestras de velocidad del aire en un período, (típicamente un año), las mismas se clasifican por frecuencia de ocurrencia y se grafica; se obtiene una curva continua denominada distribución Weibull. La distribución obviamente varía de un lugar a otro, y se calcula y presenta el valor de velocidad estacional promedio, en este caso V(media) = 7.36 m/seg Se define un período que puede ser diario, estacional o anual y en ordenadas se vuelcan el porcentaje del intervalo para una velocidad específica, de este modo se evita tener diagramas extendidos en el tiempo y muy aserrados. El diseño óptimo de la turbina para esa locación corresponderá a un diseño que se ajuste a la distribución de velocidades obtenida.

Fig. 8.5_1

Page 160: Manual de Energías Renovables

  11

La Fig.8.5_2, muestra una gráfica denominada “densidad de potencia extraída del viento” , en la cual en el eje horizontal , se grafica la velocidad del viento, y en el eje vertical , la razón de la potencia generada por la turbina eólica dividida por el área barrida por el rotor.

Fig.8.5_2

Tecnología

La tecnología de la energía eólica está teniendo un vertiginoso desarrollo. En la actualidad más de cuarenta mil turbinas de medio tamaño están en funcionando en el mundo, fundamentalmente en Europa, Estados Unidos y la India.

Estas máquinas pueden producir anualmente alrededor de 20.000 millones de kW/h de electricidad a partir de la energía cinética del viento. Una de las primeras máquinas eólicas construida expresamente para producir electricidad (aerogenerador) data del año 1892 y su diseño fue llevado a cabo por el profesor Lacour en Dinamarca.

A partir de la segunda mitad del siglo XX las máquinas eólicas no han presentado evoluciones considerables en su diseño; todas ellas están integradas por un conjunto de subsistemas cuyo objetivo es captar la energía cinética del viento y transformarla en energía eléctrica (fundamentalmente) de la forma más óptima posible.

La fórmula de la máxima potencia extraíble del viento que vimos anteriormente (ecuación de Betz) que repetimos aquí:

16 1 83 3 3 2 30.296 0.286(max) 1 1 1 127 2 27W AV AV AV D Ve ρ ρ ρ•

= = = =

nos indica que la potencia máxima extraíble es un 28.6 % del producto diametro al cuadrado, velocidad del viento lejana al cubo, este valor representa un óptimo teórico no alcanzable.

En la realidad tecnológica este valor va disminuyendo a medida que diversos elementos internos de la máquina la van convirtiendo en su forma más útil que es la energía eléctrica, los valores que se alcanzan actualmente como óptimos son del orden:

2 30.15(max) 1W D Ve•

=

Page 161: Manual de Energías Renovables

  12

como también teníamos que:

16 / 27 0.593 0.6(max)Cp = = ≈

y que:

/

(max) 0.593

Cp We Ww

We Cp Ww We Ww

= →

= → =

i i

i i i i

es decir que la potencia máxima teórica extraíble de la eólica se puede expresar también como el 59% de la potencia que tiene la corriente libre.

Un esquema de las pérdidas parciales que ocurren se da en la Fig.8.5_3 siguiente cuyo título en inglés es: “ Como se suman las pérdidas”.

Fig.8.5_3

Describiéndolo vemos que del 100% de la energía cinética disponible en el viento de acometida, solamente y en forma teórica un 59% se puede aprovechar, pero de este remanente se pierde un 10% por resistencia en el disco de la eólica con las palas, el mástil, y la caja reductora, quedando un 53%, a su vez de este remanente se pierde un 20% adicional en pérdidas en la máquina eléctrica que se transforma en calor quedando finalmente un 42% útil en forma de energía eléctrica.

Sub-Conjuntos que componen la turbina Eólica.

De forma general pueden señalarse los siguientes subsistemas componentes:

• Subsistema de captación (palas, rotor y núcleo de control del ángulo de palas).

• Subsistema de transmisión mecánica

• Subsistema de generación eléctrica

• Subsistema de orientación

• Subsistema de regulación

Page 162: Manual de Energías Renovables

  13

• Subsistema soporte

Describiremos brevemente cada uno de ellos.

El subsistema de captación es el encargado de transformar la energía cinética del viento en energía mecánica de rotación. Está integrado por el rotor, el cual se compone de las palas y del buje, que es un eje en la raiz de la pala que entra en el núcleo de rotación; también del núcleo de rotación donde un conjunto de engranajes mueve el ángulo de las tres palas en forma conjunta para obtener el mejor aprovechamiento aerodinámico en función de cada velocidad del viento.

La Fig.8.5_4 muestra las partes en general mas importantes de la turbina eólica, típicamente los rotores tienen tres palas, esto obedece a que en las turbinas de dos palas cuando una de ellas enfrenta al mástil o torre se produce una pequeña variación del flujo de salida con respecto a la pala o aspa que queda libre y esto produce una pequeña vibración en el plano del rotor, esta vibración es menor cuando hay tres palas o aspas y dos de ellas permanecen libres a la corriente en todo momento.

La Nacela o Góndola es el cuerpo carenado trasero donde se ubica el eje de torque, el reductor, el conjunto de freno y orientación del plano del rotor y la máquina eléctrica, todos ellos están vinculados con el rotor y todo el conjunto puede girar libremente sobre el mástil o torre para mantener el plano de rotación siempre aproado al la dirección del viento.

Fig.8.5_4

Esto se realiza mediante una cola o veleta en la eólicas chicas, y a través de sensores y mecanismos de control en los equipos grandes.

Page 163: Manual de Energías Renovables

  14

Fig.8.5_5

En la Fig.8.5_5 se observa una vista explotada de la parte interior de la nacela también se observa en la parte superior trasera un anemómetro de cucharas y una pequeña veleta (triangulo verde) que permanentemente van sensando la velocidad y dirección del viento.

Esto actúa sobre un controlador electrónico que a su vez mueve con un servomotor toda la nacela, aproándola al viento. En las granjas eólicas, cuando muchas turbinas trabajan conjuntamente, el sensado se hace por separado en una cabina de control a distancia en forma más efectiva y enviando esta información a todas las eólicas conjuntamente para el control.

En la figura se observa también un disco de frenado, ( en color naranja); sucede que en algunos casos por ejemplo cuando el viento excede los máximos de diseño o para propósitos de mantenimiento, es necesario detener el giro, entonces el ángulo de las palas se coloca en una posición denominada de “embanderamiento” donde la cuerda de 0.7 del radio se coloca en el ángulo de sustentación nula,( que generalmente implica ángulos de ataque α negativos del orden de -2º), el resto de las cuerdas ofrece entonces una pequeña sustentación debido a que el ángulo de torsión de la pala no puede satisfacer la condición de sustentación cero para todas las posiciones, esto produce una muy bajo torque de rotación que es detenido por el freno mecánico auxiliar.

La energía del viento es transferida desde el Rotor a través de cada etapa principal, a la Caja reductora, y al Generador, y fuera de la eólica en una casamata en la base a Transformadores y un Controlador Electrónico, hasta finalmente alcanzar la Red de Suministro.

Page 164: Manual de Energías Renovables

  15

En función de la posición del eje de giro del rotor las máquinas eólicas se clasifican en máquinas de eje horizontal y de eje vertical. (se refiere al eje de la hélice). Estas últimas, debido a su bajo rendimiento, prácticamente han desaparecido del mercado actual.

Dependiendo del número de palas de los rotores estos se clasifican en rotores multipala (o rotores lentos), con un número de palas comprendido entre 6 y 24, por ejemplo los molinos que extraen agua en el campo, y en rotores tipo hélice (o rotores rápidos), que pueden ser tripala (el más utilizado), bipala o monopala.

Los rotores monopala están compensados por un contrapeso de equilibrio para la rotación

Los rotores multipala giran a baja velocidad y se han destinado tradicionalmente al bombeo de agua. Los rotores tipo hélice giran a mayores velocidades y presentan mejores rendimientos aerodinámicos que los rotores multipala, por lo que se suelen destinar a la generación de electricidad.

Fig.8.5_6

La potencia mecánica que una turbina eólica es capaz de extraer de la energía cinética del viento como vimos, depende del cuadrado del diámetro del circulo barrido por las palas y del cubo de la velocidad lejana del viento (ecuación 16.10.11).

El rendimiento aerodinámico del rotor se mejora con disminución de pérdidas por resistencia o (Drag) y esto depende de la forma aerodinámica de las palas, su correcta torsión y variación del ancho del perfil.

En la Fig.8.5_6, se han representado las potencias eléctricas extraídas en [Kw], en relación a distintos diámetros del rotor.

Aunque históricamente se han utilizado una gran variedad de materiales para la fabricación de las palas (telas, maderas, chapas metálicas, aluminio), los materiales más utilizados actualmente son las resinas de poliéster reforzadas con fibras de vidrio y carbono, los cuales proporcionan ligereza, resistencia mecánica y una cierta resistencia a la agresión del medio ambiente.

El núcleo de la hélice es el elemento soporte de las palas y está montado en un extremo del árbol principal de transmisión. Su función es la de darle rigidez al movimiento de la unión de las palas al buje en la dirección perpendicular al plano del rotor, y alojar una caja de trasmisión para el control de torsión.

Page 165: Manual de Energías Renovables

  16

El control de torsión toma como referencia la cuerda de (0.7 R) y genera el ángulo de ataque óptimo para esa posición en función de la velocidad instantánea del viento lejano. El resto de la pala se mueve siguiendo al ángulo de ataque de la sección maestra manteniendo una torsión fija entre la punta de la pala y la raíz.

El ángulo de ataque es menor hacia la punta donde la velocidad tangencial es mayor y es mayor hacia la raíz donde la velocidad tangencial es menor.

Algunas eólicas pequeñas tiene ángulo de paso fijo, se denominan eólicas rígidas, en este caso se trabaja con la distribución Wiibull y se arman las palas para un ángulo de ataque referido a un viento estadísticamente más probable; las eólicas más grandes se denominan a veces basculantes y pueden controlar el ángulo de paso.

En el primer grupo las palas se atornillan al buje y este se une rígidamente al árbol principal de transmisión. En el segundo grupo el buje admite el control de paso a través de una caja reductora.

La razón de velocidades.

para el diseño se define una razón llamada razón de punta de pala, se define como.

[V(punta) / V1]

donde V1 era la velocidad de acometida del viento lejano, la razón de velocidad es un número que muy concisamente describe al rotor de la eólica. Es cuantas veces por encima de la velocidad del viento, la punta pala esta diseñada para girar, o sea V punta / V1.

Depende de las RPM y del diámetro del rotor, por ejemplo si una pala de dos metros de diámetro de rotor gira a 500 RPM su velocidad tangencial de punta alcanza los 52 m/seg, en general esto puede ser un límite razonable y nunca e debe superar los 80 m/seg.

Un rotor no debe tener solamente una buena velocidad de rotación por ejemplo 600 RPM, la RPM optima dependerá de la velocidad del viento, el diámetro y la razón de velocidad en punta.

El rotor de la eólica podrá ser optimo para una razón de punta particular, pero inevitablemente debe trabajar sobre un rango de velocidades, El coeficiente de performance o potencia Cp podrá variar dependiendo de la velocidad de punta para un particular diseño de rotor. El será el mejor para la velocidad de punta de diseño y aceptable sobre el resto de las velocidades.

La figura siguiente Fig.8.5_6 muestra el coeficiente Cp de un rotor típico diseñado para operar a razón de punta = 7. Un pequeño corrimiento en RPM o velocidad de viento no harán mucha diferencia. Si las revoluciones son muy bajas comparada con el viento entonces las palas entran en perdida y la performance caerá.

Si no hay carga en el rotor por ejemplo porque ha ocurrido una falla del generador, el rotor se embalará hasta alcanzar cierto punto, y será muy ineficiente ya que no genera potencia, además las puntas generaran mucho ruido.

Page 166: Manual de Energías Renovables

  17

Fig.8.5_6

El título de la Fig.8.5_6 es “Coeficiente de potencia en función del la razón de velocidades de punta” , en abscisas se representa la razón de velocidades de punta que se definen como [Vpunta / V1], siendo la Vpunta la velocidad tangencial de rotación en la punta de la pala = ω r(max), y V1 la velocidad del viento lejano.

En ordenadas se indica el coeficiente de presión, en la figura se observa que las eólicas se diseñan para el punto de la velocidad promedio en una locación a través del diagrama de Weibull, y con esto hay un punto óptimo de diseño para el cual Cp es máximo, para vientos que se apartan hacia arriba o hacia abajo respecto del óptimo el coeficiente Cp caerá hacia un lado u otro de la curva y la potencia extraída de la eólica también caerá.

Maquinas Eléctricas.

En la mayoría de las aplicaciones de baja y media potencia (hasta 5 Kw) se requiere un generador de baja velocidad y alta eficiencia especialmente para vientos ligeros. En estos casos los generadores de imán permanente son los mas útiles, y son por lejos la mejor opción en los diseños de eólicas pequeñas.

Los generadores eléctricos utilizados para eólicas se clasifican en:

1.- de Corriente Continua (CC) o Corriente Directa (CD), que básicamente son dínamos con colector partido, cuando la máquina tiene por ejemplo 6 pares de polos se logra una rectificación mecánica de la tensión de salida bastante aceptable.

2.- de Corriente Alterna o Alternadores (CA) que a su vez se clasifican en:

2.1.- Generadores Asincrónicos de Inducción, que básicamente son dínamos con un sistema de colector con escobillas separadas. La frecuencia de la tensión entregada es variable, por lo cual se utilizan para una vez rectificada la tensión cargar packs de baterías, las baterías después se usan para alimentar algunos dispositivos de la red domiciliaria en CC o bien ser transformada en CA a través de un convertidor por ejemplo a 110V o 220 V.

2.2.- Generadores Sincrónicos o Alternadores, en este caso, aparte de la corriente inducida en el rotor de la máquina por la rotación de la eólica la red externa aplica una tensión parásita al rotor que crea un campo de sincronía que obliga a la máquina a un frenado electrodinámico de manera de producir una corriente alterna en la misma frecuencia que la red externa a la cual alimenta.

Page 167: Manual de Energías Renovables

  18

La tensión generada alimenta directamente a la red general, por lo cual es el tipo de máquinas que utilizan las grandes turbinas Eólicas o las granjas eólicas de muchas máquinas trabando conjuntamente.

Los generadores estándar comerciales pueden ser una buena opción, por la obvia razón que no deben ser construidos especialmente y su costo es relativamente bajo, pero lo que se debe lograr es una correcta selección y adaptación con la eólica y su sistema reductor.

Ajustar el tamaño del generador al rotor.

En general la combinación de un pequeño generador con un rotor grande puede proveer toda la potencia con vientos bajos dando un entrega de potencia bastante constante, los inconvenientes pueden ser:

1.- necesitar una columna más fuerte.

2.- requerir más control con vientos altos.

3.- funcionar con más bajas RPM.

El compromiso usual es elegir un generador que alcance su máxima salida a una velocidad de viento de unos 10 m/seg, lo que es vital para conseguir una adecuada adaptación del grupo rotor-generador.

8.6.- Aspectos negativos de la Energía Eólica.

Se pueden citar los siguientes.

1.- Producen contaminación visual y entorpecen el paisajismo el montañismo y el turismo ecuestre.

2.- Las granjas eólicas con muchas máquinas funcionando producen un nivel de ruidos considerable, el ruido se debe a los fenómenos de compresibilidad del aire que comienzan a ser notables para velocidades de punta de pala superiores a los 50 m/seg.

3.- Producen y se han detectado debido al nivel de sonoridad el espantado de las aves y otra fauna del lugar de emplazamiento, produciendo cambios en el ecosistema, también se han reportado muertes de pájaros por impacto con las palas.

4.- Las eólicas son muy caras en lo referido a su construcción y mantenimiento en relación a la energía producida, en comparación con otras formas de producción de energía convencionales, o para energías renovables con respecto a la mini-hidráulica.

5.- Si hay población cercana a una granja eólica, esta población sufrirá los mismos inconvenientes ya citados en particular el nivel elevado de sonoridad; y esto incluye el valor inmobiliario de sus propiedades que disminuirá.

[]

Page 168: Manual de Energías Renovables

MÓDULO: 9. ENERGÍAS RENOVABLES. ENERGÍA MAREO-MOTRIZ Y ENERGÍA DEL OLEAJE

A. Energía Mareo-Motriz

9.1.- Las mareas Oceánicas.

La influencia del Sol y la Luna sobre el planeta Tierra se manifiesta como la deformación diaria de la masa terrestre (agua y corteza) durante su movimiento de rotación, cuyo efecto más notable son las mareas oceánicas.

Existe una marea Solar (más débil) y una marea lunar (más fuerte). Consideramos primero la marea Solar; el movimiento de la Tierra se compone de una rotación de período 24 horas, superpuesta a una traslación orbital de período un año.

En su movimiento alrededor del Sol hay un punto A que siempre está más próximo al Sol y un punto B más alejado, estos puntos no son fijos sino que al rotar la Tierra sobre su eje van cambiando, esto puede observarse en la Fig. 9.1_1 siguiente.

Fig.9.1_1

Considerando que la velocidad de traslación orbital que llamamos V, está referida al centro C ella se puede considerar aproximadamente constante, ya que la órbita es aproximadamente circular, sin embargo el punto A presentará una velocidad tangencial inferior a C, y el punto B una velocidad tangencial superior a C.

El punto A tendrá entonces una velocidad menor que la necesaria para conservar la órbita estable y tenderá a “caer” en dirección del Sol; recíprocamente el punto B tendrá una velocidad mayor de la necesaria y tenderá a ”salirse” hacia una órbita más alejada.

Estos efectos se ven contrarestados por la fuerza gravitatoria propia del planeta Tierra, que tiende a empujar todos los puntos hacia el centro C, si no existiera esta atracción, la Tierra se desintegraría; sin embargo siempre está presente el “tironeo” entre la fuerza inerciales y la fuerza gravitatoria en cada punto, dando lugar a una deformación elíptica (muy exagerada en el dibujo).

El efecto es cambiante de un punto de la Tierra a otro debido al cambio de lugar geográfico de los puntos A y B durante la rotación, haciéndose la deformación más notable cuando esos puntos pasan por las masas oceánicas del planeta, ya que las partículas de agua presentan una menor cohesividad que las de corteza sólida, y el fenómeno se pone de manifiesto para el punto A y B y en forma decreciente en sus zonas aledañas, exageradamente transforman la esfera terrestre en un elipsoide.

Page 169: Manual de Energías Renovables

  2

El mismo efecto pero más intenso ocurre con la Luna y la marea lunar. Si bien la Luna tiene una masa más pequeña que la Tierra, y muchos más pequeña que el Sol, (la masa de la Luna es 1/80 de la masa terrestre) está mucho más cerca que el Sol respecto de la Tierra, y los períodos orbitales son mas cortos, las distancias respectivas son:

distancia Tierra-Luna = 384.000 Km (aprox.)

distancia Tierra-Sol = 150.000.000 Km (aprox.)

En la Fig.9.1_1 hablamos de la traslación orbital de la Tierra respecto al Sol, esta trayectoria cuasi circular se establece en realidad no respecto del centro del Sol, sino en un punto ubicado en el baricentro (centro de masa) del sistema Tierra-Sol, como el Sol es tan grande respecto de la Tierra este punto está próximo al centro del Sol.

Pero para el caso del sistema Tierra-Luna, el baricentro está más próximo a la Tierra, 1 / 80 avas parte de la distancia entre la Tierra y la Luna, es decir:

384.000 / 80 = 4.800 Km

como el radio de la Tierra es 6.378 Km, el centro de masa del sistema Tierra-Luna se encontrará a 4.800 / 6400 = 0.75 desde el centro de la Tierra en dirección a la Luna, es decir un 75% del radio terrestre, pese a la diferencia geométrica el razonamiento anterior que hicimos para la marea solar es análogo, las aguas de los océanos formarán también dos protuberancias, una dirigida hacia la luna y la otra en sentido opuesto.

Cuando el Sol la Tierra y la Luna se sitúan sobre una misma recta, es decir en los períodos de Luna llena y Luna nueva, las acciones de las mareas solar y lunar se suman, y las mareas son especialmente altas. En creciente y menguante el efecto es opuesto y las mareas son mínimas.

Estos fenómenos son tales que cada 12 hs. con 25 min aproximadamente, cada punto de la traza enfocada por la trayectoria lunar, y la rotación terrestre, deforma la superficie de corteza unos 0.3m y la superficie acuática unos 1.2 a 1.5m .

La marea lunar es mas intensa que la solar debida a la proximidad y causa pleamares más altas, no obstante el Sol causa mareas de una intensidad aproximadamente de 1/3 de la lunar, y puede acoplarse positiva o negativamente como dijimos a la marea lunar de acuerdo a las posiciones relativas del Sol la Tierra y la Luna.

Si bien no lo demostraremos aquí, se puede deducir una fórmula que permite calcular la máxima altura (puntos A y B) debidos a la marea lunar, viene dada por:

4max 3

mrhM d

= [9.1.1]

en la fórmula m es la masa lunar, M es la masa terrestre y su relación es: m / M = 0.0123, d es la distancia a la Luna d = 384.000Km y r el radio terrestre r = 6378 Km

Otro aspecto es que esta energía de deformación fluctuante, que actúa en forma permanente, produce también rozamiento del agua respecto a la corteza, y esto disminuye la velocidad de rotación terrestre muy lentamente, a un ritmo tal que los días se alargan unos [7/1000 seg] por siglo.

Estos valores promedios de altura de marea oceánica se ven incrementados en algunos casos por las características particulares del lecho oceánico, cuando hay embocaduras, por ejemplo en Golfo Nuevo, (Argentina) puede alcanzar 3.7m sobre un área de 2370 Km2, lo que representa una capacidad energética hidráulica potencial de 6.6 Gwatts.

Page 170: Manual de Energías Renovables

  3

9.2.- Aprovechamiento de la Energía Mareomotriz.

La explotación más simple de la energía mareo-motriz es mediante la utilización de turbinas, hidráulicas o mini hidráulicas o molinos acuáticos, creando en algunos casos primero una barrera a través de la boca de un río o estuario. El agua de mar es atrapada en la cuenca durante la pleamar o marea alta, y descargada durante la bajamar a través de una turbina o molino que genere trabajo de eje (en la parte baja de la pared).

Fig.9.2_1

palabras claves de la figura: high tide (marea alta) low tide (marea baja) tidal barrage (barrera de marea)

open sea (mar abierto) tidal basin (embalse de la marea) Estos dispositivos pueden funcionar durante una fracción grande del día. para el aprovechamiento se puede usar una turbina con palas muy eficientes para una dirección del flujo, por ejemplo de pleamar hacia bajamar o bien usar una turbina especial que puede funcionar en ambas direcciones es decir cuando la marea esta saliendo y también cuando esta entrando, aunque son menos eficientes. La primer instalación de este tipo fue construida en 1966 en La Rance (Francia) y generaba 240 MWatt. La extracción de energía útil se realiza también realizando un canal artificial que de curso a la diferencia de alturas que produce el nivel de las aguas oceánicas. La corriente fluida se aprovecha durante el ciclo de la entrada y a la salida de las aguas para mover turbinas del tipo eólico pero sub acuáticas.

Para realizar este aprovechamiento bi-direccional, se puede utilizar una turbina tipo Wells, Fig 9.2_2, que tiene la particularidad de rotar en el mismo sentido independientemente del sentido de la corriente y que no requiere ser orbitada por cada ciclo de marea, es evidente que los pasajes permiten crear una fuerza de rotación en el sentido de las agujas del reloj, ya sea que el agua acometa desde el frente o desde atrás.

Fig.9.2_2

Page 171: Manual de Energías Renovables

  4

También se puede usar el concepto de una o varias turbinas convencionales Fig.9.2_3 de mejor rendimiento pero que deben ser reorientadas previo a la entrada y salida de la marea rotándola 180º. se denominan por las siglas TSG (Tidal Stream Generators).

Fig.9.2_2

La energía Mareomotriz también pueden ser aprovechadas por las denominadas Presas de Marea, que son embalses que se crean para que la marea alta o pleamar las llene, luego las compuertas de llenado se cierran y al producirse el ciclo de bajamar, el agua represada se utiliza para mover una turbina convencional parecida a la turbina Francis pero diseñadas para un salto no muy grande, se denominan Turbinas Kaplan, como el salto de agua no muy grande (típicamente unos 5 a 6 m) no se produce gran cantidad de energía, siendo que tampoco trabajan en forma permanente (Fig.9.2_3).

Fig.9.2_3

Page 172: Manual de Energías Renovables

  5

Una turbina Kaplan para un salto pequeño se muestra en la Fig.9.2_3b siguiente, la turbina Kaplan tiene un desarrollo vertical donde el agua pasa a través de una hélice de una sola etapa descargando el flujo en el espejo inferior.

Fig.9.2_3b

9.3.- Potencia producida por una barrera de marea. Una estimación aproximada promedio de la potencia extraíble de una barrera de marea puede ser obtenida por un simple balance de energía, considerando el cambio promedio de energía potencial durante el proceso de drenaje. Si consideramos un embalse de marea de área A [m2] como el de la Fig.9.2_1, la masa total de agua del embalse por encima del nivel bajo es: M Ahρ= donde h es el desnivel de marea, la altura del centro de masa es; ½ h , entonces el trabajo efectuado para elevar esta masa de agua fue:

1 1 2[ ]2 2

M g h gAhρ= [New m]

entonces la energía que brindara este desnivel al descender es igual y opuesto, que es también su capacidad de realizar trabajo mecánico. La potencia que puede entregar se puede calcular fácilmente dividiendo esta energía disponible por el tiempo de evacuación del agua al nivel más bajo, si llamamos T [seg] al intervalo entre mareas o período entre mareas, la potencia de eje disponible es:

1 22

W gAhe Tρ=

i [watts] 9.2.1]

la potencia varia de acuerdo a la diferencia que se obtenga del desnivel de agua a través de la barrera, lo que define la masa de agua atrapada, como vimos esto depende de las fases lunares y de la ubicación geográfica de la barrera.

Page 173: Manual de Energías Renovables

  6

Ejemplo 1. Estimar el promedio de potencia que se puede obtener de un embalse de marea que tenga un desnivel de 7 m promedio extendido sobre un área de 520 Km2, considerando un período de marea de 12.5 hs. Rspuesta: pasamos a segundo el periodo de marea:

412.5[ ] 60[ / min] 60[min/ ] 4.5 10 [ ]T h h seg seg= × × = × la potencia obtenible promedio la obtenemos de la aplicación de la ecuación [9.2.1]:

1 12 6(1000 )(9.81 )(520 10 2)(49 2) 2.8[ ]42 2 4.5 10 3 2Kg mW gAh m m Gwattse

T m segρ= = × ≅

× ×

i

Es una gran potencia pero nos obliga a hacer una barrera muy grande, lo que causaría otros problema ambientales, aparte del afeamiento de un golfo, si optamos por colocar equipos como el mostrado en la Fig.9.2._2, se puede eliminar la barrera pero la potencia obtenida sería mucho menor porque el agua entre dos equipos contiguos podría escapar sin generar potencia. [] B. Energía del Oleaje

9.4.- Aprovechamiento de la Energía del Oleaje.

Todo tipo de oscilación en la superficie de agua que sea periódica se le denomina ola. Las olas de los océanos son originadas por diversas causas. Entre estas causas se pueden señalar el viento, las fuerzas de atracción gravitacional que ejercen la Luna y el Sol sobre las masas oceánicas, los maremotos, las tormentas, etc. Sin embargo, de todas ellas, el viento constituye el agente que genera las olas más comunes y de mayor densidad energética. Por ello, se suele decir que la energía que poseen las olas del mar son un derivado terciario de la energía solar, ya que el viento se origina como consecuencia del desigual calentamiento que el Sol produce en la superficie terrestre, y el viento, al actuar sobre el agua del mar le transmite energía y la pone en movimiento, produciendo ondulaciones en las capas superficiales que constituyen el oleaje que se observa en todas las aguas del los océanos y que golpean las costas de los continentes.

Fig.9.4_1

Page 174: Manual de Energías Renovables

  7

En este sentido, se podría concluir que la energía de las olas oceánicas constituye una forma de transformación en la superficie de los océanos, y con una densidad relativamente alta, de la energía solar. Los mecanismos que intervienen en la interacción entre el viento y la superficie del mar son complejos y aún no se explican en su totalidad. En principio, el proceso puede resumirse de la siguiente forma: Cuando el viento sopla sobre la superficie del mar interactúa con las moléculas de agua que están en contacto en la capa superficial. Se establece una pequeña diferencia de presión, ya que la corriente en movimiento hace descender un poco la presión en la superficie con respecto a la capa inmediatamente inferior. La fuerza que se genera entre el aire y el agua modifica la superficie del océano, dando lugar a unas pequeñas crestas, conocidos como ondas de capilaridad. Cuando estas ondas primarias colapsan los elementos de fluido vecinos son desplazados y obligados a elevarse sobre el nivel de equilibrio.Fig.9.4_2 Las olas de capilaridad dan lugar a una mayor superficie de contacto, la cual incrementa la fricción entre agua y viento. Ello da lugar al crecimiento de la ola que, cuando ha alcanzado un cierto tamaño, facilita que el viento pueda ejercer una mayor presión sobre ella con el consiguiente incremento de la misma.

Fig.9.4_2

Las olas se caracterizan por su longitud de onda, L, altura de onda, H, y el periodo, T . La longitud de onda λ, que es la distancia entre dos picos consecutivos o dos valles consecutivos; la altura de onda o Amplitud es la diferencia en altura entre un pico y un valle; y el periodo T es el tiempo en segundos que tarda un valle o un pico de la ola en recorrer su longitud de onda. ver Fig.9.4_3

Fig.9.4_3

características de una onda senoidal pura

Page 175: Manual de Energías Renovables

  8

La frecuencia f de la ola se define como el número de oscilaciones pico a pico (o valle a valle) de la superficie de la ola por segundo, visto por un observador fijo, y es el inverso del periodo, es decir, f = 1/T. La ecuación de descripción básica de la oscilación pura es:

sin[2 ]2Hy f tπ=

donde y representa una distancia perpendicular al eje t , y t [seg] un tiempo cualquiera. La velocidad c de propagación de una ola viene dada por el cociente entre la longitud L y el periodo T, es decir, c = L / T. La Amplitud máxima H depende de: a.- la velocidad del viento, b.-el intervalo durante el cual está soplando, c.-su continuidad o distancia sobre la que este soplando, que define un área que se llama “campo de oleaje”, o sea a distancia o alcance sobre la cual la energía del viento se transfiere al océano para formar las olas.(porción a la izquierda en la Fig.9.4_5.) Entonces, cuanto mayor sea la velocidad del viento, mayor será la altura de la ola, mayor el período, y menor la frecuencia. En realidad el océano no se compone de ondas senoidales puras como se han representado en la figura anterior, sino más bien son una superposición de muchas de ellas, cuya superficie puede ser reconstruida como suma de ondas de amplitud variable, llamado superposición espectral. Por tanto, un estado típico del mar se compone de una superposición de ondas, cada onda con características propias, es decir, su propia velocidad, periodo, altura de onda, y dirección. Fig.9.4_4. Es la combinación de estas ondas lo que se observa cuando observamos la superficie del mar. La envolvente de estas olas viaja a una velocidad distinta de la de las ondas individuales, y se la denomina velocidad de grupo, cg .

Fig.9.4_4

Las olas situadas dentro o cerca de las áreas donde fueron generadas se denominan olas tormentosas. Estas forman un mar irregular y complejo. Sin embargo, las olas pueden viajar desde estas áreas con pequeñas pérdidas energéticas para producir grandes olas, a miles de kilómetros del punto donde se originaron. Por tanto, es posible que existan olas en determinadas zonas del mar con ausencia de viento. Una vez que las olas se alejan del área de generación, sus crestas son más lisas y menos caóticas. A este oleaje se le llama marejada de fondo.

Page 176: Manual de Energías Renovables

  9

Estas olas se dispersan sobre la superficie oceánica con muy poca pérdida de energía (interacción entre ondas y fricción con corrientes marinas), aunque pierden altura, fundamentalmente por dispersión angular Fig.9.4_5.

Fig.9.4_5

Para aprovechamientos normales para uso de producción de energía se usan las zonas estables (a la izquierda de la figura de arriba) llamada “campo de oleaje” que son las que permiten una captura de oleaje que se repite mas o menos establemente, esto se produce en un campo de viento y posee el esquema de formación y desarrollo como se indica en la Fig 9.4_5.

El perfil de la superficie de los océanos viene generado por las olas, sin embargo, es necesario entender la naturaleza de la parte sumergida de las olas, si se desean diseñar dispositivos que capturen su energía. Una ola oceánica lejos de la costa aparenta un imponente objeto en movimiento - una cresta de agua que viaja a través de la superficie del mar. Pero para entender la energía del oleaje es importante darse cuenta que esto no es así, lo que se mueve es una perturbación, las partículas de agua se mueven arriba abajo o a lo sumo en pequeñas circunferencias más o menos estables. Pero a este movimiento arriba-abajo se superpone un desplazamiento horizontal de la capa superficial, debida a la fuerza de arrastre que el viento hace sobre las ondas. Cuando la capa superficial se aproxima a la zona costera, el lecho marino forma una especie de cuña, que acelera la velocidad de traslación de las olas por efecto del principio de continuidad, como se puede observar en el cuadro derecho de la Tabla 9.1. El agua en los océanos están constituidas por asociaciones moleculares o campos que definen partículas de agua que se mueven formando círculos, cuyo diámetro desciende en profundidad. En la superficie del agua, en zonas poco profundas, los movimientos circulares son del mismo tamaño que la altura de la ola, pero estos movimientos disminuyen exponencialmente en tamaño al descender debajo de la superficie. El comportamiento de las olas depende en gran medida de la relación que existe entre el tamaño de las olas y la profundidad del agua donde ésta se está moviendo. El movimiento de las moléculas de agua cambia de forma circular a elipsoidal cuando una ola llega a la costa y la profundidad del agua disminuye- el movimiento es más horizontal, Fig.9.4_6.

Page 177: Manual de Energías Renovables

  10

Fig.9.4_6

Generalmente, la altura H de la ola en el océano es mucho menor que su longitud L. Por tanto, la teoría que describe el movimiento de una ola se simplifica, pudiéndose expresar la velocidad de propagación c, de la siguiente forma:

tangh( )gc kdk

=

donde: k = 2π / λ es el denominado número de onda; h la profundidad del agua; λ la longitud de onda; g la aceleración de la gravedad y tangh la tangente hiperbólica, d la distancia desde la superficie al lecho. si hacemos el cociente:

2/ /2kdd d

kπλ

π= =

Si se trata de una zona de agua profunda, es decir, la razón entre la profundidad h y la longitud de onda λ es mayor que 0,5, → kd / 2π >0.5 → kd > π también el término kh es muy grande. Por tanto, la tanh (kh) es aproximadamente la unidad, y la expresión de la velocidad de propagación c se reduce a:

2g gck

λπ

= =

que es válida para aguas profundas. De la última ecuación se desprende que viajan más rápido aquellas olas que tienen mayor longitud de onda y período. Por esto, las olas de agua profunda se llaman dispersivas. Esto quiere decir que, cuando se genera una tormenta, siempre van al frente aquellas olas con los períodos T mayores. Son los primeras en alcanzar las costas, aunque no necesariamente las de mayor energía. Si se trata de una zona de aguas con poca profundidad (también denominadas aguas someras), es decir, cuando la razón entre la profundidad h y la longitud de onda L es menor que 0,05, el término kh es muy pequeño, entones la velocidad de propagación puede expresarse por: c gh=

Page 178: Manual de Energías Renovables

  11

Puede observarse en esta ecuación que la velocidad de las olas es función de la profundidad h por la cual viajan. A mayor profundidad mayor velocidad. Esto tiene una gran importancia en las transformaciones que las olas sufren conforme se aproximan a la costa, denominada refracción de olas. En las zonas intermedias, es decir, cuando el agua no es ni profunda ni somera, la ecuación que describe la velocidad de fase de la onda no se puede simplificar , Los resultados se exponen en la siguiente Tabla 9.1:

Tabla 9.1 En el caso real la forma de la superficie oceánica con oleaje es una superposición de ondas de distintas frecuencias, la potencia del oleaje básico ideal por unidad de ancho puede estimarse a

2 2

32T g HW bρ

π=

i [Kwatt] [9.4.1]

en la ecuación, ρ es la densidad del agua aprox. 1000 [Kg/m3], y b el ancho frente del campo de oleaje en [m].

Según esta ecuación la potencia contenida en una ola es proporcional al cuadrado de la amplitud H y al periodo del movimiento T. Las olas con periodos largos (entre 7s y 10s) y grandes amplitudes (del orden de 2m) tienen un flujo de energía que normalmente excede de los 40-50kW por metro de ancho del frente del campo de oleaje.

9.5.- Aprovechamiento de la Energía del Oleaje

Uno de los aprovechamientos más simples y eficientes, se conoce como Columna de agua Oscilante también por sus siglas en inglés OWC (Oscilating Water Column).

Son instalaciones que se construyen sobre la línea costera como se indica en la Fig.9.5_1 donde se observa un corte de la misma. La instalación consiste básicamente de una cámara de compresión de aire atrapado que actúa como un pistón comprimiendo el aire e impulsándolo a través de una turbina horizontal del tipo Wells, cuando la ola rompe contra la instalación el nivel de la misma comprime el aire, cuando el oleaje se retira el nivel dentro del pozo baja y el aire es aspirado desde el exterior lo que continua haciendo girar la turbina Wells en el mismo sentido que al expulsar aire.

Page 179: Manual de Energías Renovables

  12

Fig.9.5_1

A la salida de la Turbina Wells se coloca un generador eléctrico para extraer energía de eje.

En la Fig 9.5_2 se observa una fotografía de un aprovechamiento de oleaje real realizado en la costa Escocesa UK.

Fig.9.5_2

Otro aprovechamiento con dos turbinas Wells verticales se indica en la Fig. 9.5_3 correspondiente a un proyecto denominado Osprey realizado para Australia.

Page 180: Manual de Energías Renovables

  13

Fig. 9.5_3

El principio de funcionamiento de las Turbina Wells para aire es similar a las de agua a diferencia que esta optimizada para la circulación de este fluido, tienen también la forma de un perfil aerodinámico simétrico, pero sin curvatura, y gira en el mismo sentido (horario en la figura cuando se mira desde arriba) cuando el aire acomete por presión desde abajo o por succión desde arriba. Fig. 9.5_3b.

En la figura se observan cuatro palas montadas sobre un cuerpo rotante (en naranja) que constituye la parte rotórica que esta sostenida desde el eje del rotor (no dibujado), el área de montaje o parte estatórica también esta dibujada en naranja, es un conducto convergente-divergente que acelera al flujo antes de pasar por la turbina.

 

Fig. 9.5_3b

Algunos aprovechamientos para oleaje están basados en la captura del agua en pequeños embalses combinados para hacer funcionar una turbina convencional tipo Francis o Kaplan diseñadas para un salto pequeño como se ve en la Fig. 9.5_4.

Page 181: Manual de Energías Renovables

  14

Fig.9.5_4

Otro dispositivo bastante utilizado se denomina Rectificador Rusell (Fig 9.5_5). Está constituido por dos depósitos ubicados en dos niveles distintos, uno superior y otro inferior, los cuales se comunican a través de un orificio circular donde trabaja una turbina de salto pequeño. El dispositivo se fija al fondo del lecho en zonas de poca profundidad y trabaja con aguas someras.

Las crestas de la olas introducen el agua en el depósito superior a través de las paredes altas y el agua atrapada queda embalsada en el mismo. Como segunda etapa el agua pasa al depósito inferior en el cual trabaja la turbina cuyo eje está vertical y conectado a la máquina de generación eléctrica (en rojo). Una vez que el agua pasa al depósito inferior sale por las escotaduras de la zona inferior de la pared de oleaje cuando el oleaje se retira.

Fig 9.5_5

Page 182: Manual de Energías Renovables

MÓDULO: 10. ENERGÍAS RENOVABLES. ENERGÍA DE LA BIOMASA

10.1.-Conceptos y definiciones.

La energía de Biomasa – también conocida como bioenergía define el aprovechamiento de la fracción biodegradable de los productos y residuos de la agricultura, la forestación y sus industrias asociadas. El término también incluye la fracción orgánica de los desperdicios municipales e industriales.

Dicha biomasa tiene carácter de energía renovable ya que su contenido energético procede, en última instancia, de la energía solar fijada por los vegetales en el proceso fotosintético.

Esta materia orgánica es renovable en cuando se produzca a la misma velocidad de su consumo, evitando la sobreexplotación de los recursos naturales.

En contraposición, el carbón, el gas, el petróleo y otros combustibles fósiles no se consideran biomasa, aunque deriven de material orgánico. Los millones de años necesarios para la formación de estos combustibles (acumulando carbono) hacen que no puedan ser calificados como renovables.

10.2.-El ciclo del dióxido de carbono.

Cuando se combustiona, la biomasa libera CO2 a la atmósfera, el mismo CO2 que absorbió de esta última durante su crecimiento (en el caso de la materia orgánica vegetal) o que absorbieron las plantas ingeridas (si se trata de materia orgánica animal). Cuando se consume de una manera sostenible, el ciclo se cierra y el nivel de CO2 a la atmósfera se mantiene constante, de forma que su utilización no contribuye a generar efecto invernadero o afectar el cambio climático.

Fig.10.2_1

“en la fotosíntesis las plantas y los árboles captan y utilizan la luz solar para transformar la materia inorgánica , por ejemplo el CO2 y el agua de su medio próximo en material orgánico. En dicho proceso, la

energía solar se transforma en energía química”

Y no sólo eso. Su consumo evita el de los combustibles fósiles que sí generan emisiones causantes del recalentamiento del planeta. Además, elimina residuos ayudando a disminuir el riesgo de incendio y trata los líquidos residuales que son fuente de contaminación del subsuelo y de aguas subterráneas.

Page 183: Manual de Energías Renovables

  2

El proceso es iniciado por la fotosíntesis que produce el material vegetal en general, y cuyo proceso se indica en forma esquemática la Fig. 10.2_2 siguiente.

Existe un proceso interno que desarrollan las células vegetales a través de la molécula de clorofila que se denomina: Foto-fosforilación a través del cual, y durante el ciclo dia, o de luz solar, el agua es descompuesta devolviendo oxígeno a la atmósfera dando lugar a la formación de diversas sustancias que forman parte de la estructura vegetal; también el dióxido de carbono es tomado de la atmósfera en una segunda etapa para realizar otro proceso denominado Ciclo Calvin - Benson, o ciclo de fijación del CO2, para integrarlo con las sustancias complejas (ATP y NADPH) producidas en el primer proceso para transformarlo en Azúcar y Carbono.

Fig.10.2_2

Las ideas troncales referidas a la extracción de energía de la Biomasa, las vamos a asociar con el siguiente diagrama esquemático, Fig.10.2_3

Fig.10.2_3

Page 184: Manual de Energías Renovables

  3

En la fotosíntesis, las plantas

Fase 1.

La biomasa es creada mientras las plantas absorben CO2 durante su fase de crecimiento y básicamente lo almacenan como carbono en su corteza.

Fase 2.

El hombre cultiva y usa la biomasa por ejemplo en forma de madera para fabricar muebles, construir viviendas, etc.

Primero se producen los residuos como chips de madera y aserrín y finalmente a largo plazo los muebles mismos cuando son descartados después de cumplir su vida útil, o sea en el largo plazo, el 100% de la biomasa termina en basurales donde se descompone o es quemada y libera CO2

Fase 3.

También estos materiales pueden ser incinerados para producir calor, o bien generar por ejemplo vapor para activar una caldera y esta a una turbina de vapor y de esta manera transformar el calor en energía eléctrica. Las centrales de biomasa son un complemento de la acción humana de este ciclo.

Fase 4.

En vez de dejar que se descomponga, resumidamente, la biomasa es quemada para generar energía para uso doméstico e industrial. La ventaja es que esta combustión libera el mismo volumen de CO2 que la descomposición natural, sin alterar el equilibrio ambiental, y repone a la atmósfera la misma cantidad de CO2 que el bosque primario había absorbido, es decir hay un balance neutro para el efecto invernadero, al finalizar el ciclo.

10.3.- Un poco de historia

Durante gran parte de la historia de la humanidad y hasta la revolución industrial, la biomasa ha servido para cubrir las necesidades de calor e iluminación tanto en la vida cotidiana como en las distintas industrias. Se utilizaba para cocinar, calefaccionar, hacer cerámica, producir metales a partir de minerales y forjarlos como arados o espadas y, posteriormente, para alimentar las máquinas de vapor.

Estos nuevos usos, que progresivamente requerían una mayor cantidad de energía en un espacio cada vez más reducido, promocionaron el uso del carbón como combustible sustitutivo de la leña a mediados del siglo XVIII, particularmente para las necesidades de la revolución industrial y los trasportes ferroviarios basados en vapor, ya que el carbón es más energético o sea su calor de combustión es mayor que el de la leña. Pero el carbón es un insumo no renovable y el CO2 desprendido de la combustión no generaba un balance neutro sino que incorporaba gas de efecto invernadero en la atmósfera.

Desde ese momento se empezaron a utilizar fuentes energéticas cada vez con un mayor poder calorífico, y el uso de la biomasa declinó hasta mínimos históricos. Actualmente sin embargo, según datos del Fondo de las Naciones Unidas para la Alimentación y la Agricultura (FAO), “algunos países pobres obtienen el 90% de su energía de la leña y otros biocombustibles” Fig.10.3_1

el agua) de su

Page 185: Manual de Energías Renovables

  4

Fig..10.3_1

10.4.- Bioenergía.

La forma de transformar la biomasa en energía depende, fundamentalmente, del tipo de biomasa de que se esté tratando y del destino que se quiera dar a esta energía. El sector bioenergético está basado en tres modos de usar la energía: para calefacción, para generación eléctrica y para producción de biocombustibles.

Los sistemas comerciales para utilizar biomasa residual seca se pueden clasificar en función de que estén basados en la combustión del recurso (por ejemplo, en calderas para biomasa) o en su gasificación.

Los sistemas comerciales para aprovechar la biomasa residual húmeda están basados en la pirólisis. Para ambos tipos de recursos, existen varias tecnologías que posibilitan la obtención de biocarburantes.

La pirólisis es la descomposición química de materia orgánica y todo tipo de materiales excepto metales y vidrios causada por el calentamiento en ausencia de oxígeno molecular (O2). En este caso, no produce ni dioxinas ni furanos. Su nombre proviene del griego piro (fuego) y lisis (rotura). En la actualidad hay una tecnología muy eficiente que puede tratar todo tipo de residuos.

La pirólisis extrema, que sólo deja carbono como residuo, se llama carbonización. La pirólisis es un caso especial de termólisis. Un ejemplo de pirólisis es la destrucción de neumáticos usados. En este contexto, la pirólisis es la degradación del caucho de la rueda mediante el calor en ausencia de oxígeno.

En muchas aplicaciones industriales este proceso es llevado a cabo bajo presión y a temperaturas por encima de los 430°C. La pirólisis anhidra (evitando el vapor de agua) también se puede usar para producir un combustible líquido similar al gasoil a partir de biomasa sólida o plásticos. La técnica más común utiliza unos tiempos de residencia muy bajos (menos de dos segundos) y temperaturas de entre 350 y 500 ºC.

El diagrama de la Fig.10.4_1, muestra las posibles transformaciones de la biomasa, desde los materiales crudos hasta su uso final.

Page 186: Manual de Energías Renovables

  5

Fig.10.4_1

10.5.- Tipos de Biomasa.

Biomasa natural:

Se produce de forma espontánea en la naturaleza, sin intervención humana. Por ejemplo, las podas naturales de los bosques.

Biomasa residual seca:

Procede de recursos generados en las actividades agrícolas y forestales en forma secundaria, así como en las industrias agroalimentaria y maderera (ejemplo: aserrín).

Biomasa residual húmeda:

Procede de vertidos biodegradables formados por aguas residuales urbanas e industriales y también de los residuos ganaderos (el guano, por ejemplo).

Page 187: Manual de Energías Renovables

  6

Cultivos energéticos:

Su única finalidad es producir biomasa transformable en combustible. Incluye los cereales, oleaginosas, remolacha y los cultivos lignocelulósicos. Algunas aplicaciones provienen del reciclado de aceite vegetal usado en las cadenas de comidas rápidas.

10.6.- Descripción de una central típica de procesamiento de Biomasa.

Una central de biomasa en referencia a la Fig.10.6_1., se ocupa de obtener energía eléctrica mediante diferentes procesos de transformación de la materia orgánica.

Básicamente el funcionamiento de una central es el siguiente:

1) La biomasa recogida se quema en calderas.

2) El calor de esta combustión se usa para hervir agua y obtener vapor. Los gases se evacuan por conductos y chimeneas.

3) El vapor mueve una turbina conectada a un generador (al igual que en las centrales tradicionales).

4) El generador convierte la energía mecánica en energía eléctrica.

5) El voltaje de la electricidad generada se eleva para su distribución a través de la red.

Fig.10.6_1

10.7.- Potencial bioenergético.

Actualmente, la biomasa realiza el mayor aporte energético de todas las energías alternativas.

Como la bioenergía puede ser implementada a pequeña, mediana y gran escala, es aplicable a una amplia variedad de recursos y modelos de procesamiento / utilización.

Sin embargo, es necesaria una mayor cantidad de biocombustible que de combustible fósil para conseguir la misma cantidad de energía, lo que hace necesario mayor espacio para su almacenamiento. Además, el rendimiento de las calderas de biomasa es inferior al de las que utilizan combustibles fósiles, y sus sistemas de alimentación y eliminación de cenizas son más complejos.

Page 188: Manual de Energías Renovables

  7

A pesar de estos aspectos desfavorables, la tecnología aplicada a la biomasa está sufriendo un gran desarrollo y se concentra en incrementar el rendimiento energético y la productividad de este recurso.

10.8.- El futuro de la biomasa.

Tanto Argentina como Brasil cuentan con el desarrollo total de la tecnología y fabricación de calderas y generadores de vapor para producir energía eléctrica a partir de residuos forestales.

De aplicar esta tecnología se produciría una gran cantidad de energía que superaría al consumo de los propios aserraderos y el resto se entregaría a la red.

Dicha implementación es importante debido a que muchas zonas foresto-industriales se encuentran alejadas de los centros urbanos y no cuentan con un adecuado suministro de energía.

La utilización de biomasa como fuente de energía puede contribuir a sustituir la utilización de los combustibles fósiles, lo que daría mayor seguridad energética nacional con una diversificación más amplia de las fuentes de energía. Y además, al ser una fuente de energía renovable puede ayudar a mitigar el cambio climático, siempre y cuando se produzca de manera sostenible.

10.9.- Combustibles líquidos a partir de cultivos.

1.- Bioetanol

El bioetanol se obtiene a partir de cultivos tradicionales, como los de cereal, maíz o remolacha, mediante procesos de adecuación de la materia prima, fermentación y destilación. Sus aplica-ciones van dirigidas a la mezcla con gasolinas o bien a la fabricación de ETBE, un aditivo oxigenado para las gasolinas sin plomo.

2.- Biodiesel.

Por su parte, la producción de biodiesel se realiza a través de operaciones de trans-esterificación y refino de aceites vegetales, bien puros (girasol o soja, por ejemplo), bien usados. El producto así obtenido es empleado en motores diesel como sustituto del gasoil, ya sea en mezclas con éste o como único combustible.

Cuando se utiliza en forma pura su designación es B100 lo que significa que se trata de una utilización completa o de 100%, de lo contrario se indica el porcentaje de biodiesel en la mezcla con gasoil tradicional por ejemplo B25 significa 25% de Biodiesel y 75% de gasoil tradicional.

El biodiesel es una fuente de energía limpia, renovable, de calidad y económicamente viable, que además contribuye a la conservación del medio ambiente, por lo que representa una alterativa a los combustibles fósiles

El futuro de esta energía está garantizado siempre que las administraciones colaboren con legislación a favor de los biocombustibles por ejemplo con leyes de obligatoriedad de consumo, con el mantenimiento de las ayudas fiscales y con ayudas para transformar la exportación directa algunos actuales cultivos por semillas oleaginosas, como soja, para un procesamiento dentro del país.

Page 189: Manual de Energías Renovables

  8

10.9.1.- Proceso de fabricación

Para producir el biodiesel, el aceite se extrae de la semilla cultivada separándolo de la harina de la semilla que puede usarse como forraje para crianza de animales; posteriormente es refinado y sometido a un proceso denominado trans-esterificación, (esto es se combina el aceite con un alcohol ligero, normalmente metanol) con lo cual queda listo para su uso y como subproducto de la reacción química se genera la glicerina, que se emplea como materia prima de diferentes industrias como la cosmética.

10.9.2.- Ventajas para el Medio ambiente.

Se trata de un combustible 100% vegetal y 100% biodegradable, es una energía renovable e inagotable, no general residuos tóxicos ni peligrosos.

Cumple con el protocolo de Kyoto, ya que reduce en un alto porcentaje la contaminación atmosférica.

Las emisiones de CO2 son entre un 20 y un 80% menos que las producidas por los combustibles derivados del petróleo tanto en el ciclo biológico en su producción como en el uso. Asimismo, se reducen las emisiones de dióxido de azufre en casi 100%.

Por otra parte, la combustión de Biodiesel disminuye en 90% la cantidad de hidrocarburos totales no quemado, y entre 75-90% en los hidrocarburos aromáticos.

No contiene ni benceno, ni otras sustancias aromáticas cancerígenas (Hidrocarburos aromáticos poli cíclicos). El Biodiesel, como combustible vegetal no contiene ninguna sustancia nociva, ni perjudicial para la salud, a diferencia de los hidrocarburos, que tienen componentes aromáticos y bencenos (cancerígenos). La no-emisión de estas sustancias contaminantes disminuye el riesgo de enfermedades respiratorias y alergias

10.9.3.- Aspectos negativos.

El impacto ambiental y las consecuencias sociales de su previsible producción y comercialización masiva, especialmente en los países en vías de desarrollo o del Tercer y Cuarto Mundo generan:

a.- un aumento de la deforestación de bosques nativos,

b.- la expansión indiscriminada de la frontera agrícola,

c.- el desplazamiento de cultivos alimentarios y para la ganadería,

d.- la destrucción del ecosistema y la biodiversidad, y

e.- el desplazamiento de los trabajadores rurales.

10.10.- Reciclado de aceites comestibles.

El biodiesel se puede producir asimismo a partir de aceites domésticos usados o vírgenes, aunque en general se hace casi siempre con aceite doméstico usado o aceites provenientes de cadenas de comida rápida.

Para recuperarlo existe un sistema de recolección que trabaja con los principales consumidores de este producto: hoteles, empresas de catering, cocinas industriales u hospitales. Además, en algunas ciudades del mundo existen experiencias de recolección domiciliaria a través de los “puntos verdes” Fig.10.10_1, donde los ciudadanos depositan sus residuos, entre ellos el aceite doméstico usado.

Page 190: Manual de Energías Renovables

  9

Fig.10.10_1

Una vez recogido se lleva a una planta purificadora de residuos donde se recicla en un filtrado primario y se extrae su humedad ya que es perjudicial para su utilización en motores. Después se traslada a las plantas productoras de biodiesel.

Aquí realiza el mismo proceso indicado anteriormente, es decir un proceso de transformación en el cual se convierte en éster metílico.

Hasta hace pocos años los combustibles para motores de ciclo Diesel se hacían a partir de aceites minerales, como el petróleo. El biodiesel tiene una estructura química parecida, la diferencia es que se hace con cadenas de carbono extraídas de aceites vegetales, y no produce un impacto ambiental en el sentido que el CO2 emanado por la combustión es reabsorbido en el proceso de crecimiento de la nueva producción de la oleaginosa.

10.11.- Biodigestores.

Un biodigestor es un sistema natural que aprovecha la digestión anaeróbica (en ausencia de oxígeno) de las bacterias que ya habitan en el estiércol, para transformar éste en biogás y fertilizante Fig.10.11_1. El biodigestor se alimenta con residuos orgánicos y desechos orgánicos como ser estiércol, restos de comida, restos orgánicos vegetales etc.

El biogás puede ser empleado como combustible en las cocinas e iluminación, y en grandes instalaciones se puede utilizar para alimentar un generador que produzca electricidad. El fertilizante residual, llamado biol, inicialmente se ha considerado un producto secundario, pero actualmente se está considerando de la misma importancia, o mayor, que el biogás, ya que provee a las familias campesinas de un fertilizante natural que mejora mucho el rendimiento de las cosechas.

Los biodigestores familiares de bajo costo han sido desarrollados y están ampliamente implantados en países del sureste asiático, pero en Sudamérica, solo países como Argentina, Cuba, Colombia y Brasil tienen desarrollada esta tecnología. Estos modelos de biodigestores familiares, construidos a partir de mangas de polietileno tubular, se caracterizan por su bajo costo, fácil instalación y mantenimiento, así como por requerir sólo de materiales locales para su construcción. Por ello se consideran desarrollos de baja tecnología.

Se debe considerar que el estiércol acumulado cerca de las viviendas rurales supone un foco de infección, olores y moscas que desaparecerán al ser introducido el estiércol diariamente en el biodigestor familiar.

Page 191: Manual de Energías Renovables

  10

También es importante recordar la cantidad de enfermedades respiratorias que sufren, principalmente las mujeres, por la inhalación de humo al cocinar en espacios cerrados con leña o bosta seca. La combustión del biogás no produce humos visibles y su carga en ceniza es infinitamente menor que el humo proveniente de la quema de madera.

La combustión del metano produce CO2 como residuo que es menos contaminante por eso es conveniente su utilización como combustible.

Fig.10.11_1

[]

Page 192: Manual de Energías Renovables

MÓDULO: 11. ENERGÍAS RENOVABLES. ENERGÍA DEL HIDRÓGENO

11.1.-Conceptos y definiciones.

Bajo condiciones ordinarias en la Tierra, el hidrógeno existe como gas biatómico, H2. Sin embargo, el hidrógeno molecular gaseoso es extremadamente poco abundante en la atmósfera de la Tierra (una parte por millón en volumen), porque debido a su pequeña masa esto le permite escapar al influjo de la gravedad terrestre más fácilmente que otros elementos atómicos de mayor número másico. Fig.11.1_1

Fig.11.1_1

Aunque los átomos de hidrógeno y las moléculas biatómicas de hidrógeno abundan en el espacio interestelar, son difíciles de generar, concentrar y purificar en la Tierra. No obstante, el hidrógeno es el decimoquinto elemento más abundante en la superficie terrestre debido a que se presenta combinado con sustancias como el agua, el metano, los hidrocarburos etc.

También el hidrógeno gaseoso es producido por algunas bacterias y algas, y es un componente natural del metano. El metano es una fuente de enorme importancia porque proviene principalmente de la descomposición vegetal primaria y las flatulencias de los animales y es el que más se utiliza para la obtención del hidrógeno, después de la hidrólisis de agua.

11.2.- El Hidrógeno como combustible

Se ha hablado mucho del hidrógeno molecular como posible portador de energía. El uso del H2 tendría la ventaja de que las fuentes fósiles podrían usarse directamente para la obtención de este gas (a partir de metano, por ejemplo). El H2 usado en los medios de transporte produciría una combustión limpia en la que el único producto sería el agua, eliminando por completo las emisiones de CO2.

Sin embargo, los costos para la infraestructura necesaria para llevar a cabo una conversión completa del parque automotriz y los centros de suministro del hidrógeno serían sustanciales. Además, la densidad energética global del hidrógeno líquido o gaseoso (la energía producida por Kg masa ) es significativamente menor que la de los combustibles tradicionales.

Por ejemplo, puede emplearse en motores de combustión interna. Una flota de automóviles con motores de este tipo es mantenida en la actualidad por Chrysler-BMW. Además, las pilas de combustible en desarrollo en combinación con motores eléctricos de tracción en las ruedas y frenos regenerativos, parece que serán capaces de ofrecer una alternativa limpia y económica a los motores de combustión interna.

Como todos sabemos, la situación energética actual (al igual que la de los recursos en general) es completamente insostenible: conflictos por el petróleo, agotamiento de recursos energéticos, contaminación etc. son más que suficientes para realizar tal afirmación.

Page 193: Manual de Energías Renovables

  2

Por tanto, es inevitable que, desde hace un tiempo, el futuro energético a nivel mundial sea una preocupación y se intenten buscar soluciones más o menos viables para remediar la situación.

En el caso de la movilidad para trasporte, la pregunta está clara: ¿con qué energía se van a mover nuestros vehículos en el futuro? La respuesta no es nada fácil: los pasos a seguir parecen estar más que esbozados, pero las fechas para que se cumplan dichos pasos son toda una incógnita.

Ya anticipamos que el problema de la automoción no puede aislarse de la problemática energética general; están estrechamente ligados, por lo que la progresión en ambos campos será más o menos paralela.

Para empezar, haremos un repaso de la situación actual. Hoy, el dilema a la hora de comprarse un coche es: Diesel o gasolina. Esta decisión dependerá de varios factores más o menos subjetivos: los partidarios del Diesel alegan mejor par de tracción a bajas vueltas, y menor consumo (que rentabiliza el mayor precio de adquisición); mientras que los partidarios de la gasolina defienden una mayor suavidad de funcionamiento, menor peso por HP, menor precio de adquisición, etc.

Pero en ambos casos, compraremos un coche que se mueve gracias al consumo de un derivado del petróleo o combustible fósil. Son precisamente debidas al petróleo las dos grandes problemáticas sobre el medio ambiente:

a.- Emisiones contaminantes:

La combustión genera contaminantes. La atmósfera terrestre está compuesta como vimos en una clase anterior esencialmente de N2 (78%) y O2 (21%), que reaccionan con los hidrocarburos para liberar gran cantidad de energía mediante la combustión.

Aparte de energía, la combustión genera más productos. Si la combustión fuese ideal y completa, la reacción es la siguiente:

Cx Hy + (x+y/4) O2 → (x) CO2 + (y/2) H2O + Energía (luz y calor).

(xx e y son numeros naturales que definen la cadena hidrogenada de carbono de la molécula de combustible).

Pero, en realidad las combustiones no son ideales, y aparecen más productos aparte del dióxido de carbono (CO2) y el agua (H2O) (en menor cantidad que éstos): monóxido de carbono (CO), carbono (C) (lo que llamamos carbonilla), dióxido de azufre (SO2) y óxidos de nitrógeno (NOx). El CO2 y los otros gases no deseados de la reacción, (junto con otros gases que son emanados en otros procesos químicos de la industria) provocan dos de los más nocivos fenómenos medioambientales de los que ya hablamos en clases anteriores:

El más importante es el Efecto invernadero, mediante este fenómeno como vimos, la Tierra es capaz de retener calor procedente del Sol (permitiendo así que la temperatura en la tierra sea suficiente para que se dé vida en ella). Este efecto no es nuevo, sino que existe desde que hay atmósfera; pero sus efectos se han visto acrecentados en los últimos tiempos por el aumento de la concentración de ciertos gases de efecto invernadero en ella que tienden a romper el equilibrio entre la energía recibida por radiación y la desprendida por el planeta por irradiación, este desbalance es el responsable del aumento paulatino de la temperatura terrestre, y la tropicalización de nuestro entorno.

El intercambio de calor entre la Tierra y el Sol (y el espacio exterior en general) se realiza por radiación (no cabe otra opción, ya que el espacio es vacío y la conducción y la convección no se dan).

Page 194: Manual de Energías Renovables

  3

El problema viene cuando hay demasiados gases de efecto invernadero en la atmósfera: ésta absorbe demasiada radiación procedente de la Tierra, que vuelve a ser emitida por la atmósfera de vuelta hacia la corteza mayoritariamente.

La reacción del planeta es aumentar su temperatura para radiar más hacia el exterior (ya que el calor radiado es proporcional a la temperatura elevada a la cuarta) y así poder mantener el equilibrio termodinámico. Y esto es lo que nos está pasando actualmente, que la temperatura media en la Tierra está aumentando según este efecto. Fig.11.2_1.

 

Fig.11.2_1 

El otro fenómeno nocivo del cual ya también hablamos es el Adelgazamiento de la Capa de Ozono, que actualmente esta parcialmente solucionado.

Para resolver el problema del trasporte en forma de no generar principalmente efecto invernadero seguimos necesitando una fuente de energía que nos propulse y que proporcione al menos el mismo grado de movilidad adquirido con los combustibles fósiles. Los dos rumbos que se pueden seguir para obtener esa energía son :

1.- Captar algún tipo de energía del entorno (como la energía solar). 2.- Almacenar la energía de alguna forma en el automóvil para dosificar su aprovechamiento según las necesidades (como hacemos hasta día de hoy con los combustibles tradicionales).

La primera alternativa implica captar la energía solar: transformar la radiación solar en energía eléctrica por medio de células fotovoltaicas. Se han fabricado varios prototipos, pero no dejan de ser prototipos experimentales y muy poco funcionales.

Page 195: Manual de Energías Renovables

  4

En la figura, vemos una imagen del World solar Challenger (un poco funcional auto solar). El resto de opciones pasan por almacenar energía de una u otra forma en el interior del coche.

Para continuar, debemos introducir un concepto: el de los vectores energéticos. por ejemplo los hidrocarburos son vectores energéticos.

Los vectores energéticos prescindiendo de los hidrocarburos y el gas natural, pueden ser muy variados, por ejemplo:

1.- Cinéticos: volante de inercia, central de acumulación (como las hidroeléctricas, almacenando la energía en forma de energía potencial del agua embalsada). 2.- Electroquímicos (asociados a la electricidad): baterías, hidrógeno. 3.- Entálpicos: gases comprimidos, vapor sobrecalentado etc.

4.- Térmicos: calor embebido en sustancias de alto calor específico (como el agua que circula en las calefacciones domésticas).

Pero un análisis pormenorizado de todos ellos nos indica que el hidrógeno molecular (H2) es el favorito, por su simplicidad al menos teórica, por lo menos si atendemos a la gran cantidad de empresas automovilísticas, energéticas y de trasportes implicadas así como al gran nivel de desarrollo con el que cuenta actualmente esta tecnología. Marcas de todos los segmentos y continentes como Audi, BMW, Daimler-Chrysler, Fiat, Ford, General Motors, Honda, Hyundai, Mazda, Morgan, Nissan, PSA (Peugeot-Citroën), Toyota o Volkswagen han presentado sus propios prototipos o concept-cars basados en H2.

Para entender el concepto debemos detallar primero un poco el proceso energético involucrado.

11.3.- Pila o Celda de Combustible.

Una pila de combustible, también llamada célula o celda de combustible es un dispositivo electroquímico de conversión de energía similar a una batería, pero se diferencia de esta última en que está diseñada para permitir el reabastecimiento fácil de los reactivos consumidos; es decir, produce electricidad de una fuente externa de combustible y del oxígeno atmosférico en contraposición a la capacidad limitada de almacenamiento de energía que posee una batería convencional.

Además, los electrodos en una batería reaccionan y cambian según cómo esté de cargada o descargada; en cambio, en una celda de combustible los electrodos son catalíticos y relativamente estables.

Los reactivos típicos utilizados en una pila o celda de combustible son hidrógeno en el lado del ánodo y oxígeno en el lado del cátodo (si se trata de una celda de hidrógeno).

Los métodos para obtener la energía a partir del enlace hidrógeno-hidrógeno (H2) son dos:

1.- Directamente mediante combustión, ya que el H2 es muy inflamable: 2 H2 +O2 → 2 H2O + calor (286 kJ / mol de H2). Esta la opción elegida para los motores cohetes principales de los cuales ya hemos hablado, (no los boosters) de los trasbordadores espaciales por ser una reacción muy energética.

Page 196: Manual de Energías Renovables

  5

2.- A través de una celda de combustible, en la que se obtiene directamente energía eléctrica.

Esta celda se alimenta de hidrógeno molecular (procedente de los tanques de almacenamiento) y oxígeno molecular (procedente de la atmósfera) y, por medio de una reacción electroquímica, es capaz de generar una pequeña corriente eléctrica, Fig.11.3_1:

Fig.11.3_1

Reacciones:

2H2 → 4 H+ + 4 e- catalizador primario

O2 + 4H+ + 4e- → 2 H2O catalizador secundario

Global:

2H2(gas) + O2(gas) → 2H2O(vapor) + electricidad

La obtención de electricidad para alimentar motores eléctricos es mucho más aprovechable (y, en principio, mucho más eficiente que la obtención de calor mediante combustión interna), lo que hace a este proceso mucho más recomendable para la automoción.

Page 197: Manual de Energías Renovables

  6

En la Fig.11.3_1, se observa el esquema típico de una célula de membrana intercambiadora de protones hidrógeno a través de un electrolito polimérico hidrógeno / oxígeno de una celda de combustible (PEMFC, en inglés: proton exchange membrane fuel cell), la membrana polimérica conductora de protones (el electrolito en color verde claro), separa el lado del ánodo (negativo) del lado del cátodo (positivo).

En el lado del ánodo, (a la izquierda de la membrana verde claro) el hidrógeno que llega al ánodo catalizador, H2 se disocia en protones y electrones. Los protones son conducidos a través de la membrana del electrolito al cátodo, pero los electrones están forzados a viajar por un circuito externo metálico (normalmente de platino), produciendo energía ya que la membrana está aislada eléctricamente. Esta energía se puede usar para cargar una batería convencional o de Litio –Ion, o bien directamente en el circuito de carga.

En el cátodo (o conductor positivo a la derecha de la membrana verde claro), las moléculas del oxígeno reaccionan con los electrones (conducidos a través del circuito externo que regresan) y los protones del hidrógeno, para formar el agua.

El electrolito (en verde claro) es una membrana de electrolito polimérico híbrida que comprende dos polímeros distintos espacialmente dispuestos de tal forma que ambos constituyen una estructura donde uno de los polímeros, que es un polímero de siloxano, hace de base perforada para que el otro polímero, que es un electrolito polimérico, se pueda distribuir en él en las perforaciones en forma de canales del primero.

El electrolito así constituido es llamado de membrana polimérica (PEM), y la pila en conjunto es llamada pila de combustible de membrana de intercambio de protones.

Las placas del electrodo/bipolar se hacen generalmente de nanotubos de metal, de níquel o de carbón, y están cubiertas por un catalizador (como el platino o el paladio) para conseguir una eficacia más alta.

En este ejemplo, el único residuo es vapor de agua o agua líquida. Es importante mencionar que para que los protones puedan atravesar la membrana, esta debe estar convenientemente humidificada dado que la conductividad para el protón hidrógeno de las membranas poliméricas utilizadas en este tipo de pilas depende de la humedad de la membrana. Por lo tanto, es habitual humidificar los gases previamente al ingreso a la celda.

Además de hidrógeno puro, también se puede hacer reaccionar directamente el hidrógeno contenido en otras moléculas de combustibles incluyendo el diésel, metanol y los hidruros químicos, el residuo producido por este tipo de combustibles además de vapor de agua es dióxido de carbono, entre otros, y a su vez si en lugar de oxígeno puro se inyecta aire del lado del cátodo, el residuo del proceso será Nitrógeno y vapor de agua.

En cualquiera de los casos, la reacción sería completamente “limpia”, arrojando a la atmósfera nada más que agua. (Si prescindimos del hecho que el agua mientras se mantenga suspendido en atmósfera en estado gaseoso es también un gas de invernadero, aun más nocivo que el CO2).

Como sabemos, el hidrógeno es el elemento más abundante en el universo. En la Tierra, se encuentra en forma molecular (H2) o asociado a otros elementos; siendo la forma molecular poco abundante, y no lo suficiente como para asegurar el abastecimiento a nivel global.

Por tanto, hemos de producir ese hidrógeno molecular que vamos a consumir (asumiendo todas las pérdidas intermedias de energía en la producción). Volvemos así a recordar el concepto del hidrógeno como vector o portador energético y no como fuente de energía (salvo en el caso de la fusión nuclear que veremos en otra clase, donde sí es una fuente de energía).

Las opciones son múltiples a lo largo del ciclo útil del hidrógeno, desde su obtención hasta su aprovechamiento en las diferentes clases de celdas de combustible.

Page 198: Manual de Energías Renovables

  7

11.4.- Almacenamiento, transporte y abastecimiento.

La forma de almacenamiento usual es en la forma de hidrógeno comprimido o bien hidrógeno en estado líquido o licuado (para lo que es necesario disminuir la temperatura hasta -252.87ºC

La segunda alternativa será seguramente la mas usada en el futuro, ya que los recipientes los depósitos son mucho más ligeros al no estar sometidos a grandes presiones, aunque esta aplicación de frío también tiene un coste energético que debe ser suministrada por el mismo sistema alimentado por la conversión de H2 en electricidad.

11.5.- Aprovechamiento.

Se realiza según vimos en el párrafo 11.3, mediante celdas o pilas de combustible, existen también varios tipos de celdas aunque todas con rendimientos semejantes. Los problemas a los que se enfrentan los diferentes tipos son sus hasta el presente (2012), basicamente sus costos elevados.

Como hemos dicho antes, con el avanzado estado de innovaciones para el desarrollo de esta tecnología y el grado de implicación de instituciones y empresas, ésta será la tecnología del futuro de mediano plazo, una vez puesta a punto. En el largo plazo, es probable que si la fusión nuclear finalmente funciona, producirá energía eléctrica barata e ilimitada, entonces los automóviles se impulsarán solamente en base a baterías convencionales de Litio – Ion con tecnología mejorada.

11.6.- Ventajas frente a otras energías alternativas.

1.- La densidad energética (energía almacenada / masa) del hidrógeno es muy alta. En el caso del H2 líquido (un litro pesa tan sólo 0.07 Kgf ≈ 0.7N ), la densidad de energía es de 143 MJ / Kg. En la gasolina es de 48.31 MJ / Kg y en una batería de Li - Ion es de aproximadamente 0.6 MJ / Kg (en el mejor de los casos). Esta densidad energética también es mucho mayor que la del aire comprimido, ya que éste último basa el almacenamiento de energía en la presión, mientras que en el hidrógeno sólo es un camino para almacenarlo (su energía se basa en la separación y recaptura de electrones del enlace hidrógeno-hidrógeno).

También tienen la ventaja de ser ligeras y tener un tamaño pequeño, si se las compara con otras pilas. Las pilas o celdas PEM en resumen, usan como electrolito un polímero sólido y electrodos porosos de carbono que contienen un catalizador de platino. Necesitan hidrógeno y oxígeno y agua, y no requieren el uso de fluidos corrosivos como otras pilas de combustible. Normalmente usan hidrógeno puro como combustible almacenado en depósitos o convertidores incorporados.

Las pilas de membrana de electrolito polímero operan a relativamente bajas temperaturas, (80ºC). Esto permite que arranquen rápidamente al necesitar menos tiempo de calentamiento.

Esto representa una ventaja, ya que supone menor desgaste entre los componentes del sistema, y por tanto aumenta la duración del mismo. Estas celdas operan con un catalizador de platino, lo que encarece mucho el sistema. Además, el catalizador de platino es extremadamente sensible a la contaminación por CO, por lo que es necesario utilizar un reactor adicional para reducir el nivel de CO en el gas combustible. Este problema se agudiza cuando el hidrógeno empleado proviene de un combustible de alcohol o de hidrocarburo. Actualmente, se están estudiando reemplazar estos catalizadores por los de platino/rutenio, que presentan más resistencia a la contaminación por CO.

Page 199: Manual de Energías Renovables

  8

2.- El tiempo de recarga del hidrógeno es sustancialmente menor que en el caso de los coches eléctricos. Actualmente el tiempo de recarga en una hidrogeno es de unos 15 minutos en el caso de los autobuses, pero se estima que en el futuro llegará a unos 3 minutos, esto es equivalente a la carga de propano - butano actual en las estaciones de servicio, mientras un pack de baterías de Li - Ion de un automóvil eléctrico tarda en cargarse de 2 a 4 horas, con carga rápida y una noche en carga lenta.

11.7.- Desventajas.

1.- A pesar de su alta densidad energética tiene una baja densidad energética volumétrica (energía alamcenada / volumen), unos 8.7 MJ /litro (para el hidrógeno licuado); mientras que la de la gasolina es de 34.78 MJ / litro (cuatro veces la del hidrógeno líquido) y la del gasoil de 40.9 MJ / litro. Lo que hace que el almacenamiento sea cuatro veces más voluminoso que el actual de la gasolina. En esto se parece a los actuales automóviles impulsados por gas, que poseen poca autonomía (aproximadamente 10 Km /m3). 2.- Las bajas temperaturas de almacenamiento (en el caso del hidrógeno licuado) requiere sofisticados sistemas de refrigeración y aislamiento. 3.- Las altas presiones de almacenamiento (en el caso del hidrógeno a alta presión no licuado) exige pesados depósitos de almacenamiento; o muy costosos a base de acero en filamentos y fibra de carbono. 4.- Al igual que ocurre con el aire comprimido, el almacenamiento supone de por sí un coste energético nada despreciable, debido a su proceso de carga en la estación de suministro y su acondicionamiento en el automóvil. 5.- El hidrógeno es un gas inflamable, por lo que las medidas de seguridad durante la carga e internas en el automóvil deben ser rigurosas.

11.8.- Las formas de obtención de Hidrógeno molecular.

Son numerosas:

1.- electrólisis de agua (con un rendimiento energético de entre el 80% y el 90%, se presenta como la favorita),

2.- reformado con vapor a partir de metano u otro hidrocarburo (del cual se obtienen productos contaminantes como CO o CO2 y con un rendimiento del 65%) y

3.- obtención a partir de microorganismos generadores de hidrógeno (mediante reacciones en las que intervienen hidrogenasas) presentes en la descomposición de la biomasa. La ventaja de ésta última sobre las demás es que no hay que aportar energía de ninguna clase, aprovechamos la energía de la biomasa.

Lo más importante y que no hemos dicho hasta ahora: el vector energético resulta tan limpio como lo sea el origen de la energía que dicho vector acumula. Si la producción de Hidrógeno procede de la combustión de recursos fósiles, no habrá servido para nada el nuevo vector energético, ya que solamente serviría para concentrar en las centrales térmicas la producción de gases de efecto invernadero.

Así que para que un determinado vector energético renovable “funcione”, hemos de basar la producción de energía solamente en las energías renovables, en la fisión nuclear y en la futura (y ansiada) fusión nuclear. Aquí empieza otro tema de discusión: qué tipos de energía deben utilizarse y en qué proporción para tener un sistema energético adecuado, estable, limpio y suficientemente independiente.

[]

Page 200: Manual de Energías Renovables

MÓDULO: 12. ENERGÍAS RENOVABLES. ENERGÍA SOLAR

12.1.-Introducción y definiciones.

Se calcula que en el interior del Sol se queman cada segundo unos 700 millones de toneladas de hidrógeno, de las que 4,3 millones se transforman en energía. Una parte importante de esta energía se emite en forma de radiación al resto de planetas, lunas, asteroides y cometas que componen nuestro sistema solar.

Nuestro planeta recibe energía solar anualmente a un ritmo promedio de 61.6 10× Kw /año de los cuales solo un 40% es aprovechable en áreas de corteza no oceánicas, aun así esta cifra representa varios cientos de veces la energía que se consume a nivel mundial, por otra parte se considera una fuente de energía descentralizada, limpia e inagotable ya que la vida remanente del Sol previa a su transformación a gigante roja (y destruir la Tierra en el proceso) está estimada en unos 94 10× años.

Este aprovechamiento energético esta condicionado por la intensidad local de la energía recibida, los ciclos anuales y los ciclos día noche, también por las condiciones climatológicas medias de una zona, (días de sol pleno, nublados, y lluviosos).

Como es de imaginar, no todas las superficies reciben la misma cantidad de energía. Así, mientras los polos son los que menor radiación reciben, los trópicos son los que están expuestos a una mayor radiación. Esto tiene su explicación en el grado de inclinación de del eje de rotación de nuestro planeta con respecto al plano orbital que es de (23,5°), entonces, la intensidad de radiación no será igual cuando los rayos solares estén perpendiculares a la superficie irradiada que cuando el ángulo de incidencia sea más oblicuo, tal y como ocurre en los polos. Fig.12.1_1 8 (los términos están definidos para el hemisferio norte).

Fig.12.1_1

La declinación del Sol, pues, es la razón de que los mayores valores de radiación no se produzcan en el ecuador sino en latitudes por encima y por debajo de los trópicos de Cáncer y Capricornio. En estas zonas es donde los rayos solares son más perpendiculares y atraviesan la capa atmosférica según un camino más corto hasta llegar a la superficie. La Energía solar puede aprovecharse cuando la misma es transformada a calor o electricidad, y en un sentido amplio la energía hidráulica y la eólica provienen también de la energía solar en forma indirecta, pero en estos casos se considera que hubo una conversión climatológica primaria.

Page 201: Manual de Energías Renovables

  2

Otra forma usual de aprovechamiento sin recurrir a dispositivos específicos, radica por ejemplo en el aprovechamiento de la luz solar como fuente de iluminación natural pero evitando el calentamiento de los ambientes por radiación, estos emprendimientos se denominan aprovechamientos bioclimáticos en arquitectura.

En sentido más estricto, referimos como aprovechamiento de la energía solar a una conversión directa a través de algún dispositivo de la radiación solar misma.

El espectro de radiación de luz visible se da en la Fig. 12.1_2 siguiente, no obstante se considera que todo el espectro puede ser aprovechado en particular la radiación más energética, es decir desde los UV cercanos a los IR cercanos. Los diversos proyectos en energía solar aprovechan diferentes zonas del espectro, por ejemplo para las naves espaciales que operan más allá de la atmósfera, se aprovecha la región UV lejanos o sea la radiación UV de altas frecuencias. Para aprovechamientos a nivel del suelo, donde la atmósfera ha efectuado un filtrado de la radiación de la energía UV de alta frecuencia en la capa de ozono, se aprovecha el espectro de la luz visible.

 

Fig. 12.1_2

12.2.- Procesos de Conversión.

Como habíamos dicho, el aprovechamiento de la Energía solar en forma directa requiere de la utilización de dispositivos que capten la energía proveniente del Sol y la transformen en otra forma de energía compatible con la demanda que se pretende satisfacer, Para ellos existen dos alternativas posibles que son:

A.- la conversión Fotovoltaica.

B.- la conversión Foto térmica.

A.- Conversión de la Energía Solar Fotovoltaica.

La conversión fotovoltaica busca transformar directamente la radiación solar en electricidad, este proceso se basa en el denominado ”efecto fotoeléctrico” este consiste básicamente en que la Física considera a la radiación formada por fotones que son considerados pequeños paquetes de energía cuantificados que se trasportan como ondas e impactan como corpúsculos, al impactar sobre las superficies metálicas o sobre placas semiconductoras arrancan electrones, este proceso actualmente se hace eficiente utilizando celdas fotovoltaicas las cuales son placas de material semiconductor de gran pureza (típicamente de silicio o germanio) dosificados con pequeñas cantidades de otras sustancias, y que al contacto con la radiación solar se polarizan creando una tensión entre sus caras, formando así una fuente electro motriz o “fem”.

Page 202: Manual de Energías Renovables

  3

Los componentes de un sistema fotovoltaico dependen del tipo de instalación que se considere, puede por ejemplo estar conectada al red o bien formar un sistema autónomo destinado a un aprovechamiento local en particular, en ambos casos el sistema debe incluir los dispositivos destinados a regular almacenar y transformar la energía eléctrica y que son los siguientes:

1.- Celdas Fotovoltaicas.

Son los paneles que producen la conversión de energía solar en eléctrica por efecto fotoeléctrico, los más comunes están realizados con silicio cristalino. y se denominan de primera generación. La incidencia de la radiación sobre el panel crea una diferencia de potencial que conectada con un circuito de carga se transforma en corriente eléctrica aprovechable, los primeros desarrollos se realizaron en los años 50s y 60s principalmente para su incorporación a los satélites como fuente de energía renovable.

La eficiencia de conversión media obtenida por las células de primera generación disponibles comercialmente (producidas a partir de silicio monocristalino de alta pureza) está alrededor del 11-12%, pero según la tecnología utilizada varía desde el 6% de las células de silicio amorfo hasta el 14-19% de las células de silicio monocristalino.

También existen celdas de segunda generación basadas en multicapas, normalmente de Arseniuro de galio, que alcanzan eficiencias del 30%. En laboratorio se ha superado el 42% con nuevos paneles experimentales.

La vida media útil a máximo rendimiento de una celda se sitúa en torno a los 25 años, período a partir del cual la potencia entregada disminuye.

A un grupo interconectado de celdas fotoeléctricas para energía solar se le denomina panel fotovoltaico. Los paneles fotovoltaicos consisten en una red de células solares conectadas como circuito en serie para aumentar la tensión de salida hasta el valor deseado (usualmente se utilizan 12V ó 24V) a la vez que se conectan varias redes así formadas en circuitos paralelo para aumentar la corriente eléctrica que es capaz de proporcionar el dispositivo. Fig.12.2_1.

Fig.12.2_1

1.1.- Principio de funcionamiento

Electrones y Huecos.

Como sabemos, la materia está compuesta por átomos, los cuales a su vez están formados por dos partes bien diferenciadas: el núcleo, dotado de carga eléctrica positiva (protones y neutrones) y los electrones, que giran alrededor del núcleo en diferentes bandas de energía, con carga negativa que compensa a la del núcleo, en condiciones normales, el átomo se mantiene estable y es eléctricamente neutro.

Page 203: Manual de Energías Renovables

  4

A los electrones de la última capa u orbital externo del átomo se les ha dado el nombre de electrones de valencia y tienen la característica de poder relacionarse con otros similares, formando para los sólidos una red cristalina.

En base al comportamiento de los electrones de esta última capa, se puede hacer una división de los materiales sólidos en: conductores, semiconductores y aislantes. En los conductores los electrones exteriores se intercambian en la red cristalina con suma facilidad, esta cualidad va disminuyendo para los semi conductores, (típicamente Germanio y Silicio) hasta hacerse nula en los aisladores.

Cuando un fotón proveniente de la radiación choca contra un trozo de un semiconductor pueden pasar tres cosas:

El fotón atraviesa el panel y sigue su camino. Esto ocurre cuando la energía del fotón es menor que la energía que liga a los electrones de la última capa con su núcleo.

El fotón es reflejado por la superficie de silicio. En este caso, la energía del fotón es mayor que la del enlace.

El fotón es absorbido por el silicio. Esto ocurre cuando la energía del fotón es similar a la energía que liga a los electrones de valencia con el núcleo del semiconductor.

En este último caso, el fotón cede su energía al electrón y típicamente rompe el enlace que le vincula al núcleo, quedando libre el electrón para circular por el material semiconductor.

El lugar dejado por el electrón se llama hueco y puede considerarse como una locación vacía en el orbital, ávida por capturar un electrón de la vecindad, por eso se lo puede considerar como que tiene carga positiva (igual a la del electrón pero de distinto signo, debido a su capacidad como atractor de electrones).

Estos huecos o locaciones también se “desplazan”, ya que el electrón liberado susceptible de caer en un hueco próximo ha liberado otra locación generando un hueco en otra posición, es como si el hueco hubiera migrado desde su locación original a la nueva.

Un hueco que ha sido llenado por un electrón desaparece, pero como el electrón capturado proviene de otro átomo, se liberó un hueco, y es como si el hueco original hubiera migrado desde una posición a otra. Este fenómeno en que un electrón ocupa la posición dejada por otro, se conoce con el nombre de recombinación.

Cuando la luz solar bombardea con fotones la superficie de un semiconductor, los pares de (electrones – huecos) creados se desplazan hacia zonas no iluminadas donde se recombinan y estabilizan al perder actividad. Sin embargo al moverse ambos en la misma dirección, no se produce corriente eléctrica. Para que se produzca una corriente eléctrica es necesario que los electrones-huecos se muevan en direcciones opuestas. Esto se puede conseguir creando un campo eléctrico en el interior del semiconductor.

En resumen en un semiconductor expuesto a la luz, un fotón de energía arranca un electrón, creando al pasar un «hueco». Normalmente, el electrón encuentra rápidamente otro hueco para volver a llenarlo, y otro electrón de una posición más lejana rellena el reciente hueco creando otro hueco y la energía proporcionada por el fotón se disipa.

El principio de una celda fotovoltaica es obligar a los electrones y a los huecos a avanzar hacia lados opuestos del material en lugar de simplemente recombinarse en el interior del material, así se producirá una diferencia de potencial y por lo tanto tensión entre las dos partes del material, como ocurre en una pila. Para que lo anterior ocurra es necesario crear dentro del semiconductor un campo eléctrico.

Page 204: Manual de Energías Renovables

  5

1.2.- La región N y la región P.

Existen varias formas de crear un campo eléctrico en el interior de un semiconductor, casi todas ellas se basan en el potencial de contacto y la afinidad que ciertos materiales metálicos tienen por los electrones. En las celdas solares, lo que se suele hacer es unir dos regiones del silicio que han sido tratadas químicamente de forma diferente.

Una de las regiones, la denominada n ha sido dosificada o dopada, o impurificada con fósforo. El fósforo tiene 5 electrones de valencia en su orbital externo, uno más que el silicio.

Cuando un átomo de fósforo (símbolo químico P) se inserta en la matriz de Silicio se integra en la red cristalina que solamente le requieren 4 electrones de enlace quedando un electrón formando parte del núcleo de fósforo pero con un enlace muy débil, que se rompe incluso a temperatura ambiente dejando libres a estos electrones provenientes del fósforo en la matriz de silicio.

Fig.12.2_2.

Como el fósforo es neutro cuando tiene 5 electrones en el orbital externo, al perderlo el átomo queda con una polarización positiva, la situación se representa en la figura siguiente

La región es denominada n porque la matriz contiene electrones libres representados con (-), los círculos con signo (+) representan los átomos de fósforo que ahora tienen polaridad ligeramente positiva por haber perdido un electrón. La zona rayada, indica la matriz de silicio monocristalina básica.

La otra región, a ser tratada antes de hacer la unión es denominada p, en este caso ha sido dopada con boro. El boro tiene sólamente tres electrones de valencia, por lo que su afinidad para captar electrones es mayor que la del silicio puro. Una representación de la región se da en la figura siguiente, Fig.12.2_3.

Fig.12.2_3

En este caso a las uniones intercristalinas del Boro con el silicio les falta un electrón ya que se requieren 4 y se tienen 3. A la temperatura ambiente todos los átomos de impureza han adquirido un nuevo electrón cedido por los átomos de silicio de la matriz que queda entonces

Page 205: Manual de Energías Renovables

  6

con huecos; los átomos de impureza de Boro aparecen con los círculos con signo (-), ya que tienen una carga negativa adicional y se convierten en iones negativos. Los signos (+) son huecos dispersos de la matriz de silicio.

Si ahora unimos estas dos regiones n y p solidarizándolas por alguna técnica de fusión por compresión, se producirá en la zona de unión una ecualización de las cargas sueltas de la matriz en esa región; es decir que los electrones cubrirán los huecos pero dejando iones negativos de un lado y positivos de otro, creando una barrera de potencial o campo eléctrico que impide que los electrones pasen hacia el otro lado de la barrera esta se denomina “barrera de potencial” Fig.12.2_4.

Fig.12.2_4

La unión n-p así formada va a presentar una diferencia de potencial ante la presencia de radiación que hace que los electrones liberados se acumulen en la zona n y los huecos en la zona p, produciéndose una diferencia de potencial. Ahora explicaremos este proceso.

Primero debemos decir dos cosas, por un lado la zona de unión donde se presenta la barrera de potencial que la hemos dibujado ancha con propósitos didácticos es en realidad muy delgada de solamente unos pocos micrones. Por otra parte la placa metálica conductora superior, está calada o es en realidad un enrejillado para dejar la matriz de silicio monocristalino expuesta a los rayos solaresFig.12.2_5.

Fig.12.2_5

Page 206: Manual de Energías Renovables

  7

El proceso se puede describir de la siguiente forma, y se representa en la figura siguiente 12.2_6:

a.- Cuando la radiación solar incide en la placa superior tipo n, la radiación desprende electrones de la matriz de silicio (zona rayada) debido a que la energía de la misma es suficiente para quitar un electrón del orbital exterior de silicio y paralelamente formar un hueco.

b.- El electrón pasa a ser uno más de los electrones libres en la matriz y no puede atravesar la barrera de potencial (negativa) donde tampoco hay huecos para tomar, por lo cual se van acumulando, y el mejor lugar para ubicarse es en la placa del enrejillado conductor metálico superior al ser también rechazados por el campo eléctrico y los electrones flotantes de la matriz.

c.- El hueco formado por acción del fotón en la fase a, va siendo ocupado por los electrones libres de la matriz, y entonces el hueco va migrando hacia “el territorio de los huecos” hacia la juntura p.

d.- Al cerrarse el circuito de carga por el exterior, el electrón circula externamente y se une finalmente y neutraliza con un hueco de la juntura p haciendo el camino largo.

e.- Entonces, al cerrarse el circuito de carga se establece una corriente eléctrica desde el cátodo al ánodo, la circulación de electrones tiene el sentido opuesto. Si el circuito de carga está abierto, la celda fotovoltaica es una fuente de tensión. Si el circuito se cierra el electrón circula por el camino exterior desde el ánodo al cátodo y cuando llega captura un hueco y se neutraliza en la matriz, el proceso genera una corriente eléctrica a través del circuito de carga.

Fig 12.2_6.

Page 207: Manual de Energías Renovables

  8

1.3.- Estructura de una celda fotovoltaica.

• La capa superior de la celda se compone de silicio dopado de tipo n. En esta capa, hay un número de electrones libres mayor que una capa de silicio puro, de ahí el nombre del dopaje n, con carga negativa (electrones). El material permanece eléctricamente neutro, es la red cristalina quien tiene globalmente una carga negativa.

• La capa inferior de la celda se compone de silicio dopado de tipo p. Esta capa tiene por lo tanto una cantidad media de electrones libres menor que una capa de silicio puro, los electrones están ligados a la red cristalina que, en consecuencia, está cargada positivamente. La conducción eléctrica está asegurada por los huecos, positivos (p).

En el momento de la creación de la unión p-n, en el espacio de fusión, los electrones libres de la capa n entran en la capa p y se recombinan con los huecos en la región p.

Existirá así durante toda la vida de la unión, una carga positiva en la región n a lo largo de la unión (porque faltan electrones) y una carga negativa en la región en p a lo largo de la unión (porque los huecos han desaparecido); la zona de la unión forma entonces lo que se denomina “barrera de potencial” o también «Zona de Carga de Espacio» (ZCE).

Así se forma un campo eléctrico entre las dos. Este campo eléctrico hace de la ZCE un diodo, que solo permite el flujo de corriente en una dirección: los electrones pueden moverse de la región p a la n, pero no en la dirección opuesta y por el contrario los huecos no pasan más que de n hacia p.

En funcionamiento, cuando un fotón arranca un electrón a la matriz, creando un electrón libre y un hueco, bajo el efecto de este campo eléctrico cada uno va en dirección opuesta: los electrones se acumulan en la región n (para convertirse en polo negativo), mientras que los huecos se acumulan en la región dopada p (que se convierte en el polo positivo).

En suma, una celda fotovoltaica es el equivalente de un Generador de Energía a la que hemos añadido un diodo. Una celda ideal puede ser modelada como una fuente eléctrica conectada con un diodo en paralelo. En la práctica, no existen celdas ideales, por lo que se colocan un resistencia en paralelo y una resistencia en serie, para indicar las pequeñas fugas de energía por funcionamiento. Fig.12.2_7

Fig.12.2_7

Es preciso añadir contactos eléctricos en las placas (y que la placa en el lado de la radiación permita pasar la luz): en la práctica esto se hace mediante un contacto de rejilla, se añade además una capa antireflectante para garantizar la correcta absorción de fotones, etc.

1.4.- Circuito Fotovoltaico.

Lo presentamos en sus dos alternativas,

a.- como circuito autónomo Fig.12.2_8

Page 208: Manual de Energías Renovables

  9

Fig.12.2_8

b.- conectado a la red general, Fig.12.2_9

Fig.12.2_9

1.5.- Placas Fotovoltaicas.

Son un conjunto de celdas fotovoltaicas conectadas entre sí en serie o serie paralelo, que generan electricidad en corriente continua. Para su mejor aprovechamiento se busca orientarlas (teniendo en cuenta la ubicación y latitud) con el fin de obtener un mayor rendimiento promedio para el día de luz solar y acoplarlas a veces a dispositivos de seguimiento para la búsqueda de la mayor intensidad de la luz solar.

Page 209: Manual de Energías Renovables

  10

 

 

Fig.12.2_10

1.6.- Regulador de Carga.

Tiene por función proteger a la batería contra las sobrecargas y contra las descargas. Además se emplea para proteger a las cargas en condiciones extremas de operación, y para proporcionar información al usuario.

1.7.- Baterías.

Son el almacén de la energía eléctrica generada. En este tipo de aplicaciones normalmente se utilizan baterías estacionarias, las que tienen como característica de operación más importante el ciclado; es decir durante un ciclo diario, la batería se carga durante el día y se descarga durante la noche; sobrepuesto al ciclado diario hay un ciclo estacional, que está asociado a períodos de reducida disponibilidad de radiación.

1.8.- Inverter o Inversor.

Para la aplicación tipo b, o en red, transforma la corriente continua (de 12, 24 o 48 V) generada por las placas fotovoltaicas y acumulada en las baterías a corriente alterna (110 o 220 V y 60 Hz o 50 Hz respectivamente).

Para los aprovechamientos tipo a, el dimensionamiento de una instalación aislada requiere disponer de información relativa al consumo previsto de energía del lugar que se ha de electrificar y de la disponibilidad media de radiación solar a lo largo del año.

Debido a los costos que actualmente maneja esta tecnología, se recomienda el uso de aparatos de bajo consumo, el sobrecosto que estos a veces pueden tener, se compensa por la reducción en el costo de la instalación fotovoltaica.

Con respecto, a los elementos de los sistemas conectados a la red, los módulos fotovoltaicos son los mismos que se emplean en instalaciones aisladas. Debido a que la energía producida va directamente a la red, la diferencia fundamental de estas instalaciones radica en la ausencia de acumuladores y de regulador de carga. Respecto al tipo de inversor empleado, normalmente se usan aparatos de mayor potencia que incluyen controladores de fase para adecuar la corriente alterna a la que circula por la red.

Page 210: Manual de Energías Renovables

  11

La tabla siguiente indica los consumos promedio de varios artefactos:

 

 

Fig.12.2_11

La Fig.12.2_11, nos muestra una instalación aislada “tipo a” en la que se combinado energía solar y eólica, la caja celeste de la casamata representa el regulador y la caja vertical azul el pack de baterías, el regulador gris es el que se utiliza para la bajada de la eólica, los artefactos alimentados y la iluminación están basados en corriente continua (tomas rojas, hacia los artefactos).

Page 211: Manual de Energías Renovables

  12

B.- Conversión de Energía Solar a Térmica.

Este aspecto contempla la transformación de la energía de la radiación solar en energía de radiación de calor, o bien en vapor para se utilizado en una turbina de vapor y crear electricidad a través de un generador acoplado, su principal componente es el captador que consiste básicamente de una pantalla reflectante de forma parabólica pasando la cañería de captación en la posición referida al foco que es el punto donde todos los haces reflejados por la pantalla convergen.

Otro tipo de captador consiste en un grupo de espejos que son enfocados para reflejar la luz solar y concentrarla a un solo punto.

De acuerdo con la temperatura de aprovechamiento se pueden clasificar los sistemas en tres clases:

Mayores de 300ªC de alta Temperatura. Desde 100ªC hasta 300ªC de mediana Temperatura. Hasta 100ºC se denominan de baja Temperatura.

B1. Captadores para alta temperatura

Los sistemas solares térmicos de alta temperatura están referidos a grandes emplazamientos habitualmente en zonas desérticas o semi desérticas, con mucha estacionalidad de luz solar.

La Fig.12.2_12, muestra el aprovechamiento basado en un captador de espejos, que envían la luz a un enfoque focal denominado Helióstato, el grupos de espejos que enfocan una torre hace que el aire atrapado en el recinto del helióstato pueda alcanzar temperaturas cercanas a los 4000 ºC, en su vecindad se agrupan serpentines de tubería por donde circula agua que es calentada y enviada a una caldera productora de vapor en su circuito secundario (circuito rojo).

Fig.12.2_12

El vapor producido en la caldera se hace evolucionar en una Turbina de vapor, que mueve un eje en la salida que produce Trabajo de eje (We), este trabajo alimenta un Generador eléctrico (en naranja).

El vapor ya aprovechado se envía a un condensador y a través de una bomba de nuevo al circuito secundario de la caldera, donde su ciclo se reinicia, Por otra parte el agua que sale del circuito primario de la caldera después de haber trasmitido su calor, es reenviada al Helióstato a través de otra bomba.

Page 212: Manual de Energías Renovables

  13

Una vez que el vapor ha evolucionado dentro de la turbina sale de la misma a baja presión y es enviado a un condensador donde las tuberías están bañadas por agua líquida, el vapor se condensa en agua líquida y esta es impulsada nuevamente dentro de la caldera para su nueva conversión en vapor.

Otro tipo de aprovechamiento basado en sales se observa en la Fig.12.2_13 en lugar de tuberías con circulación de agua se utilizan sales fundidas que también son transportadas por bombas, en este caso se evitan las tuberías de serpentinas mas complejas, las sales calientes, se hacen pasar a una caldera acuotubular que genera vapor y este se hace evolucionar en una turbina de vapor.

 

Fig.12.2_13

B2. Captadores para medianas temperaturas

En cuanto a las aplicaciones de mediana temperatura, Fig.12.2_14 normalmente se realizan en colectores parabólicos extensos los que concentran la radiación solar en un tubo colector encargado de recibir y trasportar el agua y el calor incorporado por circuitos convectivos, o también reciclados por bombas, el agua no cambia de estado, este calor se aprovecha para calefaccionar agua en la tubería que es enviada a un sistema de tanques acumuladores.

Fig.12.2_14

Page 213: Manual de Energías Renovables

  14

B3. Captadores para bajas temperaturas

El principio de funcionamiento se basa en un tipo de captador plano que funciona como una “trampa de calor” esta conjuga el “efecto de cuerpo negro” con el “efecto invernadero”, el cuerpo negro absorbe la radiación visible de todo el espectro, y el efecto invernadero interior de la caja trata de evitar la irradiación de este calor hacia el exterior,.Gracias a este sistema de captación se consigue entonces, absorber la mayor parte de la radiación solar que llega hasta la superficie y devolver la menos posible. Un esquema general se presenta en la Fig.12.2_15.

Fig.12.2_15

El principal componente del sistema es el captador plano, destinados por lo general a la producción de agua caliente sanitaria, están recubiertos de una caja herméticamente cerrada. Fig.12.2_15b. En la cara superior de esta caja (interiormente pintada de negro mate), se coloca una superficie acristalada que deja atravesar la radiación solar e impide que se pierda la ganancia térmica obtenida. Generalmente la carcasa que envuelve al equipo de captación es metálica, aunque en algunos casos puede ser de plástico especial o de algún otro material. En el interior del sistema captador se encuentra la placa absorbedora, que es el lugar donde se realiza la captación de la radiación solar propiamente dicha. Fabricada con materiales que conducen bien el calor (aluminio, cobre, planchas metálicas…), esta placa tiene un funcionamiento parecido al de un radiador: con una disposición de tubos que cuentan con una toma por donde entra el fluido a calentar y otra de salida. Pese a que existe un gran número de diferentes configuraciones de tubos internos, los tradicionales suelen utilizar los de tipo serpentina o los de tubo paralelo. Estos consisten en varios tubos de cobre, orientados sobre el plano captador, que se denomina placa absorbedora, por debajo posee una placa reflectante para irradiar la radiación no absorbida por los tubos y reingresar el calor al fluido circulante. Los tubos están en contacto con la placa absorbedora y son los tubos por donde circula el fluido no tiene porqué ser un elemento crítico del captador siempre que esté bien sellado con cualquiera de las técnicas de soldadura disponibles en estos momentos en el mercado.

Page 214: Manual de Energías Renovables

  15

Fig.12.2_15b

Debajo de la placa reflectante se dispone una capa de material aislante y después la carcasa de cierre de todo el conjunto.

para entender su funcionamiento volvemos a la Fig. 12.2_15, en ella vemos que hay una tubería principal del circuito primario, que después desemboca en el serpentín del colector, en esta tubería el agua efectúa un circuito de convección, (el agua más caliente sube y el agua más fría desciende), pasa por una válvula de una sola vía, que le obliga a hacer un circuito en el sentido de las agujas del reloj, que eventualmente puede pasar por un segundo circuito con un intercambiador y un depósito colector que debe estar bien aislado.

El depósito actúa como un intercambiador secundario donde el agua fría ingresa por debajo y sale por arriba más caliente.

12.3.- Aprovechamiento.

Independientemente de si el aprovechamiento es tipo B1, B2, o B3, el principal parámetro que caracteriza la eficiencia de cualquier captador solar es la curva de rendimiento. En general se define el rendimiento del captador como la relación entre el flujo energético que llega a la superficie de captación y la energía útil que se trasmite al fluido, de esta forma el rendimiento instantáneo de un captador varia en función de la radiación que esta siendo capturada, la temperatura del agua que entra al captador, la temperatura ambiente, la temperatura de la superficie captadora que a su vez depende de los materiales etc.

/ ( )( )E E solarutilη =

La tecnología fotovoltaica actualmente ya es competitiva para electrificar emplazamientos alejados de las líneas eléctricas como, por ejemplo, viviendas rurales, bombeo de agua, señalización, alumbrado público, equipos de emergencia, etcétera.

Sus principales ventajas son:

- Evitar un costoso mantenimiento de líneas eléctricas en zonas de difícil acceso.

- Eliminar los costos ecológicos y estéticos de la instalación de líneas en esas condiciones.

- Contribuir a evitar el despoblamiento progresivo de determinadas zonas.

- Es una energía descentralizada que puede ser captada y utilizada en todo el territorio.

- Una vez instalada tiene un costo energético nulo.

- Mantenimiento y riesgo de avería muy bajo.

- Tipo de instalación fácilmente modulable, con lo que se puede aumentar o reducir la potencia

instalada fácilmente según las necesidades.

Page 215: Manual de Energías Renovables

  16

- No produce contaminación de ningún tipo.

- Se trata de una tecnología en rápido desarrollo que tiende a reducir el costo y aumentar el rendimiento.

Los sistemas fotovoltaicos se pueden clasificar en dos grandes grupos de acuerdo a si están conectados a la red de distribución eléctrica o no.

Los que no están conectados a la red suelen cubrir pequeños consumos eléctricos en el mismo lugar en el que se produce la demanda, por ejemplo para electrificación de hogares alejados de la red eléctrica, alumbrado público, aplicaciones agrícolo – ganaderas, señalización y comunicaciones, sistemas de depuración de aguas.

A diferencia de estos, los sistemas conectados a la red se ubican en forma de centrales fotovoltaicas en sistemas integrados en edificios.

Por su parte, la energía solar térmica de acuerdo a su uso final, se puede clasificar en función de la temperatura del aprovechamiento, B1 B2 o B3 según vimos, esto dependerá de sus distintos usos finales ya sea como generación, calefacción, secado, destilación de agua, cocción de alimentos. Su empleo abarca todos los sectores tanto doméstico como industrial.

Las aplicaciones a baja temperatura B3, se emplean principalmente para la obtención de agua caliente para uso sanitario o para calefacción de recintos. Estas aplicaciones se pueden clasificar en función del fluido que calientan los captadores (agua o aire), o bien en función del tipo de captador empleado. Estos generalmente suelen emplear agua y se suelen clasificar en captadores planos vitrificados (con y sin cubierta) y los captadores de techo.

La arquitectura bioclimática, también denominada arquitectura solar pasiva, hace referencia a las formas en que la energía solar se capta, se almacena y se distribuye en la estructura de un edificio, se trata en definitiva del diseño ambiental amigable y aporte de soluciones constructivas que permiten que un determinado edificio capte o refleje la energía solar según la época del año a fin de reducir las necesidades de calefacción, refrigeración o iluminación.

Los principales elementos que combina la arquitectura bioclimática son conceptos relativos a:

- El entorno climático;

- La forma, orientación y distribución de los edificios;

- Los techos, el aislamiento y la inercia térmica, paneles vidriados inteligentes, etc.

Page 216: Manual de Energías Renovables

  17

A diferencia de la tecnología fotovoltaica y fototérmica, el aprovechamiento mediante las técnicas de arquitectura bioclimática, está basado en principios Termodinámicos y de Transferencia de Calor, que nos dicen que la energía fluye del foco caliente al frío, y nos definen comportamientos y leyes para la transferencia de calor por conducción, convección y radiación, técnicas de enfriamiento por evaporación, etc. en base a esto y de acuerdo al tipo de aplicación que se quiera lograr, se realizan y optimizan los diseños de arquitectura.

[]

 

Page 217: Manual de Energías Renovables

Energía y Radiación.

Empezamos hoy una serie de charlas en la que vamos a zambullirnos en el mundo fascinante de la física cuántica., vamos a tratar de hacerlo manteniendo las matemáticas al margen en la medida de lo posible no porque haya nada de malo en ellas, sino porque en esta sala puede haber personas algo olvidadas de los libros de texto, aplicaremos solo algunas muy simples y estamos aquí para divertirnos y compensar eso. De ahí el nombre de Cuántica sin fórmulas.

Antes de meternos en tema quiero dedicar esta entrada a establecer unas bases que (espero) les ayuden a asimilar más fácilmente los conceptos de los siguientes encuentros. La razón es que, más incluso que en el caso de la relatividad, la cuántica es contraria a nuestra intuición, y para poder empezar a entenderla es necesario ser consciente de ciertos prejuicios e ideas preconcebidas que todos (y me incluyo) tenemos. De modo que, en cierto modo, van a recibir un pequeño sermón. Preparados?

En primer lugar, y como hice en el comienzo de la serie de Relatividad sin fórmulas, tengo que pedirte que tengan paciencia. Sí, estoy seguro de que quieres recorrer los vericuetos de la cuántica ahora mismo, pero créanme – es muy probable que, si empezamos ahora mismo, no creerán nada de lo que voy a contarles, porque muchas de las cosas de las que vamos a hablar son totalmente contrarias a la intuición. De ahí la necesidad de estos párrafos: tengo que prevenir contra esa intuición y contra el “sentido común”, que son nuestros peores enemigos al estudiar estos temas

El diccionario da las siguientes dos definiciones de “intuición” relevantes a lo que nos ocupa:

• Facultad de comprender las cosas instantáneamente, sin necesidad de razonamiento. • Percepción íntima e instantánea de una idea o una verdad que aparece como evidente

a quien la tiene.

Esta intuición es una herramienta muy útil: es una manera de entender cosas y adaptarse al medio que nos rodea rápidamente, sin necesidad de pensar cuidadosamente sobre las cosas, cuando ese medio y esas cosas son similares a los que entrenaron la intuición que trata de comprenderlos. La manera más fácil de entender lo que quiero decir es poner un ejemplo (sobre todo, uno en el que puedan ver las dos caras de la moneda):

Cuando se explica a muchos escolares que, si te encuentras en el vacío del espacio interestelar, lejos de cualquier cuerpo, y lanzas una pelota hacia delante a 10 km/h, esa pelota seguirá moviéndose para siempre a esa velocidad sin que nadie le dé energía, la mayor parte no se lo creen al principio. Pero, si dejas de empujar un cuerpo, ¿no debería frenar hasta pararse?, dicen.

¿Por qué piensan esto? Porque se lo dice su intuición, que se ha desarrollado en un medio en el que casi todos los cuerpos sufren rozamiento y se paran, salvo que sigas empujándolos. Suelen tardar algún tiempo (en general, no mucho, porque hay algunas situaciones similares en su entorno, como un patinador en el hielo) en desterrar las conclusiones de su intuición y aceptar las de la lógica, pero normalmente lo consiguen.

Lo mismo sucedería si explicases a un hombre primitivo que la Tierra es una esfera que gira alrededor del Sol – para él, sería una idea tan fantástica y absurda que ni siquiera se la tomaría en serio. La rechazaría sin pararse a razonar sobre ella: la rechazaría su intuición.

Sin embargo, el concepto de que un cuerpo sólo se frena si alguien ejerce una fuerza sobre él, o de que la Tierra no es plana, no son enormemente anti-intuitivos, sólo ligeramente: los hay peores. El concepto de que, cuanto más rápido te mueves, más lentamente ven los demás que pasa el tiempo para ti… eso sí que va contra la intuición. Por eso mucha gente, cuando lee sobre relatividad, se rebela a aceptar las conclusiones de la lógica, porque van contra su intuición. Lo mismo ocurre con la cuántica.

Page 218: Manual de Energías Renovables

2

Todo este repetitivo discurso tiene que ver, por cierto, con un artículo reciente que hemos leido, el de la Paradoja de Monty Hall, sugiero que busquen el tema en Internet, y luego lo discutimos, pero la conclusión a la que arribaremos es: si tienes que elegir entre las conclusiones de la lógica y las de la intuición, elige la lógica y destierra la intuición. Si no lo haces, algo que era una herramienta útil para las situaciones en las que ha sido entrenada se convierte en un obstáculo para entender las situaciones para las que no ha sido entrenada.

Por si te ayuda, la mayor parte de los físicos que sembraron las semillas de la física cuántica se resistieron a aceptar las conclusiones que se obtenían de sus propios descubrimientos. Sin embargo, fíjate en lo que Bohr dijo de Max Planck, uno de los reticentes padres de la cuántica:

“Era por naturaleza y por la tradición de su familia conservador, reticente ante las novedades tecnológicas y escéptico frente a las especulaciones. Pero su convicción en el poder imperativo del razonamiento lógico basado en los hechos era tan fuerte que no dudó en expresar una afirmación que contradecía cualquier tradición, porque se había convencido de que no había otra explicación posible”.

Max Planck – lógica antes que intuición.

Lo que le sucedió a Planck no fue único: la mayor parte de los físicos que establecieron las bases de la cuántica se sentirían incómodos al principio con lo “anti-intuitivo” de la teoría.

Algunos de ellos, como Albert Einstein, nunca la aceptarían, y tratarían de desmontarla (sin éxito) durante el resto de su vida. Otros aceptaron la precisa explicación que daba la nueva teoría de los fenómenos físicos antes inexplicables.

De manera que esto es lo que les pido para encarar esta serie: que, como Planck, olviden sus ideas preconcebidas sobre lo que es “de sentido común”, que presten oídos sordos a una intuición que no está preparada para juzgar las situaciones que van a estudiar, que destierren cualquier herramienta de entendimiento que no sea la fría lógica.

Desde luego, no es posible transmitir un conocimiento profundo de la cuántica sin utilizar matemáticas complicadas, como los espacios de Hilbert, pero significa eso que sólo un puñado de “elegidos” pueden atisbar de qué se trata la teoría? trataremos de demostrar lo contrario.

De todos modos, también les prevengo contra cualquiera que te diga que entiende perfectamente la física cuántica. En palabras de Niels Bohr,

“Cualquiera que piense que puede hablar sobre la teoría cuántica sin marearse ni siquiera ha empezado a entenderla”.

Page 219: Manual de Energías Renovables

3

En cualquier caso, haré lo posible por transmitir lo que entiendo bien y es posible explicar sin utilizar fórmulas, de modo que tal vez les sirva como un primer paso para leer textos más académicos.

Como dijimos en la serie sobre relatividad, a finales del siglo XIX la sensación general era que el próximo siglo se dedicaría a perfeccionar detalles, limar zonas ásperas y terminar de explicar algunas cosas que no tenían una explicación adecuada con las teorías clásicas (las “intuitivas”). Estos “pequeños flecos” de la física fueron el germen de las dos grandes teorías físicas del siglo XX: la Teoría de la Relatividad de Einstein y la Teoría Cuántica, elaborada por varios físicos y poco a poco, como veremos a lo largo de la serie.

En la serie sobre relatividad ya hablamos acerca de los “flecos” que precedieron a esa teoría. En esta serie vamos a hablar sobre los que conciernen a la teoría cuántica, pequeños detalles que resultaron ser la punta del iceberg: cuando pensábamos que entendíamos cómo funciona el Universo salvo esos pequeños detalles nos dimos cuenta – justo mirando con cuidado esos pequeños detalles – de que sabíamos bastante menos de lo que pensábamos.

Hay varios de esos “flecos” que tienen que ver con la cuántica, pero vamos a centrarnos en los dos más importantes: la radiación de cuerpo negro y el efecto fotoeléctrico, por qué no tenían sentido – y cómo el explicarlos desencadenaría una revolución aún mayor que la de la relatividad.

1.- La radiación de Cuerpo Negro.

En la introducción de la serie Cuántica sin fórmulas mencionamos los pequeños “flecos” que harían tambalearse a la física clásica hasta que algunas de las cosas evidentes e intuitivas que todo el mundo daba por sentadas demostraron ser totalmente falsas. Hoy vamos a dedicarnos al primero de estos “flecos”, y la semilla de la teoría cuántica, mientras que en la próxima entrada hablaremos del segundo.

Como veremos, ambos son relativamente similares: en ambos casos existe un fenómeno físico del que no tenemos una explicación coherente. En ambos se propone una explicación que se ajustaría perfectamente a la realidad, pero cuyas consecuencias lógicas acerca de cómo es el Universo son tremendas. Y ambos proponentes de estas explicaciones son muy reacios a aceptar esa nueva concepción del Universo, a pesar de ser ellos mismos los que las han planteado.

El primero de ellos, al que está dedicado este artículo, es la radiación de cuerpo negro y la hipótesis de Planck. Dicho mal y pronto, h = 6,626·10-34[Joule.seg] ≠ 0… y el mundo es un lugar muy, muy raro como consecuencia de eso.

A finales del siglo XIX, tanto la termodinámica como el electromagnetismo eran ramas muy sólidas de la física y explicaban excelentemente bien casi todos los fenómenos relacionados con ellas. En algunos de ellos, ambas tenian incumbencia a la vez, y uno de ellos era el problema de la radiación de cuerpo negro.

Un cuerpo negro es, como su propio nombre indica, un cuerpo que absorbe absolutamente toda la radiación electromagnética que recibe: ni refleja ni transmite nada de radiación. Un cuerpo de este tipo no es necesariamente de color negro: realmente absorbe toda la energía que recibe y no refleja nada, pero eso no quiere decir que él no emita parte de esa radiación. Como absorbe toda la radiación que recibe, si le proporcionamos mucha energía se irá calentando hasta brillar. Puedes pensar en un tizón de madera totalmente negro como un cuerpo negro: si se calienta mucho es una brasa, brilla, no porque refleje luz sino porque emite la suya propia.

Igual que un tizón de madera, según su temperatura, brilla de un color o de otro (rojo profundo si no está demasiado caliente, amarillo si está más caliente, etc.), un cuerpo negro ideal emite radiación con una distribución de frecuencias determinadas. Esta radiación, denominada

Page 220: Manual de Energías Renovables

4

radiación de cuerpo negro, sigue una curva conocida por los físicos de la época. Dependiendo de la temperatura del cuerpo, la radiación emitida varía, de modo que cuanto más caliente está el pico de radiación se corre hacia la izquierda y menor es la longitud de onda (y mayor la frecuencia) en la que presenta el máximo de emisión:

Crédito: Wikipedia (GPL).

El eje vertical representa la energía emitida en cada nanómetro del espectro electromagnético, [KJoule / nanómetro] , las unidades se entienden mejor si la intensidad de la radiación es indicada de acuerdo a la Ley de Stefan: 4w e Tσ= la intensidad w en [J/m2 seg] , T es la temperatura absoluta y σ, una cte. de proporcionalidad 5.66E-8 en unidades MKS, y e un factor adimensional de emisividad que depende de la superficie (material y rugosidad superficial) y el horizontal la longitud de onda [nanómetro]. el espectro de luz visible está en un entorno de los 5000 Angstrom, (entre 400 y 750 nm).

Como puedes ver, cuanto más caliente está el cuerpo, más radiación emite (lógico), y más hacia la izquierda está el máximo de emisión: un cuerpo bastante frío emite casi toda la energía en la región infrarroja y no lo vemos brillar, un cuerpo más caliente brilla con color rojo, uno muy caliente sería blanco azulado, etc, según la curva tiene un máximo más hacia la izquierda. Una vez más, lógico.

Page 221: Manual de Energías Renovables

5

Las teorías de la época suponían que la superficie del material estaba compuesta por una infinidad de osciladores muy pequeños (que hoy diríamos que son los átomos del material) que se encuentran vibrando alrededor de un punto de equilibrio. Cuanto más caliente está el material, más rápido y con mayor amplitud vibran esos minúsculos osciladores, que pueden emitir parte de la energía que tienen en forma de onda electromagnética. Al emitir esta energía, oscilan más despacio: es decir, se enfrían.

Al aplicar estas teorías clásicas a la radiación de cuerpo negro, se obtenía una curva teórica de la radiación emitida…y ninguna curva teórica coincidía con la curva real. La más conocida era la propuesta por Lord Rayleigh en 1900, y perfeccionada por Sir James Jeans en 1905. Era elegante, se deducía de manera lógica a partir de las teorías conocidas… y predecía que un cuerpo negro debería emitir una energía infinita.

La curva que se obtenía a partir de la fórmula de Rayleigh - Jeans se ajustaba muy bien a la curva real para longitudes de onda largas, pero para longitudes de onda cortas divergía de una forma exagerada: mas o menos coincidía hasta cerca de los máximos pero después seguía creciendo casi exponencialmente no es que fuera algo desencajada en ese rango, es que era totalmente imposible. En descargo de Rayleigh y Jeans, los dos (y también Einstein) se dieron cuenta muy pronto de que esa aproximación teórica era imposible.

Esta imposibilidad disgustó mucho a los físicos. De hecho, el fracaso de la ley propuesta por Rayleigh y Jeans suele llamarse “catástrofe ultravioleta” (pues la divergencia se producía para pequeñas longitudes de onda, en la región ultravioleta) que demandaban entregar grandes cantidades de energía por cada frecuencia. Sin embargo, alguien había resuelto el problema sin encontrarse con ninguna “catástrofe” cinco años antes, aunque haciendo una suposición que no gustaba a nadie (ni a su propio creador): el genial físico alemán Max Planck.

A veces se dice, incluso en algunos textos de física, que fue Planck quien se dio cuenta de la “catástrofe ultravioleta” y propuso una fórmula alternativa para resolverla, pero esto no es cierto: Planck había obtenido su fórmula en 1900, cinco años antes de que nadie se diera cuenta de la “catástrofe”. Además, la ley de Rayleigh - Jeans se basa en algunas suposiciones (como el principio de equipartición) con las que Planck no estaba de acuerdo. El ppio. de equipartición dice mas o menos que:

En la física estadística si disponemos de un numero muy grande de sistemas (tales como n moléculas de un gas) que están en interacción estadística entre ellas, la energía disponible estará repartida o distribuida igualmente entre todas ellas si la energía disponible es E , cada molécula tendrá una energía media E/n

Es mejor hacer una analogía con una cuerda de violín, la onda más larga tendrá un λ de 1, o sea: 2 / 2λ , y las ondas más cortas posibles son 2 / 3λ , 2 / 4 / 2λ λ= , 2 / 5λ , etc. no hay un limite inferior para las longitudes de onda de las vibraciones EM , y pasamos desde una frecuencia dada a la luz visible, UV rayos X rayos gamma etc, o sea la ley de equipartición se encuentra con infinitas longitudes a la izquierda de una longitud dada y la energía disponible debería ser dada siempre a las ondas más cortas, porque son infinitas a la izquierda de la longitud de onda dada..

Lo que sucedió en 1900, al mismo tiempo que Lord Rayleigh obtenía su propia fórmula e independientemente de él, fue lo siguiente: Planck era consciente de que ninguna de las teorías del momento producía una curva de emisión que coincidiera con la real.

Sin embargo, haciendo simplemente una pequeña, una minúscula suposición, y realizando los cálculos de nuevo, se obtenía una fórmula que se ajustaba milimétricamente a la realidad. Una fórmula de una precisión enorme, que explicaba todos los experimentos realizados con cuerpos negros.

Page 222: Manual de Energías Renovables

6

Esa suposición era simplemente una pequeña argucia matemática, a la que Planck, en principio, no dio mucha importancia, ni consideró como una concepción del Universo físico. La suposición era que los minúsculos osciladores que componían la materia no podían tener cualquier energía arbitraria, sino sólo valores discretos entre los cuáles no era posible ningún valor.

Dicho de otra manera, lo que todo el mundo (incluyendo al propio Planck) consideraba lógico e intuitivo es que un oscilador puede oscilar como le dé la gana. Por ejemplo, si haces oscilar una hamaca o un péndulo, puedes darle un golpe pequeño (poca energía) o uno grande (mucha energía), de modo que oscile poco o mucho: entre cualquier par de péndulos idénticos que oscilan puedes imaginar otro que oscila con más energía que el primero y menos que el segundo. A continuación puedes fijarte en el primero y el que acabas de inventar: entre ellos puedes imaginar otro que oscile con un poco más de energía que el primero y menos que el segundo, etc.

En la reunión de navidad de 1899 de la Academia de Ciencias de Alemania, Max Planck propuso la idea de que la radiación para cada frecuencia tiene o emite un paquete de energía cuantificado dependiente decada rango de frecuencia que se puede describir con la fórmula:

E hυ=

donde h es una cte. Universal ya indicada y υ la frecuencia menor del rango.

Era como que Planck suponía que independientemente de la energía impartida en un en diferentes rangos, un péndulo no puede oscilar con la energía que le dé la gana, sino en un modo dado para cada rango, entre dos rangos contiguos vamos a tener dos péndulos oscilando con dos energías sin que sea posible que exista ningún péndulo con una energía intermedia, entonces todos los cálculos que realizaba concordaban a la perfección con la realidad. En palabras de George Gamow era como poder tomar una pinta de cerveza o nada, pero ninguna cantidad intermedia.

De modo que Planck publicó sus cálculos y su suposición en 1901, y durante cuatro años nadie le prestó mucha atención. Aunque no vamos a entrar en fórmulas, Planck supuso que los pequeños osciladores de la materia podían oscilar sólo con energías que fueran múltiplos enteros de una “energía fundamental” que era proporcional a la frecuencia con la que oscilaban mediante una constante que probablemente era muy pequeña.

Pero piensa en lo que significa la hipótesis de Planck: si tienes un péndulo oscilando y le vas dando energía, no la adquiere de forma continua, como si subiera una pendiente poco a poco. Es como si la energía que puede tener fuera una escalera, y tú puedes hacer que suba un escalón de la escalera, o dos, o tres… pero no que se quede entre dos escalones. De ahí que la posterior teoría cuántica, de la que la hipótesis de Planck es el germen, se llame así: la hipótesis de Planck es que la energía de cualquier oscilador está cuantizada, es decir, no tiene valores continuos sino discretos: “escalones” de energía, que hoy llamamos cuantos de energía.

Desde luego, algo parecido había ocurrido antes en física al estudiar la materia: algunos pensaban que la materia era continua, y que un trozo de madera podía ser roto en dos trozos iguales, éstos en dos trozos iguales, y así ad infinitum. Otros pensaban que la materia estaba compuesta de trozos discretos, y que no era posible tomar una cantidad arbitraria de materia, sino sólo un múltiplo entero del valor mínimo de materia posible, que no era posible dividir: el átomo. Sin embargo, es relativamente sencillo asimilar que la materia esté cuantizada. Imaginar la energía como cuantizada es mucho más difícil.

Page 223: Manual de Energías Renovables

7

En cualquier caso, Einstein fue el primero en recordar a los otros físicos, cuando se dieron cuenta de la “catástrofe ultravioleta”, que la hipótesis de Planck había producido una fórmula que no tenía este problema y que, además, predecía con enorme perfección las observaciones realizadas. El problema, por supuesto, era que aceptar la fórmula de Planck suponía aceptar su hipótesis, y las implicaciones físicas eran escalofriantes , incluso para el propio Planck.

Pero, puesto que es difícil discutir con un modelo que predice la realidad mejor que cualquier otro, la teoría de Planck fue aceptada, y Max Planck obtuvo el Premio Nobel de 1918, según la Academia “en reconocimiento de los servicios que rindió al avance de la Física por su descubrimiento de los cuantos de energía”. Desde luego, Planck no utilizó la palabra “cuanto” al proponer su teoría, y le costaría años reconciliarse con las implicaciones de su hipótesis, que fue sin duda su mayor logro. La cuántica es así de irónica, e historias similares se repetirían más adelante.

Hoy en día nadie duda de que la hipótesis de Planck es cierta, pero ¿por qué diablos no la notamos? Cuando yo empujo un columpio, o veo vibrar una cuerda, o un péndulo oscilar, no veo que haya valores de energía discretos entre los que hay “huecos”. No veo cuantos, no veo escalones, veo un continuo de energía. La razón es que son escalones minúsculos. Tampoco veo átomos por la misma razón, pero ahí están.

Para que te hagas una idea, si tengo un péndulo oscilando una vez por segundo, y el péndulo tiene una energía de 2 Joules, el siguiente escalón por encima de 2 Joules está en 2 + 6.63 E-34 Julios. (y no puede haber un cambio continuo en el periodo de oscilación) No hay ningún valor posible de energía entre esos dos valores. ¡Por supuesto que no veo el escalón! Cualquier tipo de energía que yo le pueda dar al péndulo va a ser muchísimo más grande que ese valor tan pequeño, de modo que nunca podría darme cuenta, en mi mundo cotidiano, de que no es posible que tenga una energía intermedia.

Pero, querido lector, ten en cuenta esto: 6,63·10-34 Julios no es 0 Julios. Y esa pequeña diferencia, como veremos a lo largo de esta serie, hace que el Universo sea absoluta, totalmente diferente a lo que nuestra intuición nos dice que deberían ser las cosas.

El principio de incertidumbre de Heisenberg, la dualidad onda-corpúsculo, el hecho de que los agujeros negros “se evaporen”… todo empieza en esta hipótesis aparentemente inofensiva.

En su hipótesis, como hemos dicho, Planck supuso que el tamaño de estos “escalones” era proporcional a una constante (que fue calculada más tarde, como veremos en el próximo artículo de la serie), la constante de Planck, que hoy sabemos que tiene un valor de

6,626·10-34 [Joule . seg].

Toda la teoría cuántica, y la diferencia entre el Universo “intuitivo” y el “cuántico”, se basan en ese hecho:

6,626·10-34 ≠ 0.

Bienvenidos al mundo cuántico.

[]

2.- El efecto Fotoeléctrico.

Tras realizar un pequeño preludio y hablar sobre la hipótesis de Planck, continuamos hoy la en las charlas Cuántica sin fórmulas hablando acerca del segundo paso que derrumbaría las suposiciones de la física clásica y revolucionaría la física del siglo XX aún más que la relatividad. Este segundo paso, como veremos, se basa en el primero, y tiene ciertos paralelismos con él. Me refiero al efecto fotoeléctrico.

Page 224: Manual de Energías Renovables

8

Este efecto era uno de los pocos fenómenos que no tenían una correcta explicación teórica a finales del siglo XIX (lo mismo que la radiación de cuerpo negro, de la que ya hablamos y que Planck logró justificar mediante su hipótesis), y consiste en lo siguiente: si se coge un trozo de un metal y se hace incidir luz sobre él, en particular luz UV, la placa se cargaba positivamente porque perdía electrones, y para detener la expulsión habia que “negativizarla” a través de un circuito básico como se ve en la figura (tomadas del magnifico libro Biografía de la Física de George Gamow).

La luz de un arco que contiene una gran cantidad de rayos UV sale de una fuente A, y pasa a través de un sistema de dos lentes de cuarzo y de un prisma que separa las distintas longitudes de onda, el rayo seleccionado (y la frecuencia dada por el color) se puede cambiar mediante la rotación del prisma, entra por una ventana de cuarzo W en un tubo de vacío T y pasa a través de un agujero a través de un cilindro de cobre C y cae sobre la placa de metal Pl, que puede ser de diferentes materiales, un potencial eléctrico variable entre la placa y el cilindro, retarda el efecto de los fotoelectrones emitidos, la batería y el reóstato suministran una tensión variable, mientras que el galvanómetro G mide la corriente. cuando el potencial eléctrico aplicado multiplicado por la carga del electrón es igual a la energía cinética de los electrones que se desprenden, la corriente se detiene, entonces se halla la relación entre la frecuencia de la luz y la velocidad de los fotoelectrones.

En la otra figura de este par, observamos los resultados que se obtienen al realizar las diversas pruebas y experimentos con el circuito, que no son mas que la obtención y la descripción de las dos leyes fundamentales de Efecto fotoeléctrico.

Page 225: Manual de Energías Renovables

9

A partir de estos estudios surgieron dos leyes para explicar el efecto fotoeléctrico.

1.- para una frecuencia dada (el parametro de la recta de la fig izquierda), la energía de los fotoelectrones no cambia pero su numero aumenta en proporción directa a la intensidad de la luz.

2.- cuando la frecuencia de la luz incidente cambia, no se emiten electrones hasta que se alcanza cierto umbral de frecuencia (que depende del metal). Para frecuencias más altas la energía aumenta en proporción directa a la diferencia entre la frecuencia empleada y la frecuencia umbral.

A veces la luz es capaz de arrancar electrones del metal y hacer que se salten de la placa, produciendo así una carga eléctrica positiva – de ahí el nombre del efecto, “electricidad producida con luz”.

Pero la clave está en el “a veces”, y ahí es donde los físicos se mesaban los cabellos con preocupación.

Los científicos se dedicaron, por supuesto, a pensar por qué se producía y cuándo debería producirse el efecto fotoeléctrico (que debería involucrar partes de la ciencia bien desarrolladas como el electromagnetismo), y la teoría clásica razonaba de la siguiente manera:

La luz transporta energía. Cuando la luz choca contra el metal, le transfiere energía. Si esa energía es suficiente para arrancar electrones, se produce el efecto fotoeléctrico, y si no es suficiente, no ocurre nada. De manera que si, por ejemplo, apunto una bombilla muy tenue contra una chapa de metal, no se produce efecto fotoeléctrico, pero si aumento la potencia de la bombilla mil veces, se producirá el efecto.

Pero esto no pasaba. Si la bombilla tenue (emitiendo en una frecuencia definida) no era capaz de producir el efecto fotoeléctrico, entonces por mucho que aumentara la intensidad de la luz, diez, mil, un millón de veces, no salía ni un solo electrón del metal. También pasaba al revés, claro: si la bombilla era capaz de arrancar electrones del metal, era posible disminuir su potencia todo lo que se quisiera: incluso un debilísimo rayo de luz de la bombilla era capaz de arrancar electrones – arrancaba menos electrones que la luz potente, pero los arrancaba. Y esto no tenía absolutamente ningún sentido. (grafica de la izquierda).

Page 226: Manual de Energías Renovables

10

De qué dependía entonces que se produjera el efecto, si no era de la intensidad de la luz? Los científicos, por muy tercos que fueran tratando de explicar las cosas con la teoría clásica, son científicos: se dedicaron a cambiar otras condiciones del experimento hasta llegar a una conclusión absurda, imposible, totalmente inaceptable – el factor que decidía que se arrancaran electrones era el color (frecuencia) de la luz de la bombilla. Dicho en términos más técnicos era la frecuencia de la radiación, pero nuestros ojos “ven” la frecuencia de la luz como el color, de modo que nos vale con eso.

Es decir, que si usaramos para el experimento una bombilla cuyo color pudiéramos hacer variar siguiendo los colores del arco iris (los físicos de la época iban más allá de la luz visible, pero una vez más nos vale con esto), desde el rojo al violeta, al principio no se producía el efecto. Pero llegaba un momento, que dependía del metal que se tratase (y no dependía para nada de la intensidad de la luz) en el que empezaban a arrancarse electrones – supongamos que al llegar al amarillo. Si se seguía variando el color a lo largo del arco iris, cualquier color pasado el amarillo en ese recorrido (por ejemplo, el violeta) también arrancaba electrones.(grafica de la derecha).

La intensidad de la luz sí tenía cierto efecto, como hemos dicho: si un rayo de luz roja (por ejemplo) no producía el efecto, por muy intensa que fuera la luz no ocurría nada. Pero si un rayo de luz amarilla sí lo producía, entonces al aumentar la intensidad de la luz aumentaba el número de electrones arrancados. Sin embargo, incluso esto no encajaba con la teoría clásica: aumentaba el número de electrones arrancados (la intensidad de la corriente), pero no la energía de cada electrón (el voltaje de la corriente), que era absolutamente igual para la luz amarilla independientemente de la intensidad. (grafica de la izquierda) Es decir, si la luz amarilla producía electrones con una determinada energía cada uno, multiplicar la intensidad de la luz por cien hacía que salieran cien veces más electrones del metal, pero todos con la misma energía que cuando salían menos. La verdad es que era desesperante.

Pero es que la cosa no acaba ahí: la frecuencia (el color) de la luz no sólo determinaba si se producía el efecto o no. Además, la energía de cada electrón (que ya hemos dicho no dependía de la intensidad) aumentaba según la frecuencia de la luz aumentaba. (grafica de la dereecha)

Es decir, que si se usaba luz azul, los electrones tenían más energía que si se usaba luz amarilla. Pero ¿qué demonios tenía que ver el color de la luz con la energía de los electrones?

La solución la dio el siempre genial Albert Einstein, (en 1905) quien, recordemos, ya había apuntado a la hipótesis de Planck como la solución teórica al problema de la radiación de cuerpo negro. Einstein aplicó el razonamiento lógico y extrajo una conclusión inevitable de la hipótesis de Planck – aplicar la lógica y extraer conclusiones eran cosas en las que Einstein era un genio sin igual. El razonamiento fue el siguiente:

Si los pequeños osciladores que componen la materia sólo pueden tener unas energías determinadas, unos “escalones de energía” que son proporcionales a la constante de Planck y a la frecuencia con la que oscilan, ¿cómo será la energía que absorben y desprenden? La luz, al fin y al cabo, sale de estos osciladores. Una bombilla, por ejemplo, brilla porque los átomos del filamento están muy calientes y desprenden energía electromagnética, que ellos mismos pierden. Pero si los osciladores pierden energía, no pueden perder una cantidad arbitraria: deben “bajar la escalera” de energía y, como mínimo, perder un “escalón”. De forma inevitable, la energía luminosa que desprenden no puede ser arbitraria, tiene que estar hecha de estos “escalones”.

Page 227: Manual de Energías Renovables

11

Einstein en 1905, cuando publicó su explicación del efecto fotoeléctrico.

Si lo piensas, es totalmente lógico (aunque generó una gran polémica al principio): si las fuentes de luz sólo pueden estar en los escalones de energía que propuso Planck, y cuando emiten luz es porque pierden energía, la luz que emiten debe estar hecha de esos “escalones”. No es posible emitir una cantidad arbitrariamente pequeña de energía luminosa: sólo puede tenerse luz “en píldoras”. La luz está cuantizada.

Naturalmente, un físico que se precie no habla de “píldoras”, “escalones” o “trozos” de luz. Einstein llamó a este concepto Lichtquant, “cuanto de luz”. En 1926, Gilbert Lewis propuso otro nombre, que es el que usamos hoy en día: fotón. Durante el resto de este artículo hablaremos de fotones, aunque Einstein no los mencionara en la publicación en la que propuso su existencia.

Cuando se considera el efecto fotoeléctrico en términos de fotones, todo tiene sentido: la luz que llega al metal está compuesta de fotones. Cada uno de ellos tiene una energía proporcional a la constante de Planck y la frecuencia de la radiación. Si la luz es muy intensa (una bombilla muy grande y potente), hay muchos fotones. Si la luz cambia de color pero no de intensidad, hay el mismo número de fotones, pero cada uno tiene más energía (hacia el azul) o menos energía (hacia el rojo).

Cuando uno de estos fotones llega al metal y choca con un electrón, puede darle su energía: si esta energía es suficiente para arrancarlo del metal, se produce el efecto fotoeléctrico, y si no es suficiente, no pasa nada. La cuestión es que la interacción se produce entre un fotón y un electrón – no entre “toda la luz” y “todos los electrones”, porque tanto la luz como la materia están cuantizadas. ¿De qué depende entonces de que se produzca el efecto? De la frecuencia de la luz, es decir, del color. Si es luz roja (por ejemplo), cada fotón tiene muy poca energía. Tal vez haya muchísimos fotones, pero a este electrón en particular sólo le afecta el que ha chocado contra él, y si éste no tiene suficiente energía para arrancarlo, de modo que no sucede nada.

Si se tiene luz con una gran frecuencia (por ejemplo, azul), cada fotón tiene mucha energía: proviene de un “escalón grande” de Planck. Cuando choca con un electrón puede darle suficiente energía para arrancarlo del metal, y entonces se produce el efecto fotoeléctrico.

Claro, si esta luz azul es muy intensa (hay muchos fotones), y cada uno arranca un electrón, se arrancarán muchos electrones, exactamente como sucede en la realidad. Pero si cada fotón no hubiera tenido suficiente energía para arrancar a su electrón, por muchos fotones que hubiera, no pasaría nada en absoluto.

Page 228: Manual de Energías Renovables

12

Puede que se pregunten, OK,, pero no puede el electrón recibir un fotón con poca energía, “guardarse la energía” que le ha dado el fotón, aunque no sea bastante, y esperar al siguiente fotón, y así hasta tener suficiente energía para escapar?

No, recuerden la hipótesis de Planck. Si un fotón no tiene suficiente energía para arrancar el electrón es porque el escalón de energía es demasiado bajo. Un electrón no puede tener “un poquito más de energía” arbitrariamente: o tiene la que tiene ahora, o tiene la del siguiente escalón.

Si el fotón no tiene suficiente energía para arrancar el electrón no puede sumar la energía del siguiente electrón porque pasaría a tener un escalón es demasiado alto, de modo que el electrón ni siquiera puede almacenar la energía del fotón, porque esto lo pondría “entre dos escalones” y tampoco podría saltar. De modo que se queda exactamente como estaba antes, por muchos fotones de poca energía que le lleguen. Estos fotones, al no poder ser absorbidos por el electrón, continúan su camino, y probablemente acabarán dando su energía a algún átomo, haciéndolo vibrar más rápidamente (es decir, calentando el metal), pues los “escalones” necesarios son ahí más pequeños que los necesarios para arrancar el electrón.

Y, por supuesto, si la luz tiene una frecuencia altísima, los electrones arrancados tendrán una gran energía (y la corriente, un gran voltaje): el fotón tiene mucha energía, y gasta parte de ella en arrancar el electrón. El resto se la queda el electrón en forma de energía cinética, pues el fotón ha desaparecido: un fotón es un “escalón”, y no puede romperse y dar parte de su energía. O está, o no está. Cuando le da su energía al electrón, se da entero. El electrón, entonces, tiene mucha energía.

Mientras que si la frecuencia de la luz es sólo la necesaria para arrancar al electrón y nada más, el electrón tiene muy poca energía. Una vez más, coincidía a la perfección con los experimentos.

Pero la teoría de Einstein no sólo coincidía con la realidad cualitativamente, sino que era capaz de realizar predicciones cuantitativas: si la energía de cada fotón era proporcional a la constante de Planck y a la frecuencia de la luz,

E hυ=

entonces la energía de los electrones arrancados debería aumentar proporcionalmente a la frecuencia de la luz. Aunque cueste creerlo, en 1905, cuando Einstein publica su propuesta, aún no se había medido cuantitativamente la energía de los electrones arrancados. En 1915, Robert Andrews Millikan realizó experimentos muy precisos: la energía de los electrones aumentaba de forma lineal con la frecuencia, exactamente lo que Einstein había predicho.

Parte de la comunidad científica aún se resistía a aceptar la existencia del Lichtquant, pero una vez más, aceptando una idea aparentemente absurda y contraria a la intuición (que la luz está hecha de paquetes o cuantos), los experimentos se explicaban con una precisión indiscutible.

Albert Einstein recibió el Premio Nobel en 1921 por su explicación del efecto fotoeléctrico, siguiendo los pasos de Planck – y, como él, muy reacio a aceptar las implicaciones posteriores de su teoría, de las que hablaremos en otras charlas posteriores en la serie.

La pregunta inmediata, por supuesto, es: si la luz está hecha de pequeños paquetes, ¿por qué la vemos de forma continua? Nadie ve “trocitos” de luz, no, y la respuesta (que ya deberías saber, si has entendido lo comentado hasta ahora) es que son demasiado pequeños.

Page 229: Manual de Energías Renovables

13

Si recuerdan la hipótesis de Planck, la energía de cada escalón es minúscula y, por lo tanto, la energía de cada fotón es igualmente minúscula. Cuando nos llega, por ejemplo, la luz del Sol, está hecha de fotones, pero cada segundo llegan a nuestro ojo unos veinte trillones de fotones: 20.E18 fotones. ¿Pero cómo vamos a distinguir que no es un “chorro” de energía sino un “goteo”? Es imposible.

La explicación de Einstein del efecto fotoeléctrico tiene implicaciones profundas sobre nuestro concepto del Universo: la luz era, para la comunidad científica, clara e indiscutiblemente una onda, como el sonido o las olas. Sufría fenómenos, como la interferencia y la difracción, que sólo sufren las ondas. Sin embargo, ahora llegaba Einstein y decía que la luz estaba compuesta de lo que, a todos los efectos prácticos, (ATEP) eran pequeñas partículas… cómo podía la luz sufrir difracción si estaba hecha de fotones? Pero ¿cómo podía la luz producir el efecto fotoeléctrico si no estaba hecha de fotones? La solución de Einstein generaba preguntas aún más difíciles de responder: ¿era la luz una onda o partículas trasportadas unas tras otras como los vagones de un tren?

La solución, por supuesto, es el tercer paso en nuestra caída de la realidad objetiva, y el responsable fue otro genio del razonamiento lógico: el francés Louis-Victor-Pierre-Raymond, séptimo Duque de Broglie (normalmente conocido como Louis de Broglie). Pero, antes de acabar de responder a la pregunta sobre las ondas y las partículas, en la próxima charla trataremos otra aplicación de la hipótesis de Planck a un problema sin responder: el modelo atómico de Bohr y el nacimiento del término “mecánica cuántica”.

Page 230: Manual de Energías Renovables

MÓDULO: 13. ENERGÍAS RENOVABLES. ENERGÍA NUCLEAR DE FISIÓN

13.1.-Introducción y definiciones.

Básicamente, la energía nuclear es la energía que se libera al dividir el núcleo de un átomo de alto número másico (fisión nuclear) o al unir dos átomos de bajo número másico para convertirse en un átomo individual (fusión nuclear). De hecho, la palabra nuclear viene de núcleo.

Cuando se produce una de estas dos reacciones físicas (la fisión o la fusión nuclear) los los núcleos y por tanto los átomos experimentan una ligera pérdida de masa. Esta masa que se pierde se convierte en una gran cantidad de energía calorífica como descubrió el Albert Einstein con su famosa ecuación 2E Mc= , E es la energía en Joules, M es el defecto de

masa en Kg y c es la velocidad de la luz, (aproximadamente 113 10× m/seg,) pero esto lo sabemos ahora, como sucedieron las cosas?

Uno de los aspectos que más desconcertaban a los fiscos de principios del siglo XX era que el peso atómico o número másico, definido como el peso de protones más neutrones de un átomo (que en principio era calculada como la cantidad de veces que un átomo es más pesado que el hidrógeno que es el elemento más liviano, y que se toma como una unidad de peso), era que de algunos de los 92 elementos químicos de la tabla periódica, por no decir la mayoría de ellos presentaban pesos atómicos fraccionarios, por ejemplo el Cloro: 35.5 , poco después se descubrió que esto era debido a variaciones alotrópicas de dos tipos de isótopos de cloro con idénticas propiedades químicas pero pesos atómicos 35 y 37 que estaban presentes y que entonces hacían que la mezcla tal como se encuentra en la naturaleza, tuviera como promedio ese peso atómico. La prueba de la existencia de isótopos fue el primer indicio de que los núcleos atómicos podrían contener cantidades no fijas de protones y neutrones.

Por otra parte, el primer descubrimiento de la radiactividad lo realizó Henry Becquerel en 1896 , al exponer cristales de “Uranilo” (bisulfato de uranio y potasio) con una placa fotográfica, el uranilo que tenia una fosforescencia leve natural (y era usado para pintar los números y agujas de los relojes para verlos en la oscuridad) era capaz de imprimir la placa aun si esta estaba envuelta en un paño negro.

Era una radiación semejante a la de los rayos X descubiertos con anterioridad pero a diferencia de estos que requerían de una fuente de emisión de rayos catódicos (electrones), la radiación del uranilo era natural propia de los cristales de las sales de uranio.

Fig.13.1_1 credito “Physics Biography” de George Gamow

Page 231: Manual de Energías Renovables

2

En la Fig.13.1_1 se observa un dibujo realizado a pluma por el eminente físico George Gamow, donde se ve el principio de formación de los rayos X, junto a sus descubridores, Max von Laue, a izquierda y Wilhem Roentgen a la derecha. Un tubo de vidrio al vacío era cargado eléctricamente con alta tensión produciéndose un desprendimiento de electrones desde el ánodo al cátodo, si este tenía un plano inclinado, el choque de los electrones producía una radiación de alta frecuencia, capaz de atravesar tejidos blandos y reproducir los huesos en una placa fotográfica, también eran capaces de atravesar varios milímetros de plomo.

Posteriormente, María Curie descubre que las propiedades del uranilo, eran causadas por el Uranio presente en la sal, y descubre propiedades semejantes (radiación natural) en otros elementos químicos básicos de la tabla periódica, algunos descubiertos por ella como fueron el Torio, el Polonio y el Radio, algunos años después otros investigadores descubren el Actinio.

Todos estos elementos tienen una característica en común, provenían de átomos de gran peso atómico y por ende con un gran número de nucleones o sea protones y neutrones en sus núcleos.

En esa época los físicos identificaron tres tipos de radiación asociados con los procesos radiactivos que llamaron:

rayos alfa: que en realidad eran núcleos de Helio de bajo poder penetrante y carga positiva.

rayos beta: que eran electrones emitidos en haces rápidos y con mayor poder penetrante por ejemplo una lámina de aluminio de varios milímetros, y capaces de generar rayos X.

rayos gamma: que era una radiación detectada de una gran penetración (varios centímetros de plomo) con una frecuencia muy alta superior a la de los rayos X .

Los procesos observados que involucraban radiactividad son una consecuencia de la desintegración natural espontánea de algunos átomos pesados que se desintegran en otras partes de menor número de masa mediante sucesivos cambios desde el material básico hasta el plomo, pasando por isótopos intermedios, con expulsión de rayos alfa y beta (expulsión de masa) y radiación (rayos gamma). En cada etapa dan lugar a elementos intermedios cuya vida natural es variable desde pocos segundos a miles de años.

Las familias naturales que se han detectado son tres, con unos períodos de desintegración muy altos que por eso permiten que aún las encontremos en la Tierra, estas son:

Familia del Uranio (238) con un período de desintegración total de 94.5 10× años.

Familia del Torio con un período de 171.3 10× años

Familia del Actinio con un período de 85 10× años.

13.2.- Composición del núcleo atómico.

Los núcleos atómicos están formados por protones y neutrones, las últimas teoría físicas indican que ellos a su vez están formados por otras sub partículas elementales denominadas “quarks”, que definen la naturaleza constitutiva del protón y el neutrón a través de tríos de quarks, Fig.13.2_1.

Page 232: Manual de Energías Renovables

3

Fig.13.2_1 crédito “El gran diseño” de Stephen Hawking

Entonces los tríos de quarks componen los núcleos, formando los protones y neutrones. Según este modelo, cada protón esta formado por dos quarks “Up” cada uno con carga eléctrica (+2/3), y un quark “Down” con carga eléctrica (-1/3) por tanto la carga eléctrica del protón es:

+(2/3) +(2/3 )- (1/3) = + 1

y la de un neutrón:

- (1/3) - (1/3) + (2/3) = 0

En la figura se aprecian una especie de adhesivo trasparente o pegamento entre ellos, esto es un modelo intuitivo de lo que se denomina “Fuerza Nuclear Fuerte” que mantiene unidas a las partículas y también a los neutrones y protones dentro del núcleo atómico, esta fuerza ínter nuclear tiene la particularidad que aumenta cuando las partículas tienden a alejarse entre si, (como si fuera una especie de resorte de tracción), es una fuerza muy poderosa que supera la tendencia a repelerse de las cargas eléctricas de igual signo, en este caso los protones, por lo cual los protones (cuando hay más de uno en el núcleo) y los neutrones se mantienen empaquetados en los núcleos sin dispersarse.

La fuerza fuerte si bien muy poderosa tiene un alcance muy corto, del orden de 1510 m− que es el tamaño aproximado de los núcleos atómicos.

En los núcleos de los elementos más pesados, el número de neutrones supera el número de

protones, por ejemplo: 226Ra88 indica que el Radio, contiene 226 neutrones y 88 protones, es una especie de condición inestable que contribuye a los procesos de recombinación interna del núcleo, proceso que da lugar también a la emisión de rayos beta.

13.3.- Las cuatro fuerzas de la naturaleza.

La física actual considera que todo lo que existe esta constituido por partículas (que en ciertas circunstancias se comportan como ondas), existen dos grandes grupos de partículas:

Las que constituyen la materia ordinaria y se denominan Fermiones en recordación del gran físico Enrico Fermi, (quarks y electrones), y

Las que constituyen los mensajeros de las fuerzas de intercambio entre la materia, que se denominan Bosones. denominados en recordación del físico: Satyendra Nath Bose. 

O sea las fuerzas de intercambio son interacciones de partículas mensajeras (bosones) con partículas de materia (fermiones), algo así como si dos patinadores sobre hielo (entes materiales) se arrojasen pelotas que el otro debe recoger, y esta coreografía los mantiene unidos; estas partículas trasmisoras de fuerza son de cuatro tipos.

la Fuerza Nuclear Fuerte, ya citada que mantiene unidos a los quarks y a los núcleos atómicos; esta partícula de intercambio se denomina “gluón”.

Page 233: Manual de Energías Renovables

4

la Fuerza Nuclear Débil, que en ciertos casos hace que un neutrón: ( 10n ) se desintegre

en un protón y un electrón; esta partícula de intercambio se denomina “bosón debil”.

El Electro magnetismo, que genera fuerzas debidas al intercambio de “fotones”.

La Gravedad que involucra el intercambio de partículas denominadas “gravitones”.

13.4.- Energía producida por Fisión Nuclear.

La fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico, ocurre cuando un núcleo pesado ( de gran número másico) se divide en dos o más núcleos más pequeños, dando además algunos subproductos como neutrones libres, fotones (generalmente en forma de rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía).

Lo que caracteriza el proceso de fisión es que primero se producen los fragmentos o productos primarios, estas partes fragmentadas del núcleo comienzan su existencia con un estado de vibración violenta que despide algunas partes de unidades estructurales como núcleos de Helio (rayos alfa) y Neutrones libres energéticos. El número de neutrones desprendidos en promedio puede ser de dos para el Uranio 238 o de tres para el Plutonio.

Se consideran sustancias fisionables aquellas que superan una media de 2.2 neutrones rápidos producidos por impacto en un núcleo ya que esta cantidad puede disparar los procesos de reacción en cadena. Esto no lo cumple el uranio natural (U 238), pero si su isótopo natural el (U 235) que se considera la única sustancia natural fisionable capaz de disparar una reacción en cadena.

Pero el U 235 no existe en forma pura, solamente forma parte de una matriz de U 238 en un 0.7%, lo que impide los mecanismos de reacción en cadena en forma natural, de manera que las únicas maneras de obtener una cantidad de material fisionable de una única especie es separar el U235 del U 238, o bien neutralizar la acción del U 238 sin separarlos de la matriz base.

La separación directa de los dos isótopos representa un problema técnico dificultoso debido a que ambos presentan las mismas características químicas por lo que no pueden usarse métodos químicos convencionales. La única diferencia entre los dos tipos de átomos es que la masa del U 238 es un 1.6% superior a la del U 235, esto sugiere;

a.- un proceso de separación por difusión y centrifugado, o bien

b.-se puede quitar sus electrones y hacer pasar los iones positivos pesados a través de potentes campos magnéticos, con lo cual los más pesados y los menos pesados se separaran en haces diferentes, la dificultad de ambos métodos es que debido a la pequeña diferencia en masa la separación no se puede hacer en un solo paso sino por etapas.

Hay un tercer proceso para lograr la reacción en cadena sobre el mineral natural (U 238) que es reducir artificialmente su presencia o acción a través de las llamadas sustancias moderadoras. Para entender este proceso, debemos recordar que el efecto negativo del U 238 es la absorción en un gran porcentaje de los neutrones energéticos producidos por la primera reacción de fisión de un U 235, entonces previniendo la acción de que el núcleo del U 238 secuestre un neutrón antes de que este alcance a otro núcleo vecino de U 235 y produzca su fisión el problema podría resolverse.

Como en promedio tenemos 140 núcleos de U 238 por cada núcleo de U 235, en teoría si ambos tienen la misma capacidad para atrapar neutrones rápidos el U 238 capturaría 140 frente a uno capturado por el U 235. Sin embargo se observó que el U 235 es muchos más hábil para capturar neutrones lentos. La lenificación de neutrones puede hacerse por dilución del uranio natural (mezcla) en una sustancia como (agua pesada) o deuterio, polvo de carbón (carbono) o sales de berilio.

Page 234: Manual de Energías Renovables

5

La Fig.13.4_1 representa grumos de uranio (mezcla de U 238 y U 235 en parcelas grandes) embebidos en la sustancia moderadora (dibujado en parcelas chicas).

Dos neutrones resultantes de la fisión de un núcleo U 235 en el grumo de la izquierda, entran en el moderador y son lentificados gradualmente a través de colisiones intermedias con los núcleos del moderador, con el tiempo estos neutrones alcanzan otro grumo de uranio y ya con baja velocidad relativa puede ser más fácilmente capturados por un U 235 que es mucho más eficiente con los neutrones lentos que el U 238.

Fig.13.4_1 crédito “1,2,3..,infinito” de George Gamow

Sin embargo algunos neutrones aún son capturados por el U 238, cuya consecuencia inmediata es la creación de un núcleo más pesado, el U 239, pero su vida es efímera, ya que emite dos electrones, uno después del otro, dando lugar a un nuevo elemento, con número atómico 94 que es denominado Plutonio (Pu 239). El Plutonio, resulta aún más fisionable que el U 235.

Lo mismo ocurre cuando en lugar de partir de cristales de U 238 se parte de Torio (Th 232),el resultado de la captura del neutrón y la subsecuente emisión de dos electrones produce el Uranio 233 (U 233) que también es un elemento fisionable. De esta manera un primer ciclado de material semi fisionable da lugar en una segunda generación a elementos que son muy fisionables y fuentes de Energía Nuclear. Se considera que el Torio es cuatro veces más abundante que el Uranio natural, de manera que las reservas mundiales podrían asegurar unos dos mil años de Energía nuclear aprovechable.

La conversión de energía de la fuentes nucleares es tal que 1 Kg de mineral fisionable equivale a 20 000 000 de litros de gasolina si fuera usado como combustible.

13.5.- Mecanismo

La fisión de núcleos pesados es un proceso exotérmico lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas solamente las cortezas electrónicas del átomo; la energía nuclear se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.

Page 235: Manual de Energías Renovables

6

La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; estas partículas usadas son generalmente neutrones libres. Un neutrón libre es absorbido por el núcleo (por ejemplo uno de U 235), haciéndolo inestable (como una pirámide de naranjas en el supermercado llega a ser inestable si alguien lanza otra naranja en ella a la velocidad correcta).

El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones muy energéticos (en la frecuencia de los rayos gamma).

Los núcleos atómicos productos de la fisión son núcleos de otros elementos químicos de menor peso atómico y son lanzados dentro de la matriz. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con aproximadamente la mitad de protones y neutrones del átomo fisionado original.

Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante procesos de desintegración natural.

Fig.13.5_1

La Fig. 13.5_1 muestra un ejemplo genérico de fisión de un núcleo de Uranio (peso atómico 235) cuando es impactado por un neutrón rápido, la partícula puede alcanzar fácilmente al núcleo ya que por tener carga eléctrica neutra no tiene que vencer la barrera de potencial eléctrico positivo del mismo, el núcleo se torna inestable (en color lila) y luego se fisiona produciendo Criptón y Bario, más neutrones libres energéticos (en celeste) y rayos gamma o sea fotones energéticos de muy alta frecuencia (en amarillo).

Page 236: Manual de Energías Renovables

7

13.6.- Induciendo la fisión

La fisión nuclear de los átomos fue descubierta en 1938 por los investigadores Lise Meitner, Otto Hahn y Fritz Strassmann a partir del trabajo desarrollado por el propio Hahn junto a Lise Meitner durante años anteriores. (Meitner emigró de Alemania después de la consolidación del partido Nazi, y alertó a los países aliados sobre el avance de los desarrollos en Alemania, lo que puso en marcha la investigación en Estados Unidos).

Por este descubrimiento Otto Hann recibió en 1944 el Premio Nobel de química, pero el trabajo de Meitner quedó sin reconocimiento. El estudio de la fisión nuclear se considera parte de los campos de la química y la física.

Aunque la fisión es prácticamente la desintegración de materia radiactiva, producida sobre núcleos atómicos grandes e inestables, inducida a menudo de la manera más fácil posible que es a través del bombardeo del núcleo y la absorción por parte de este de un neutrón libre, puede también ser inducida lanzando otras cosas en un núcleo fisionable.

Estas otras cosas pueden incluir protones, otros núcleos (partículas alfa o sea núcleos de Helio), o aún los fotones de gran energía en cantidades muy altas (porciones de rayos gamma).

Muy rara vez, un núcleo fisionable experimentará la fisión nuclear espontánea sin un neutrón entrante, aunque de hecho ocurre.

Cuanto más pesado es un elemento (mayor peso atómico o número de masa) más fácil es inducir su fisión. La fisión en cualquier elemento más pesado que el hierro produce energía, y la fisión en cualquier elemento más liviano que el hierro requiere energía.

Lo contrario también es verdad en las reacciones de fusión nuclear (la fusión de los elementos más livianos que el hierro produce energía y la fusión de los elementos más pesados que el hierro requiere energía).

Los elementos más frecuentemente usados para producir la fisión nuclear son el Uranio, el Plutonio y el Torio. El Uranio es el elemento natural más pesado; el Plutonio experimenta desintegraciones espontáneas y tiene un período de vida limitado. Así pues, aunque otros elementos pueden ser utilizados, estos tres tienen la mejor combinación relativa a su abundancia y facilidad para el proceso de fisión.

13.7.- Reacción en cadena.

Una reacción en cadena es una secuencia de reacciones en las que un subproducto reactivo produce reacciones nucleares adicionales. En el caso expuesto en el párrafo anterior, los neutrones producidos en el primer impacto efectivo producen más neutrones energéticos que se dirigen a otros núcleos. Este proceso se llama:

Reacción en cadena de la fisión por neutrones :

Un neutrón más un átomo fisionable provocan una fisión que da lugar a un número mayor de neutrones que los que se consumieron en la reacción inicial, desencadenando el fenómeno de reacción en cadena, Fig.13.7_1

Page 237: Manual de Energías Renovables

8

Fig. 13.7_1

En la Fig 13.7_1 se da un esquema de una reacción en cadena de una fisión nuclear, explicada en los siguientes pasos:.

1.- Un átomo de Uranio - 235 absorbe un neutrón energético, y se divide en 2 nuevos átomos (productos de fisión), por ejemplo Kr (92) (Criptón 92) y Ba (141) (Bario 141) estos valores numéricos representan los pesos atómicos. la reacción primaria deja libres 3 nuevos neutrones energéticos y cierta energía de fotones (rayos gamma) del enlace inicial, (flash amarillo).

2.- Uno de los neutrones es absorbido por un átomo de Uranio - 238, y no continua la reacción. (circulo lila). Otro neutrón es simplemente perdido y no continua la reacción (indicado con X).

Sin embargo, un neutrón secundario entra en colisión con un segundo átomo de U-235, que se divide y libera 2 neutrones y energía de enlace.

3.- Estos 2 neutrones colisionan con 2 átomos de U-235, que se dividen y sueltan de 1 a 3 neutrones cada uno, que continúan con la reacción de tipo geométrico.

Si en cada fisión provocada por un neutrón se liberan dos neutrones más, entonces el número de fisiones se duplica en cada generación. En este caso, en 10 generaciones hay 1.024 fisiones y en 80 generaciones aproximadamente 6 x 1023 fisiones.

Energía liberada por cada Fisión Nuclear

165 MeV ~ Energía cinética de los productos de fisión 7 MeV ~ Rayos gamma 6 MeV ~ Energía cinética de los neutrones 7 MeV ~ Energía a partir de productos de fisión 6 MeV ~ Rayos gama de productos de fisión 9 MeV ~ Anti-neutrinos de los productos de fisión

En total; 200 MeV (Mega Electrón Voltios)

Page 238: Manual de Energías Renovables

9

1 MeV (millones de electrón-voltios) = 1,609 x 10-13 Joules.

Aunque en cada fisión nuclear se producen entre dos y tres neutrones, no todos neutrones están disponibles para continuar con la reacción de fisión. Si las condiciones son tales que los neutrones se pierden a un ritmo más rápido de lo que se forman por la fisión, los que se produzcan en la reacción en cadena no serán autosuficientes.

La masa crítica es el punto donde la reacción en cadena puede llegar a ser autosostenible.

En una bomba atómica, por ejemplo, la masa de materias fisionables es mayor que la masa crítica.

La cantidad de masa crítica de un material fisionable depende de varios factores, la forma del material, su composición y densidad, y el nivel de pureza.

13.8.-Historia de la reacción en cadena.

El concepto de reacción nuclear en cadena fue utilizado inicialmente por el científico húngaro Leó Szilárd en 1933. Quien también patentó su idea de realizar un reactor nuclear sencillo el año siguiente.

La teoría de la reacción química total en cadena fue postulada por el físico Soviético N.N. Semyonov en 1934. La idea de las reacciones en cadena, desarrollada por Semyonov, es la base de varias tecnologías que utilizan la incineración de mezcla de gases. La idea también fue usada para la elaboración de reactores nucleares.

En 1936, Szilárd intentó crear una reacción en cadena usando berilo e indio, pero no tuvo éxito.

En 1939, Szilárd y Enrico Fermi descubrieron la multiplicidad de neutrones desprendidos en el bombardeo de Uranio, demostrando que una reacción en cadena era efectivamente posible.

Este descubrimiento llevó a Albert Einstein a instancias de Szilárd a escribir una carta al presidente Franklin D. Roosevelt advirtiendo de la posibilidad de que la Alemania Nazi podría estar intentando construir una bomba atómica basada en este esquema.

Foto histórica de la redacción de la carta de agosto de 1939

Page 239: Manual de Energías Renovables

10

Enrico Fermi creó el primer reactor nuclear en cadena auto-sostenible, llamado Chicago Pile-1 (CP-1), en una cancha de tenis debajo de las gradas del Stagg Field en la Universidad de Chicago el 2 de diciembre de 1942. El experimento de Fermi en la Universidad de Chicago fue efectuado usando partes de las instalaciones del laboratorio de metalurgia de Arthur H. Compton, el equipo fue parte también del Proyecto Manhattan, en el desierto de Nuevo Mexico, los principales científicos que participaron en el fueron: Robert Oppenheimer, Niels Böhr, Enrico Fermi, Ernest Lawrence y Richard Feynman.

Arriba se ve la imagen del logotipo adoptado para el proyecto Manhattan, se hace alusión al símbolo internacional de la radiación con tres copas de Martini. (imagenes de archivo Ing.Rosasco)

13.9.- Masa crítica

En física nuclear, se define la masa crítica como la cantidad mínima de material necesaria para que se mantenga una reacción nuclear en cadena. La masa crítica de una sustancia fisible depende de sus propiedades físicas (en particular su densidad) y nucleares (su enriquecimiento y sección eficaz de fisión), su geometría (su forma) y su pureza, además de si está rodeada o no por un reflector de neutrones.

Al rodear a un material fisible por un reflector de neutrones la masa crítica necesaria resulta menor. En el caso de una esfera rodeada por un reflector de neutrones, la masa crítica es de unos cincuenta y dos kilogramos para el uranio 235 y de diez kilogramos para el plutonio 239.

Fig.13.9_1

Page 240: Manual de Energías Renovables

11

La Fig 13.9_1 muestra una esfera (simulada) de plutonio rodeada por bloques de un reflector de neutrones de carburo de tungsteno.

En resumen:

La masa crítica es la mínima cantidad de material requerida para que el material experimente una reacción nuclear en cadena. La masa crítica de un elemento fisionable depende de su densidad y de su forma física (barra larga, cubo, esfera, etc.).

Puesto que los neutrones de la fisión se emiten en direcciones al azar, para maximizar las ocasiones de una reacción en cadena, los neutrones deberán viajar tan lejos como sea posible y de esa forma maximizar las posibilidades de que cada neutrón choque con otro núcleo. Así, una esfera es la mejor forma y la peor es probablemente una hoja aplanada, puesto que la mayoría de los neutrones volarían de la superficie de la hoja y no chocarían con otros núcleos.

También es importante la densidad del material. Si el material es gaseoso, es poco probable que los neutrones choquen con otro núcleo porque hay demasiado espacio vacío entre los átomos y un neutrón volaría probablemente entre ellos sin golpear nada. Si el material se pone bajo alta presión, los átomos estarán mucho más cercanos y la probabilidad de una reacción en cadena es mucho más alta.

La alta compresión puede ser alcanzada poniendo el material en el centro de una implosión, o lanzando un pedazo de ella contra otro pedazo de ella muy fuertemente (con una carga explosiva, por ejemplo). Una masa crítica del material que ha comenzado una reacción en cadena se dice que se convierte en supercrítica.

Si fuera posible hacer un experimento en el que se agregara una cantidad exacta de material fisible a una masa levemente subcrítica, se estaría creando un conjunto con una masa apenas supercrítica, y en ese caso la temperatura del conjunto aumentaría hasta un valor máximo para luego de un cierto tiempo disminuir nuevamente a la temperatura del entorno (ya que el consumo del material fisible en la reacción en cadena haría que el conjunto se volviera subcrítico). la Fig.13.9_2, muestra esquemáticamente la relación de tamaño y masa crítica para el material almacenado en forma esférica.

Fig.13.9_2

Page 241: Manual de Energías Renovables

12

vista superior: Una esfera de material fisible es demasiado pequeña para permitir que la reacción en cadena se auto mantenga, debido a que los neutrones generados por la fisión pueden escapar fácilmente del sistema .

Centro: Al incrementar la masa de la esfera hasta alcanzar la masa crítica, la reacción nuclear se automantiene, por un tiempo corto y se apaga

Inferior: Al recubrir la esfera original por un reflector de neutrones, se aumenta la eficiencia de la reacción y permite que el sistema desarrolle una reacción auto sostenida sobre todo el material. El apantallamiento funciona retrasando la expansión, “sujetando” la masa supercrítica, los sujetadores o “ tampers” se construyen de estructuras sandwich de Carburo de Wolframio y acero.

13.10.- Funcionamiento de una Central Nuclear de Fisión.

Una Central Nuclear, básicamente utiliza la energía aprovechable de la fisión del U 235 o del Pu 239, para calentar agua hasta llevarla a ebullición, generar vapor de agua , sobrecalentarlo y hacerlo funcionar en una Turbina de Vapor para mover a la salida un Generador Eléctrico, o un Alternador.

En la Fig.13.10_1 se observa el esquema básico de una Central Nuclear, con un generador de vapor a presión.

Fig.13.10_1

Indicadores en la figura:

1. Bloque del reactor 2. Torre de refrigeración 3. Reactor 4. Barras de control 5. Soporte de presión

Page 242: Manual de Energías Renovables

13

6. Generador de vapor 7. Fuel 8. Turbina 9. Generador 10. Transformador 11. Condensador 12. Partículas de gas 13. Líquido 14. Aire 15. Aire (húmedo) 16. Río 17. Circuito de refrigeración 18. Circuito primario 19. Circuito secundario 20. Bomba de vapor de agua

Comenzamos describiendo el Núcleo del Reactor (3) en el vemos las barras de combustible (7) en color rojo, que contienen entre un 1 y un 4% de óxido de Uranio o Plutonio ellas generan fisión en un estado ligeramente supercrítico, generando núcleos más ligeros, y desprendiendo Neutrones, que salen a alta velocidad en todas direcciones y son frenados al chocar con las moléculas de la sustancia moderadora (en violeta), esta sustancia normalmente es agua pesada (Deuterio D2O).

El deuterio cumple una doble función, por un lado modera las neutrones energéticos de la fisión haciéndolos mas lentos y por tanto aptos para continuar con una reacción en cadena moderada, y por otro calientan el agua pesada que se hace circular por medio de una bomba en circuito cerrado por el Generador de Vapor (6) realizando un intercambio de calor.

En el Generador de Vapor ingresa agua fría purificada (azul) y se transforma en vapor sobrecalentado al salir del Generador de Vapor, debido al enorme calor que se aporta a través de la circulación de agua pesada.

Sustancia Moderadora.

Únicamente con juntar mucho Uranio en un solo lugar no es suficiente como para comenzar una reacción en cadena. Los neutrones son emitidos por un núcleo en fisión a una velocidad muy elevada. Esto significa que los neutrones escaparán del núcleo antes de que tengan oportunidad de golpear cualquier otro núcleo.

Un neutrón de movimiento lento se llama neutrón térmico y solamente esta velocidad del neutrón puede inducir una reacción de fisión. Así pues, tenemos cuatro velocidades de neutrones:

• Un neutrón (no-térmico) rápidamente se escapará del material sin interacción; • Un neutrón de velocidad mediana será capturado por el núcleo y transformará el

material en un isótopo (pero no induciría la fisión). • Un neutrón de movimiento lento (térmico) inducirá a un núcleo a que experimente la

fisión. • Un neutrón móvil realmente lento será capturado o escapará, pero no causará fisión.

Algunos años antes del descubrimiento de la fisión, la manera acostumbrada de retrasar los neutrones era hacerlos pasar a través de un material de peso atómico bajo, tal como un material hidrogenado. El proceso de retraso o de moderación es simplemente una secuencia de colisiones elásticas entre las partículas de alta velocidad y las partículas prácticamente en reposo. Cuanto más parecidas sean las masas del neutrón y de la partícula golpeada, mayor es la pérdida de energía cinética por el neutrón. Por lo tanto los elementos ligeros son los más eficaces como moderadores de neutrones.

Page 243: Manual de Energías Renovables

14

A unos cuantos físicos en los años 30 se les ocurrió la posibilidad de mezclar el uranio con un moderador, si fuesen mezclados correctamente, los neutrones de alta velocidad de la fisión podrían ser retrasados al rebotar en un moderador, con la velocidad correcta, para inducir la fisión en otros átomos de uranio.

Las características de un buen moderador son: peso atómico bajo y baja o nula tendencia a absorber los neutrones. Los moderadores posibles son entonces el hidrógeno, helio, litio, berilio, boro y carbono. El litio y el boro absorben los neutrones fácilmente, así que se excluyen.

El helio es difícil de utilizar porque es un gas y no forma ningún compuesto. La opción de moderadores estaría entonces entre el hidrógeno, deuterio, el berilio y el carbono. Fueron Enrico Fermi y Leó Szilárd quienes propusieron primero el uso de grafito (una forma de carbono) como moderador para una reacción en cadena. El deuterio es el mejor tecnológicamente (introducido en el agua pesada), sin embargo el grafito es mucho más económico.

Barras de Control.

Son unas barras de unos 4 metros de longitud posición (4) y Fig.13.10_2, hechas normalmente de acero con una aleación de plata y cadmio que contiene a su vez en su interior barras de mineral de Hafnio, que posee una gran capacidad de absorción de neutrones.

El Hafnio es un elemento químico de número atómico 72 que se encuentra en el grupo 4 de la tabla periódica de los elementos y se simboliza como Hf.

Es un metal de transición, brillante, gris-plateado, químicamente muy parecido al circonio, encontrándose en los mismos minerales y compuestos, y siendo difícil separarlos.

Las barras de control se usan para controlar la reacción de fisión nuclear en las centrales nucleares. Para ello se introducen por unos huecos entre las vainas del combustible nuclear de un reactor, de esta forma se consiguen absorber muchos neutrones y así detener el reactor. En los antiguos reactores de tipo RBMK, las barras de control tardaban y tardan (porque aún queda algún reactor de este tipo por el mundo funcionando) 20 segundos en bajarse completamente, lo que es un grave problema de seguridad. Pero en los reactores más modernos, el mecanismo de bajada de estas barras tarda 1 segundo en detener la reacción en cadena del núcleo.

Page 244: Manual de Energías Renovables

15

Fig.13.10_2

Las barras se agrupan en bancos, sobre un patrón de circunferencias concéntricas dentro del reactor, de forma que todas las barras de un banco se mueven a la vez. Las barras de un banco están situadas simétricamente en el núcleo para no provocar una distorsión radial del flujo durante su movimiento.

Otro elemento utilizado en el control del reactor es un aditivo que se añade al circuito de agua pesada interior del reactor , se trata del boro, ya que es absorbente de neutrones. En los reactores nucleares el boro se utiliza como elemento de control a largo plazo, es decir, que su concentración se va disminuyendo a lo largo del ciclo a medida que se va agotando la reactividad del núcleo, a medida que aumenta el quemado del combustible.

Además del boro, se suelen colocar otros absorbentes sólidos de neutrones para contrarrestar el efecto del gasto del combustible (disminuye la reactividad) a lo largo del tiempo, como gadolinio, hafnio, etc.

Efectos de los isótopos

Ampliando un poco el párrafo 13.4 , indicamos que el uranio natural se compone en realidad de tres isótopos: U 234, (0,006%), U 235 (0,7%), y U 238 (99,3%). La velocidad requerida para que se produzca un acontecimiento de fisión y no un acontecimiento de captura de una partícula energética es diferente para cada isótopo.

Page 245: Manual de Energías Renovables

16

El Uranio-238 tiende a capturar neutrones de velocidad intermedia, creando U 239, que decae sin fisión a plutonio Pu 239, que sí es fisible. Debido a su capacidad de producir material fisible, a este tipo de materiales se les suele llamar fértiles.

Los neutrones de alta velocidad (52.000 km/s), como los producidos en una reacción de fusión tritio-deuterio, pueden fisionar el uranio-238. Sin embargo los producidos por la fisión del uranio U 235, de hasta 28.000 km/s, tienden a rebotar inelásticamente con él, lo cual los desacelera.

En un reactor nuclear, el U 238 tiende, pues, tanto a desacelerar los neutrones de alta velocidad provenientes de la fisión del Uranio U 235 como a capturarlos (con la consiguiente transmutación a plutonio Pu 239) cuando su velocidad se modera.

El uranio U 235 fisiona con una gama mucho más amplia de velocidades de neutrones que el U 238. Puesto que el uranio U 238 afecta a muchos neutrones sin inducir la fisión, tenerlo en la mezcla es contraproducente para promover la fisión.

De hecho, la probabilidad de la fisión del U 235 con neutrones de velocidad alta puede ser lo suficientemente elevada como para hacer que el uso de un moderador sea innecesario una vez que se haya suprimido el U 238.

Sin embargo, el U 235 está presente en el uranio natural en cantidades muy reducidas (una parte por cada 140). La diferencia relativamente pequeña en masa entre los dos isótopos hace, además, que su separación sea difícil. La posibilidad de separar U 235 fue descubierta con bastante rapidez en el proyecto Manhattan, como indicamos antes, (que dio lugar a la detonación de las dos bombas sobre Japón en 1945) lo que tuvo gran importancia para su éxito.

Producción de energía limpia.

No es el agua del moderador la que entra en ebullición, ya que contiene sustancias radioactivas, la energía del calor producido en el reactor se va trasmitiendo se trasmite en circuito cerrado en un generador de vapor que esencialmente es un intercambiador de calor (6) el agua fría en azul, se calienta, entra en ebullición y se transforma en vapor sobrecalentado.

Luego pasa a través de la turbina de vapor (8) produciendo trabajo de eje We, la rotación del eje mueve un alternador (9), y adapta la frecuencia a través de un transformador (10), para interconectarse a la red de distribución.

El vapor a la salida de la turbina, ingresa en el condensador (11) que la devuelve a través de una bomba al circuito del Generador de Vapor.

la serpentina del enfriador es un circuito de agua líquida auxiliar que circula a través de una bomba entre una torre enfriadora por evaporaración y una fuente fría que puede ser un río o un reservorio artificial

La potencia de un reactor de fisión puede variar desde unos pocos kW térmicos a unos 4500 MW térmicos (1500 MW "eléctricos"). Deben ser instalados en zonas cercanas al agua, como cualquier central térmica, para refrigerar el circuito, y deben ser emplazados en zonas sísmicamente estables para evitar accidentes. Poseen grandes medidas de seguridad. No emiten gases que dañen la atmósfera pero producen residuos radiactivos que duran decenas de miles de años, y que deben ser almacenados para su posterior uso en reactores avanzados y así reducir su tiempo de vida a unos cuantos cientos de años.

En 1999 los países que más utilizaban la energía nuclear eran Francia (con un 75% de su electricidad generada en plantas de generación nuclear), Lituania (73%), Bélgica (58%), Bulgaria, Eslovaquia, Suecia (47%), Ucrania (44%) y Corea del sur (43%). El mayor productor de este tipo de energía eran los Estados Unidos con el 28% de la capacidad mundial, seguido

Page 246: Manual de Energías Renovables

17

por Francia (18%) y Japón (12%) . En el año 2000 había 438 centrales nucleares de generación comerciales en el mundo, con una capacidad total instalada de unos 352 GW.

Después de un periodo de declive en el uso de la tecnología nuclear, tras los accidentes de Three Mile Island y Chernóbil, en los últimos tiempos se ha dado un mayor y renovado interés por la energía nuclear. Algunos políticos han regresado a la "opción nuclear" debido a que la ven, de forma potencial, como una forma de controlar las reservas de petróleo mundiales y el calentamiento global, ya que emiten menos gases de efecto invernadero que los combustibles fósiles.

13.11.- Ventajas y Desventajas de los reactores nucleares de fisión.

Una de las ventajas de los reactores nucleares actuales es que casi no emiten contaminantes al aire (aunque periódicamente purgan pequeñas cantidades de gases radiactivos), y los residuos producidos son muchísimo menores en volumen y más controlados que los residuos generados por las plantas alimentadas por combustibles fósiles.

En esas centrales térmicas convencionales que utilizan combustibles fósiles (carbón, petróleo o gas), se emiten gases de efecto invernadero (CO2 principalmente), gases que producen lluvia ácida (SO2 principalmente), carbonilla, metales pesados, miles de toneladas anualmente de cenizas, e incluso material radiactivo natural concentrado (NORM).

En una central nuclear los residuos sólidos generados son del orden de un millón de veces menores en volumen que los contaminantes de las centrales térmicas.

El uranio enriquecido utilizado en las centrales nucleares no sirve para construir un arma nuclear ni para usar uranio procedente de ellas. Para ello se diseñan los reactores en ciclos de alto enriquecimiento o bien se usan diseños como reactores tipo RBMK usados para la generación de plutonio.

Últimamente se investigan centrales de fisión asistida, donde parte de los residuos más peligrosos serían destruidos mediante el bombardeo con partículas procedentes de un acelerador (protones seguramente) que producirían neutrones que a su vez provocarían la transmutación de esos isótopos más peligrosos.

Esta sería una especie de central de neutralización de residuos radiactivos automantenida. El rendimiento de estas centrales sería en principio menor, dado que parte de la energía generada se usaría para la transmutación de los residuos. Se estima que la construcción del primer reactor de transmutación (Myrrha) comenzará en el año 2014.

Desventajas de los reactores nucleares de fisión

El peligro para la población proviene de varios factores: 1) accidente en una central atómica, 2) ataque terrorista, 3) peligrosidad de los residuos y su alto poder contaminante del medio ambiente, 4) basureros nucleares, 5) posible desviación de los residuos para la producción de armas de destrucción masiva.

Los reactores nucleares generan residuos radiactivos. Algunos de ellos con un semiperiodo elevado de desintegración, como el americio, el neptunio o el curio y de una alta toxicidad. Los detractores de la energía nuclear hacen hincapié en el peligro de esos residuos que duran cientos e incluso miles de años.

Algunas reactores nucleares se utilizaron para generar plutonio 239 utilizado en el armamento nuclear. Los reactores civiles generan plutonio pero el plutonio 239 (requerido en las armas nucleares) aparece mezclado con altas proporciones de plutonio 240, 238, 240 y 242, lo hace inviables para uso militar.

Page 247: Manual de Energías Renovables

18

Los accidentes nucleares más graves han sido: Mayak (Rusia) en 1957, Windscale (Gran Bretaña) en 1957, Three Mile Island (EE. UU.) en 1979, Chernóbil (Ucrania) en 1986, Tokaimura (Japón) en 1999 y Fukushima (Japón) 2011.

La peligrosidad de los residuos nucleares es un tema altamente controvertido. Estos se suelen asociar a la generación de energía nuclear de fisión, sin embargo existen infinidad de fuentes radiactivas empleadas en diversos usos que también son enterradas en cementerios nucleares.

La mayoría de los países tienen empresas nacionales encargadas de la gestión de estos residuos, normalmente la tarifa eléctrica incluye un porcentaje que se destina a este fin. En la actualidad no existen almacenes definitivos destinados al enterramiento del combustible gastado, se suelen mantener en piscinas en los mismos emplazamientos de los reactores o en almacenes centralizados.

Para muchos esta es la opción más razonable puesto que en el combustible gastado conserva el 95% del uranio, lo que permitirá en el futuro su reutilización, de hecho algunos países ya lo hacen pero la técnica es muy costosa.

[]

Page 248: Manual de Energías Renovables

MÓDULO: 14. ENERGÍAS RENOVABLES. ENERGÍA NUCLEAR DE FUSIÓN

14.1.- Fusión Nuclear, Introducción y definiciones.

Frente a la energía de fisión, que fue la primera en conocerse y dominarse, la gran alternativa de futuro es la Fusión Nuclear, que resulta ser una fuente inagotable, ya que utiliza el agua, un recurso abundante, barato y limpio.

Habiendo conquistado la liberación de energía por fisión de elementos pesados como el Uranio el Plutonio y el Torio los físicos buscaron la obtención de energía por el proceso inverso de Fusión Nuclear en el cual dos núcleos de elementos livianos (muy a la izquierda de la tabla periódica) se fusionan juntos para dar lugar a otro elemento un poco más pesado, liberando una enorme cantidad de energía.

Este proceso emularía al que tiene lugar dentro del Sol que obtiene su energía por un proceso de fusión en el cual dos núcleos ordinarios de Hidrógeno se unen para formar un núcleo de Helio como resultado de las violentas colisiones producidas en el interior del Sol debido a enormes Presión y Temperatura.

Como recordará, un átomo está compuesto por un núcleo, formado por neutrones y protones. Estos con carga eléctrica positiva y aquellos con carga neutra (sin carga); a su vez, el átomo consta de una envoltura electrónica a base de electrones, de carga eléctrica negativa. En la naturaleza todos los átomos son eléctricamente neutros, teniendo igual número de protones que de electrones.

Para replicar estas condiciones termonucleares en la Tierra, los mejores candidatos serían el Hidrógeno pesado o Deuterio, o el Tritio que son variedades alotrópicas del hidrógeno, cuyos átomos observan en la Fig.14.1_1, el núcleo esta formado por un protón y un neutrón en el caso del deuterio y dos neutrones y un protón para el caso del tritio se observa un electrón en la órbita en todos los casos, ambos están presente en el agua ordinaria en pequeñas cantidades.

Fig.14.1_1

Entonces la fusión nuclear se basa en la energía que se libera de la unión entre los átomos. Concretamente en la fusión intervienen dos isótopos del hidrógeno: el tritio y el deuterio. Se utilizan estos isótopos porque para que se produzca la fusión de los átomos -su unión- es necesario que sus núcleos tengan la mínima fuerza de repulsión, y esto se logra precisamente con los átomos más ligeros y con menos protones, los de hidrógeno y sus variantes alotrópicas, que sólo tienen un protón en su núcleo.

Page 249: Manual de Energías Renovables

  2

Baste recordar que en la fisión se requiere todo lo contrario, que los núcleos tengan la máxima repulsión posible, lo que consigue con átomos con muchos protones (polos iguales se repelen), y los núcleos de muchos protones son inestables.

En el caso más simple de fusión Deuterio con Tritio, los núcleos (y por tanto los protones) deben acercarse lo suficiente para que la interacción nuclear fuerte pueda superar la repulsión eléctrica mutua, según recordamos, ambas son fuerzas antagónicas, y obtener la posterior liberación de energía debida a defecto de masa, de acuerdo a la ecuación de Einstein:

2E m cΔ = Δ × [14.1]

En la ecuación, EΔ es la variación de energía, mΔ es la variación o defecto de masa, y 2c es la velocidad de la luz ( 113 10× m/seg) elevado al cuadrado. Sobre estas reacciones se concentra actualmente la investigación sobre fusión controlada.

Como se observa en la Fig.14.1_2, el resultado de la reacción de fusión Deuterio-Tritio es un núcleo de Helio completo, un neutrón y la producción de entre 14 y 17 MeV. cuya equivalencia es: 1 MeV (millones de electrón-voltios) = 1,609 x 10-13 Joules.

Fig.14.1_2.- Fusión de deuterio con tritio produciendo helio-4, liberando un neutrón, y generando como cantidad óptima 17,59 MeV de energía.

La ecuación [14.1] plantea que la masa y la energía son conceptos equivalentes, y que la masa debe interpretarse como energía empaquetada y almacenada, entonces la masa almacenada por los reactivos debe ser igual a la de los productos de la reacción, lo que indica que el defecto de masa del Helio producido más el neutrón debe ser una energía residual exotérmica producida en la reacción, cuyo valor es como media 14.1 Mev

Pero, mientras que la fisión nuclear se conoce y puede controlarse bastante bien, la fusión plantea el siguiente gran inconveniente, lo que hace que continúe hoy (2012) en fase experimental y de estudio, aunque se espera resolver los problemas remanentes en unos 15 a 20 años.

Como señalamos más arriba, para que la reacción de fusión sea posible hay que vencer la mencionada repulsión electrostática entre dos núcleos igualmente cargados; esto es, al existir núcleos atómicos con igual carga, y en virtud del principio de que cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas, los que técnicamente se denomina vencer la barrera de potencial.

Page 250: Manual de Energías Renovables

  3

Esto se logra gracias al calor, aplicando temperaturas de millones de grados y confinamiento. El problema referido proviene de la dificultad de desarrollar un reactor que soporte esa temperatura.

14.2.- Historia.

Esta enorme Temperatura de la que hablábamos puede lograrse no obstante en el interior de una explosión de fisión, de hecho esto dio lugar al desarrollo de las bombas de fusión o bomba H, cuyo padre científico fue Edward Teller, que son muchos mas poderosas que las bombas atómicas convencionales y por diversos tratados fueron retiradas de todos los arsenales militares a nivel mundial.

Sobre la base de los experimentos de transmutación nuclear de Ernest Rutherford conducidos unos pocos años antes, la fusión de núcleos ligeros (isótopos de hidrógeno) fue observada por primera vez por Mark Oliphant en 1932; los pasos que explicaron el ciclo principal de la fusión nuclear en las estrellas fue posteriormente elaborado por Hans Bethe durante el resto de esa década.

La investigación sobre la fusión para fines militares se inició en la década de 1940 como parte del Proyecto Manhattan, pero no tuvo éxito hasta 1952. La investigación sobre la fusión controlada con fines civiles se inició en la década de 1950, y continúa hasta hoy en día.

Paradójicamente el primer país que inició a nivel mundial una investigación aplicada práctica sobre Fusión Nuclear fue Argentina, cuando después de la SGM incorporó algunos científicos alemanes como Kurt Thank en Aeronáutica y otros entre los cuales en el área nuclear estaba el Dr. Ronald Richter, quien instaló un pequeño laboratorio en Córdoba y después en la Isla Huemul frente a Bariloche en Río Negro.

Si bien las ideas teóricas eran las correctas, Richter no aceptaba el trabajo en colaboración y formar equipos, el proyecto fue decayendo fundamentalmente por falta de integración y apoyo en desarrollo tecnológico para la realización de los equipos adecuados, hasta que fue cancelado en 1953. Pero Richter puso a pensar en el tema fusión nuclear al resto del mundo y los países mas desarrollados continuaron los trabajos y continuaron con el proyecto en forma pausada pero continua hasta el presente.

14.3.- Aspectos Tecnológicos.

Como dijimos, en la fusión nuclear varios núcleos atómicos de carga similar se unen para formar un núcleo más pesado. Se acompaña en una fase inicial de la absorción de una cantidad enorme de energía para el calentamiento, que permite a la materia entrar en un estado plasmático, donde pierde sus electrones para luego de la fusión entregar una energía mucho mayor a la aportada.

La fusión puede producirse teóricamente en elementos de la primera mitad de la tabla periódica teóricamente hasta la plata (Ag), y podría llegar hasta el hierro (Fe), estas reacciones de fusión liberan energía en general, mientras que la fusión de núcleos más pesados que el hierro absorbería más energía que la entregada; Opuestamente para el proceso inverso, fisión nuclear, en que los elementos pesados liberan energía y se requeriría aplicar más energía que la obtenida para fisionar los elementos de la primera mitad de la tabla.

La fusión nuclear se produce de forma natural en las estrellas. La fusión artificial también se ha logrado en varias proyectos de desarrollo, aunque todavía no ha sido totalmente controlada, ni se ha logrado que la reacción se auto mantenga.

Page 251: Manual de Energías Renovables

  4

Antes de que la fusión pueda tener lugar, debe superarse la importante barrera de potencial producida por la fuerza electrostática entre dos núcleos atómicos privados antes de sus electrones. A grandes distancias dos núcleos se repelen entre sí debido a la fuerza de repulsión electrostática entre sus protones componentes cargados positivamente.

Si dos núcleos pueden ser acercados lo suficiente, sin embargo, la repulsión electrostática se puede superar debido a la interacción nuclear fuerte, que se hace más fuerte en distancias cortas.

Cuando se añade un nucleón como ser un protón o un neutrón a un núcleo, la fuerza nuclear los atrae y absorbe, pero para ello deben ser sus vecinos inmediatos, debido al corto alcance de esta fuerza. Los nucleones en el interior de un núcleo permanecen unidos por la denominada Fuerza Nuclear Fuerte que supera al fuerza electrostática entre los protones.

La Fuerza Nuclear Fuerte, en conjunto con la Fuerza Nuclear Débil, el Electromagnetismo y la Gravedad, constituyen las 4 fuerzas observadas en el Universo.

Ya que los núcleos más pequeños tienen una mayor relación entre superficie de capa electrónica externa y volumen, la energía de enlace por nucleón debido a la fuerza nuclear por lo general aumenta al disminuir el tamaño del núcleo, pero se aproxima a un valor límite máximo que es correspondiente a la de un núcleo con un diámetro de cerca de cuatro nucleones.

La fuerza electrostática (de origen Electro magnético), por otra parte, es una fuerza de magnitud inversa al cuadrado de la distancia, así que un protón que se intente añadir a un núcleo sentirá primero una repulsión electrostática de todos los otros protones ya existentes en el núcleo. La energía electrostática repulsiva por nucleón, por tanto, aumenta enormemente cuando los núcleos se hacen más grandes.

Fig..14.3_1

Pero si logramos una aproximación del protón a distancias muy cortas, la interacción nuclear fuerte (atracción) es más fuerte que la fuerza electrostática (repulsión). Así, la mayor dificultad técnica para la fusión es conseguir que los núcleos se acerquen lo suficiente para poder fusionar. Las distancias no están a escala en la Fig.14.3_1.

El resultado neto de estas fuerzas opuestas es que la energía de enlace por nucleón generalmente aumenta con el tamaño del núcleo, hasta llegar a los elementos hierro y níquel, y un posterior descenso para los núcleos más pesados. Finalmente, la energía de enlace se convierte en negativa y los núcleos más pesados (con más de 208 nucleones, correspondientes a un diámetro de alrededor de 6 nucleones) no son estables.

Una notable excepción a esta tendencia general es el núcleo helio-4, cuya energía de enlace es mayor que la del litio, el siguiente elemento más pesado. El principio de exclusión de Pauli proporciona una explicación para este comportamiento excepcional, que dice que debido a que los protones y los neutrones son ferrmiones es decir partículas que asocian materia, no pueden existir en el mismo estado. Helio-4 tiene una energía de enlace anormalmente grande debido a que su núcleo está formado por dos protones y dos neutrones, de modo que sus cuatro

Page 252: Manual de Energías Renovables

  5

nucleones puede estar en el estado fundamental. Cualquier nucleón adicional tendrían que ir en estados de energía superiores.

Para lograr los estados de fusión se requiere un confinamiento del gas de nucleones a temperaturas tremendamente altas (del orden de entre 640 150 10a × grados Centígrados, y por supuesto el gas debe mantenerse separado de las paredes del contenedor a través de un fuerte campo magnético, ya que no hay material que pueda soportar el contacto con el gas a esas temperaturas (que lo fundiría y evaporaría en un instante), o sea que el gas de nucleones debe estar confinado en la región central interior del contenedor.

A tales temperaturas, como dijimos, el material está en tal estado de agitación que ha perdido sus electrones y se ha transformado en iones con tal estado de movilidad que se clasifica a este estado de la materia como Plasma.

14.4.- Reactor de Fusión Nuclear por confinamiento magnético.

El proyecto en apariencia más exitoso hasta el momento es el denominado Tokamak. Para que el plasma pueda producir reacciones termonucleares suficientes, es necesario primero mantenerlo en un volumen limitado alejado de las paredes (seria lo que se llama “una caja inmaterial”) a fin de mantener la alta temperatura y que el material no haga contacto con las paredes; esto se puede lograr a través de un confinamiento magnético. Un dispositivo de este tipo fue ideado por el científico ruso Pyotr Kapitsa y se llamó Tokamak.

Un Tokamak es un reactor de fusión, que tiene forma de cámara toroidal, item P de la Fig.14.4_1, es un cilindro anular toroide, algo parecido a una rosquilla sin extremos.

Por su interior circula el plasma confinado, a más de 150 millones de grados Celsius, que es guiado desde el exterior, por un campo magnético, con la finalidad de que el plasma no toque las paredes del Tokamak y pierda temperatura y lo destruya.

El radio del toroide de plasma del Tokamak del ITER (International Thermonuclear Experimental Reactor), ubicado en Cadarache en el sur de Francia, es de 2 metros de radio interno y 6.2 metros de radio externo. Este Tokamak tiene varias bombas llamadas cryo-pumps, que se encargan de enfriar los imanes. Uno de los componentes que ayudan a elevar la temperatura del plasma, hasta que alcance la temperatura crítica son lo injectores de emisores de partículas.

El plasma que circula en el interior del toroide central está compuesto por 50% deuterio y 50% tritio, el cuál puede generar millones de watts , lo que abastecería a miles de casas, pero se requiere también de mucha energía para mantener el plasma circulando y a tales temperaturas.

Fig.14.4_1

Page 253: Manual de Energías Renovables

  6

En un plasma en estado libre, la trayectoria de las partículas es aleatoria, pero como estas partículas están ionizadas o sea cargadas con carga positiva, se pueden aplicar campos magnéticos para que ellas no puedan tocar las paredes.

Por otra parte hay que elevar más y más la temperatura del plasma para lo cual debe aplicarse en forma superpuesta un campo magnético fluctuante que por la ley de Faraday Lenz induzca una corriente eléctrica pulsante en las partículas (que trabajan como un cable en un lazo cerrado), esto constituye el primer paso del calentamiento por efecto Joule, digamos hasta elevar la temperatura a unos 10 millones de grados, pero no es suficiente.

Como paso adicional hay que agregar partículas neutras en el plasma que se generan fuera del toroide, la función de ellas es ser inyectadas y al generar colisiones “con esferas casi quietas” del plasma con ellas, así la temperatura vuelve a incrementarse.

Una tercera fase de calentamiento se hace generando radiación electromagnética de muy alta frecuencia generada externamente, con estas tres fuentes trabajando conjuntamente, se producen las primeras reacciones de fusión se empieza a generar más energía dentro del reactor porque cada fusión entrega 14 a 17 MeV por defecto de masa, esto va incrementando más la temperatura de manera que más reacciones de fusión ocurran y el reactor se “encienda” por lo cual las fuentes de suministro externo ya no son necesarias,Fig.14.4_2.

Fig.14.4_2.

El campo magnético de un Tokamak, se compone de:

1.-- Cámara de vacío toroidal (en naranja oscuro): mantiene en vacío el plasma y es la primera barrera de confinamiento magnético para los reactivos (deuterio y tritio) que se encuentran en el interior del toroide.

2. - Bobinas toroidales superconductoras (en verde): que confinan y estabilizan el plasma, y lo hacen rotar. Están situadas exteriormente en espiral alrededor del toroide

3. - Solenoide central superconductor: (en color amarillo), que induce la corriente alterna y los campos exteriores en el plasma (anillos en línea fina y color negro), esto genera una enorme corriente de corto circuito en el plasma que es pulsada es decir con cambio de sentido; la flecha roja en el interior del toroide indica el sentido en que circula la corriente de cortocircuito inducida, y las flechas negras gruesas, el movimiento aproximado de las partícula ionizadas, que no tocan la pared del toroide de confinamiento.

Page 254: Manual de Energías Renovables

  7

4. - Bobinas de eje vertical superconductoras (en color blanco) que generan radiación electromagnética de muy alta frecuencia, con el mismo propósito de calentar el plasma.

Al igual que en las usinas nucleares de fisión la liberación de los neutrones y su expulsión del sistema, es la que se usa para producir calor en el ambiente exterior al reactor, en este caso los neutrones liberados abandonan el recinto de confinamiento ya que no los detienen los campos y salen al exterior y chocan con el moderador que se ubica como contenedor final exterior, (no dibujado) es la sustancia que se calienta y este calor se usa por ejemplo para calentar agua, y esta a su vez para generar vapor y hacerlo expandir en circuito cerrado en una turbina de vapor, al igual que en las centrales de fisión.

En tanto que la energía por defecto de masa, (14 MeV por cada fusión atómica) se utiliza para auto mantener el proceso sin adicionar más energía exterior y en parte para calentar también el contenedor del moderador. De esta forma cada gramo de Hidrogeno produce en la fusión del orden de 180 Mwatts / hora.

Fig.14.4_3 El Tokamak del ITER

14.5.- El criterio de Lawson.

En teoría este es el funcionamiento, no obstante para lograr que eso funcione con continuidad nueva masa de deuterio y tritio deben ser entregadas en forma permanente al reactor, sin que varíe la temperatura en los intervalos de tiempo que requiere el proceso de manera que se requiere un ajuste de las variables [densidad, temperatura, tiempo] para que la reacción sea auto mantenida y lograr esto es extremadamente difícil, de hecho aún no se ha logrado, esta triple condición se conoce como Criterio de Lawson.

Page 255: Manual de Energías Renovables

  8

Puede pensarse como un producto de las tres variables [ρ x T x t] , solamente cuando el producto de las variables alcanza un valor determinado la fusión puede ocurrir y continuar automantenida.

Informes recientes del ITER que parece el proyecto actualmente más próximo al logro de obtener fusión nuclear automantenida, estima que el proceso de ajuste final puede tomar entre 10 y 15 años. La energía nuclear de fusión puede ser en el futuro la solución a todos los problemas energéticos y ambientales de la humanidad así como asegurar los viajes espaciales de larga duración y alcance.

[]

 

Page 256: Manual de Energías Renovables

MÓDULO: 15. ENERGÍAS RENOVABLES. TURBINAS DE VAPOR

15.1.- Definiciones.

Para resolver el aprovechamiento de la energía producida por las Energía Solar Térmica, los procesos de Fisión y Fusión Nuclear de las centrales atómicas se utilizan los generadores de vapor que transforman la energía del Vapor en Energía Eléctrica aprovechable. Para este fin se utilizan turbinas para vapor de etapas múltiples, las que producen trabajo de eje (We), que a su vez mueve el generador eléctrico o alternador.

Vamos a dar una breve descripción de estas máquinas y su funcionamiento. Básicamente están compuestas por una estructura interna denominada rotor o rodete compuesta por álabes radiales de varias etapas a través de las cuales el vapor sufre cierto grado de expansión.

Entre los discos de álabes de las etapas rotoras se intercalan las etapas estatoras de discos de álabes fijos, también compuestos por álabes radiales, pero que están unidos al carter o carcaza exterior. Un dibujo esquemático se observa en la Fig.15.1_1:

Fig.15.1_1

Etapas Estatoras en celeste, Etapas Rotoras en naranja

Como debe cumplirse para el flujo de vapor que atraviesa la turbina la ley de conservación de masa o continuidad, el producto (densidad x velocidad x área) debe mantenerse constante entre la entrada y la salida.

[ ] [ ]entrada salidaVA VAρ ρ=

entonces es fácil ver que si la densidad se considera aproximadamente constante entre la entrada y la salida, lo que es válido para velocidades del flujo de hasta 80 m/seg , el factor densidad puede simplificarse en ambos miembros de la ecuación quedando.

[ ] [ ] [ ]entradasalida entradaentrada salida

salida

VVA VA A AV

→= =

lo que nos indica que a medida que el flujo se va expansionando es decir disminuir su presión, por la ley de Bernuolli sabemos que su velocidad irá en aumento, esto dará un cociente de velocidades (Ventrada / Vsalida) mayor a uno y por tanto el área a la salida será mayor que a la entrada, lo que nos da la típica forma divergente de la carcaza que contiene las ruedas estatoras y rotoras de la turbina.

Page 257: Manual de Energías Renovables

  2

Fig.15.1_2

En la Fig.15.1_2 se observa el eje con las ruedas rotoras unidas que se ha desvinculado del carter o carcaza para su mantenimiento, se observa que cada disco del rotor posee álabes a través de los cuales pasa el vapor y los hace rotar. En la Fig.15.1_2 se ve una etapa estatora de alabes (atrás) y una rotora contigua (adelante).

Fig.15.1_ 2

Todas las etapas rotoras van montadas sobre el mismo eje y el grado de expansión del vapor en cada uno de ellos se calcula con la velocidad de rotación común que ha de tener el eje común a todas ellas cuyo diámetro lo va determinando la geometría de la expansión que vimos en la fórmula anterior. Como el eje a la salida va acoplado a un generador eléctrico se procura que la velocidad del eje motor de la turbina tenga la misma velocidad de rotación requerida por el generador para evitar cajas intermedias de reducción.

Típicamente las turbinas de vapor se diseñan y clasifican en dos tipos:

1.- Con escalonamiento de Velocidad (o tipo Curtiss).

2.- Con escalonamiento de Presión (o tipo Rateau).

Page 258: Manual de Energías Renovables

  3

15.2.- Con escalonamiento de Velocidad (o tipo Curtiss).

Está representada esquemáticamente en la Fig.15.2_1 (Fig 89 del libro). El vapor se expansiona completamente en la tobera de entrada de forma anular, típicamente hay varias toberas que soplan en el área de entrada, típicamente 6 distribuidas cada 60º, las toberas aumentan la velocidad del vapor en la entrada, el flujo se aplica en las distintas etapas del rotor donde se encuentras los álabes dispuestos en forma de corona. En la figura (inferior) se observa que los pasajes entre los álabes en los discos del estator y rotor son opuestos de manera que el flujo va siguiendo un patrón de zig-zag a medita que el vapor va trasmitiendo la rotación los discos móviles.

Generalmente el vapor va perdiendo ¼ de su velocidad para cada etapa en el caso de ser 4 como se indica en la figura, en las etapas fijas el vapor no pierde teóricamente velocidad ya que la energía cinética lineal no se transforma en rotacional, sino que solamente cambia de dirección.

La ventaja principal de este sistema es que la presión y la temperatura dentro de la caja o carter son pequeñas porque toda la expansión del vapor se realizó en las toleras de entrada. El principal inconveniente está en que como la velocidad a la entrada es grande las perdidas por fricción también lo son, esto se atempera usando pocos escalones, típicamente 4.

Fig.15.2_1

Page 259: Manual de Energías Renovables

  4

En la figura se observan también como varía la presión a lo largo de la máquina a partir del valor de entrada de la cámara po , toda la expansión se realiza en las toberas hasta la presión atmosférica , y después se mantiene constante, paralelamente la velocidad aumenta al máximo, y después va disminuyendo en las etapas rotoras transformando energía cinética lineal en rotacional, y se mantiene aproximadamente constante (a menos de pequeñas perdidas por fricción) en las etapas estatoras.

15.3.- Con escalonamiento de presión (o tipo Rateau).

El sistema de escalonamiento de presión Fig.15.3_1 (Fig 90 del libro) es tal que la expansión no se realiza completamente en las toberas de entrada, sino que en ellas se hace una primera expansión parcial, las sucesivas expansiones hasta la presión atmosférica la salida se van haciendo en las etapas estatoras, que para tal fin tienen pasajes convergentes entre los álabes que van transformando energía de presión en velocidad. De esta manera la velocidad va subiendo y bajando entre las etapas.

Fig.15.3_1

Page 260: Manual de Energías Renovables

  5

Las turbinas con escalonamiento de presión (o tipo Rateau) permiten más etapas móviles ya que tienen menores pérdidas por rozamiento ya que las velocidades son relativamente bajas, en comparación con las Curtiss, no obstante como las presiones interiores son mayores se requiere una mejor hermeticidad del carter o carcaza y un mayor espesor de pared.

Fig.15.3_4

La Fig.15.3_4 muestra un corte de una turbina de vapor industrial de tipo Rateau, se observa un múltiple regulable para entrada de vapor de tres toberas, las múltiples etapas estaoras y rotoras y el eje de salida con el acoplamiento para el alternador.

[]

crédito de las imágenes, Libro de texto: “Maquinas Motrices y Generadores de Energía Eléctrica” de José Ramírez Vázquez.

Page 261: Manual de Energías Renovables

MÓDULO: 16A. ENERGÍAS RENOVABLES. PROPUESTAS Y COMPROMISOS PARA LA PROTECCIÓN AMBIENTAL

16.1.- Propuestas para reducir la emisión de GEI’s en nuestro hábitat.

Los GEI’s (Gases de Efecto Invernadero) según vimos son los causantes principales del Efecto Invernadero y la lluvia acida, las maneras de disminuirlos depende en gran parte de la conciencia individual y grupal de toda sociedad, y todos podemos contribuir positivamente a su realización, ya sea por acciones domésticas o barriales y docencia a nivel domestico y barrial con nuestros niños o en nuestro ambiente laboral etc.

algunas ideas básicas propuestas por los alumnos fueron:

a.-Reducir la contaminación de las máquinas equipos y vehículos que usamos a diario, en el caso de los vehículos, realizando el mantenimiento sugerido por el fabricante, no excediendo los rangos operacionales del mismo , (por ejemplo altas revoluciones, marcha en cambios inadecuados, escuchar la música a altísimos volúmenes lo que produce daños en la persona, aumenta el consumo energético y contamina auditivamente al medio ambiente, evitar todo lo que se pueda el uso del aire acondicionado etc.), usar electrodomésticos clase C o superior (según codificación de eficiencia IRAM 62404.2, Fig.16.1_1).

Fig.16.1_1

b.- usar al máximo la iluminación natural. En el barrio, observar de no arrojar basura en el piso de ningún tipo, ni siquiera papeles o envoltorios.

c.- utilizar lámparas de bajo consumo.

d.- disminuir el consumo de combustibles fósiles, usar por ejemplo medios públicos de trasportación, cambiar en lo posible al uso de biocombustibles.

e.-controlar la emisión de gases en las industrias.

f.- ampliar la generación de energía a través de fuentes limpias y renovables.

g.- colaborar con el sistema de recolección de residuos selectiva y con el reciclaje de los mismos.

Page 262: Manual de Energías Renovables

  2

h.- no desforestar para ampliar las áreas de cultivos, evitar también la deforestación de los ámbitos urbanos, los árboles contribuyen a la purificación del aire absorción de CO2 y a bajar la temperatura en verano, y subirla en invierno.

i.- activar y utilizar los centros de proceso de desechos peligrosos como baterías pilas y termómetros.

j.- utilizar solamente plásticos reciclables.

k.- utilizar pinturas de base agua, aun esmaltes de este tipo, si se manipulan esmaltes de base solvente, evitar verter los restos de solventes en los desagües pluviales, es preferible incinerar los restos de esmalte dentro de su contenedor antes que desecharlo en la basura.

16.2.- La Huella de Carbono.

Dese hace ya un par de décadas la preocupación por el medio ambiente y el cuidado del planeta, es afortunadamente un tema en las agendas de los medios de comunicación y los gobiernos. Así términos como los Gases de Efecto Invernadero, Calentamiento Global y Huella de Carbono, se volvieron comunes para muchas personas.

Asimismo cada vez son más los países que han comenzado a legislar para conocer las emisiones producidas al manufacturar productos, tanto nacionales como extranjeros.

Todavía no hemos hablado de la Huella de Carbono de un producto, en efecto es la medida de la cantidad de emisiones totales de GEI y otros contaminantes atmosféricos que se ha generado al manufacturar un determinado producto y comercializarlo hasta su destino, esto incluye la contaminación por transporte etc., o sea contribuciones directas e indirectas durante los distintos procesos.

Al conocer la Huella de Carbono de un producto se puede encontrar los puntos débiles en su cadena de manufactura que permitan disminuir las emisiones y mejorar los procesos, ayudando al planeta y al medio ambiente.

Hoy la Huella de Carbono es informada en los comercios en varios países europeos, como por ejemplo en los supermercados ingleses Tesco, que comenzó a incluir una etiqueta con este dato en los productos, análogamente la cadena francesa Casino, al igual que Migros en Suiza y Finlandia.

Para los productos de importación que ingresan a Francia desde 2011, rige la llamada “Ley Greenelle” que obliga a informar la Huella de Carbono de los productos que ingresan al país.

En Canadá se obliga a que un 30% del vino importado venga en envases reciclables más livianos.

En Argentina la Huella de Carbono, no puede ser un dato no controlado o dejado al azar ya que es cada vez más necesaria para la realización de exportaciones, una mayor eficiencia productiva a este respecto permitirá ganar mercados al tiempo que cuidará nuestro medio ambiente local.

16.3.- El protocolo de Kyoto.

El Protocolo de Kioto sobre el cambio climático es un protocolo de la CMNUCC, (Convención Marco de las Naciones Unidas sobre el Cambio Climático) y es un acuerdo internacional que tiene por objetivo reducir las emisiones de seis gases de efecto invernadero que causan el calentamiento global:

dióxido de carbono (CO2),

gas metano (CH4)

óxido nitroso (N2O),

además de tres gases industriales fluorados:

Page 263: Manual de Energías Renovables

  3

Hidrofluorocarbonos (HFC),

Perfluorocarbonos (PFC)

Hexafluoruro de azufre (SF6),

Estos GEI’s deben ser disminuidos en un porcentaje aproximado de al menos un 5%, dentro del periodo que va desde el año 2008 al 2012, en comparación a las emisiones al año 1990.

Por ejemplo, si las emisiones de estos gases en el año 1990 alcanzaban el 100%, para el año 2012 deberán de haberse reducido como mínimo al 95%. Es preciso señalar que esto no significa que cada país deba reducir sus emisiones de gases regulados en un 5% como mínimo, sino que este es un porcentaje a nivel global y, por el contrario, cada país obligado por Kioto tiene sus propios porcentajes de emisión que debe disminuir.

El protocolo fue inicialmente adoptado el 11 de diciembre de 1997 en Kioto, Japón pero no entró en vigor hasta el 16 de febrero de 2005. En noviembre de 2009, eran 187 estados los que ratificaron el protocolo. EE. UU. mayor emisor de gases de invernadero mundial no ha ratificado el protocolo.

El instrumento se encuentra dentro del marco de la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC), suscrita en 1992 dentro de lo que se conoció como la Cumbre de la Tierra de Río de Janeiro. El protocolo vino a dar fuerza vinculante a lo que en ese entonces no pudo hacer la CMNUCC.

El protocolo de Kyioto es un tratado entre naciones, que buscan enfrentar la problemática ambiental y el calentamiento global en particular, Argentina es firmante del mismo.

La unidad de transacción de este sistema entre países con diferentes grados de emisión es el Bono de Carbono. Un panorama mundial de emisión de gases GEI indicadas en unidades de miles de toneladas de CO2 emitidas por año se da en la Fig.16.3_1:

Fig.16.3_1

En verde claro se observan los países que más contaminan, Argentina está en el tercer grupo desde arriba con un estándar de entre 100.000 a 300.000 [Tn(CO2) / año].

Page 264: Manual de Energías Renovables

  4

El Bono de Carbono funciona de la siguiente manera, cuando una empresa o gobierno reduce sus emisiones puede certificar los gases que no emitió y transformarlos en Bonos de Carbono, y venderlos en el mercado de Bonos, a su vez las empresas que más se excedieron deben pagar su exceso comprando Bonos de Carbono.

Un CER es equivalente a 1Tn de CO2 que se deja de emitir a la atmósfera ya sea por un mejoramiento en la eficiencia del proceso, eficiencia energética, cambio por energías renovables, o por limpieza de ríos y lagos entre otras prácticas.

Entonces este sistema ofrece incentivos económicos a las empresas que quieren contribuir a mejorar el medio ambiente reduciendo emisiones. Además el país al cual pertenece ha firmado una pauta de reducción a través del Protocolo, por lo cual se constituye en vigilador de las empresas radicadas en él, instigándolas a estas prácticas citadas antes.

El llamado Mecanismo de Desarrollo Limpio (MDL) ofrece también a las naciones desarrolladas y que más contaminan la posibilidad de reducir emisiones fuera de sus fronteras por la via de adquirir Bonos de Carbono en países no comprometidos medio ambientalmente.

Para 2012 que es cuando se cumple la primera etapa del señalado Protocolo se espera que se haya triplicado la oferta mundial de certificados de reducción de emisiones.

[]