Carbon capture: the most expensive solution to a non-existent problem.

I was reading this article about the technologies the IPCC considered woug be required to mitigate climate change. I was astounded when I read that carbon capture is only a viable option if the cost of CO2 is more than 1000$ per ton of CO2. This is such a stravagant cost that I really dont undertand how anyone is still contemplating these carbon capture technologies as a real world solution the global warming problem.

Lets do some very simple numbers to put the 1000$ per ton of CO2 into prespective. The price of electric power around the world varies a lot, different technologies have diferent prices and goverment interference in the electric market is spread worldwide, with different policies in every country. I’m going to use the figure 0.12$ per kWh as the current price in the US and Europe. This price has gone up during the last decade because of the alternative energies like solar and wind, meaning that the cost of producing 1kWh from coal is closer to 0.07$. The specific heat of combustion of coal is 9.46 kWh per kg. Meaning that each kg of coal when burn produces 9.46kWh of thermal energy. This energy is converted to electrical power by means of a turbine with a eficiency of 33-40%. Lets be generous and use 40%, each kg of coal then yields 3.78 kWh of electric power. Or as I prefer to see it 0.264 kg (1 over 3.78) of coal are needed yo produce 1kWh of electric energy. Now the chemical reaction of combustion of coal is simple:

C + O2 —> CO2

Carbon’s atomic weight is 12 g per mol, and Oxigen’s is 16 g per mol. So CO2 molecular weight is 12+2×16=44 g per mol. So each kg of C yields 44/12=3.667 kg of CO2. As we previously calculated that 0.264 kg of C yield kWh though combustion emiting 0.264×3.667=0.969 kg of CO2. At 0.12 $ per kWh this means 0.12/0.969=1.238 $ per kg of CO2 emited or 1238$ per ton of CO2. This number is the result of dividing the cost of energy at the consummers end (this includes the operational cost and benefits of all the companys involved in production, transport and distribution) by the CO2 produced to obtain the energy.

To conclude a world were the cost of a ton of CO2 is 1000$ is one in which the price of electricity is about double of the alredy high compared to fossil fuel operational costs, 0.12 $ per kWh. Since most business require power to operate, the cost of everything basicly doubles aswell. How can anyone consider this viable under any circunstance?

Lets keep in mind that although climate models predict an exponential increase in temperature, the best meassurements available only show a mild increase during the last 50 years, not dissimilar to the one registerd during the first half of the 20th century. More so the temperatures have remained constant for the last 18 years when the CO2 is increasing ever faster. Cimate models also predict exponential sea level rise but meassurements with tidal gouges show a constant, if not decelerating rate of rise. Artic sea ice is now as low as in the 30s not lower and this year’s minimum extent is equal to the 2007’s.

Do we know what matter is?


Matter is at the same time something very mundane and incredibly complex. We deal with material objects all the time and jet when we are press to define what matter is, we end up with a unsatisfactory answer like “matter is that of which things are made of”. And then we can give examples of different materials (type of matter): steel, water, soil, rock, air,…

Our understanding of matter has changed a lot over the last century with new scientific insights, but much is still debated, many of the positions defended have a long history at their backs. This topic has been a central issue of philosophy for over 2000 years, clearly a lot of though has gone into the matter.

Philosophical understanding of matter

Matter has been a topic of great discussion from the time of the Greeks, and still is central debate between religious people, who in some way or other believe on the existence of non-material, let’s say spiritual, things and atheist or materialists who state that matter is all that exist.

The discussion of the essence of matter in ancient Greeks

The ancient Greek thought matter was formed by mixing 4 elements: water, air, fire and earth. Different materials from wood to iron and gold were thought to be mixtures on different percentages of the four basic elements. Thales of Miletus thought the first principle was water, this came from the observation that there is moisture everywhere so water is par of everything. His pupil Anaximander said that water couldn’t be the first, principia, since water couldn’t produce fire, the same happened with the other elements, non were able to create their opposite, thus there was no principal element as such. He nonetheless proposed a perfect, unlimited, eternal and indefinite substance, the Aperion, from which all was created. Anaximenes, Anaximandres pupil, returned to the elemental principia, theory but proposed air as the original element from which everything else is created. He said that though rarification air produced fire and through compression water and subsequently earth.

Pythagoras of Samos said that numbers not matter were the origin of everything. Heraclitus said that no matter was possible since all in life is flux and continuous change. On the other hand Parmenides believed that the universe was static and the hold the only truth, our senses however were changing and unreliable, rendering knowledge of truth impossible. Leucippus and Democritus held that matter was composed of indivisible constituents, atoms. As one can see there was a long debate of what matter was even as far back as the 6th century before Christ.

John Dalton discovered the atom in 1803, giving evidence towards the views held by Leucippus and Democrates.

Modern philosophy: idealism and materialism

The Idealism movement is a group of thinkers which held that reality is principally mental, all we know of the world is what our mind interprets of the world in itself which is out of our reach. The most well known of these thinkers are: Immanuel Kant, G. W. F. Hegel and A. Schopenhauer. In their theories matter is relegated to a secondary place since the world is basically immaterial, or at least our knowledge of the universe is strongly conditioned by our mental process meaning the original essence of matter is not critical since all we ever have a chance to know is mental.

On the opposite side the materialism is a form of philosophical monism which holds that matter is the fundamental substance in nature, and that all phenomena, including mental phenomena and consciousness, are results of material interactions.

There are other philosophical theories that fall in dualistic or pluralistic reality, meaning the world is not purely mental, spiritual or material but is a composition of 2 or more aspects. Descartes is probably one the best known representative of the dualistic nature of reality.


Scientific understanding of matter

From a scientific perspective in classical mechanics a material object is characterized with a position in space and time and some physical properties like volume and mass. All of these properties of matter have a very specific definition and meaning but the only definition of matter that will extract from mechanics is: “matter is that which lays on a position in space and time and occupies a volume and has mass” .

If we go further into quantum and relativistic mechanics we find that ordinary matter is structured, formed by atoms which themselves are composed of particles: electrons , neutrons and protons. neutrons and protons are also composite particles each consisting of 3 quarks. Other more exotic forms of matter exist, formed by all sorts of particles: muons, tauons, neutrinos (3 flavous), mesons (formed by a quark anti quark pair)… In addition we know from relativity that mass and energy are really part of the same thing so massless particles like photons also qualify as matter. From this perspective matter is formed from a sea of particles which in turn are just things that occupy a position in spacetime and have some physical properties like mass, electric charge and spin.

Particles on the standard model of physics.

As we can see science is good at telling us the structure of matter, which are its constructive blocks, but can’t really answer what matter is. This is a consequence of the scientific method, through which hypothesis are falsified and theoretical predictions are verified. This process ensures that the lasting theory has endured and all the predictions based on it have been verified, this however doesn’t mean that some future prediction may fail meaning a new refinement of the theory is required. As a consequence what science can definitely say is how the real world is not. It can’t be anything that produces falsifiable results, since these results are a definite prove that the world is not how we propose. Thats why science will never be able to answer what anything is, only what it is not.

In this sense matter is not a continuous media, since it is made of discrete pieces (subatomic particles). Matter is not static since these particles are in continuous motion. Matter is definitely not mass since mass is only a measure of a body’s resistance to change of motion, inertia, which is a property of most matter (all except mass-less particles, like photons). Different type of matter interact with each other in different ways by four forces: gravitation, electromagnetism, weak force and strong force.


Today, in our scientific worldview most people have a materialistic perspective on nature and life. All matter is made of atoms and all that is or ever has been is made of the particles that constitute the standard model and possible some other particles not jet discovered. This begs the question of whether abstract concepts exist, and by “abstract concepts” here I include such things as chairs and tables, not only truly abstract ones as goodness and happiness. These concepts exist in our minds but not in nature, in a materialistic explanation these concepts don’t really exist they are generated from chemical reactions in our brains the same way awareness arises. And here is were the opposites touch, in a materialistic perspective abstract concepts don’t exist, because the are non-material, from the point of view of idealism or dualism they do exist but in a different “realm of ideas”. Both agree that these concepts are non-material and, in the sense that we use them every day, they undoubtedly must exist in some non-material way. The only difference is whether we disregard this non-material existence as non-existence. So in an ontological way the difference is really not that great as initially expected.


El Cáos a través del péndulo doble

El péndulo doble es uno de los sistemas más sencillos, cualquiera puede construirse uno en su casa con dos masas sujetadas de dos barras, sin embargo demuestra la complejidad de la mecánica en la naturaleza. La imagen en la portada (fuente original) muestra lo compleja que resulta la trayectoria de este segundo péndulo; el primer péndulo recorre arcos de circunferencia, trayectoria roja sin embargo al segundo muestra toda clase de quiebros inesperados, linea amarilla.

Se trata de un sistema donde el comportamiento caótico se presenta de una forma aparente hasta para ángulos de desplazamiento iniciales no muy grandes.

Lo primero que haremos es deducir las ecuaciones del movimiento del péndulo doble. Esto llevará una buena parte del post deduciremos las ecuaciones por dos procedimientos distintos, el Newtoniano y el Lagrangiano. Después exploraremos en que sentido es el movimiento caótico a través del análisis de resultados de la simulación de las ecuaciones deducidas para distintas condiciones iniciales.

Método Newtoniano

Vamos a empezar por plantear el problema desde un punto de vista Newtoniano. Veremos después como el planteamiento se estandariza y facilita si se plantea desde un punto de vista Lagrangiano.

Presentamos en la Figura 1 un esquema de fuerzas y aceleraciones que actúan sobre el sistema.

Figura 1: a) Esquema de fuerzas b) Esquema de aceleraciones, en un péndulo doble.

Según la segunda ley de Newton F=ma (fuerza igual a masa por aceleración) en este caso aplicamos esta ley a las fuerzas de cada una de las masas en la direción vertical (y) y horizontal (x). Tenemos:





De la tercera de estas 4 ecuaciones sacamos:


De la primera sustituyendo el valor obtenido pata F_2 tenemos:


De las dos ecuaciones restantes, la segunda y la cuarta obtenemos las ecuaciones que rigen el sistema:



Ahora solo queda deducir las aceleraciones del sistema, para ello partimos de las posiciones de los péndulos, las derivamos con respecto al tiempo para obtener las velocidades y las volvemos a derivar para obtener aceleraciones.

Empezamos por las posiciones, de la Figura 1b, se observa (tened en cuenta que el eje y lo consideramos positivo en el sentido ascendente y el origen esta en el punto fijo del péndulo):





Ahora derivamos con respecto al tiempo y obtenemos las velocidades:





dónde usamos la notación  \dot{z} para denotar la derivada temporal de z. Por último realizamos la segunda derivada:




a_{y2}=L_1(\mathrm{sin}{\theta}_1\ddot{{\theta}_1}+\mathrm{cos}{\theta}_1\dot{{\theta}_1})+L_2(\mathrm{sin}{\theta}_2\ddot{{\theta}_2} +\mathrm{cos}{\theta}_2\dot{{\theta}_2})

Método Lagrangiano

La teoría de Euler-LaGrange dice que en mecánica se cumple la ecuación

\frac{d}{dt}\left(\frac{\partial L}{\partial \dot{x}}\right)-\frac{\partial L}{\partial x}=0

Donde $L$ es el Lagrangiano, $x$ es una coordenada generalizada del sistema y $\dot{x}$ su derivada temporal. En nuestro problema coordenadas generalizadas son las posiciones angulares, {\theta }_1 y{\theta }_2. La ley de Euler-LaGrange se demuestra desde los principios newtonianos y es equivalente a aquellos. Se trata de un planteamiento desde el punto de vista energético.

El Lagrangiano se define como:


Donde T es la energía cinética y V la energía potencial del sistema.

Recordemos que la energía potencial gravitatoria es V=-mgy  donde y es la altura (signo menos porque hemos elegido el eje y hacia abajo).

y_1=L_1{\mathrm{cos} {\theta }_1\ }
y_1=L_1{\mathrm{cos} {\theta }_1\ }+L_2{\mathrm{cos} {\theta }_2\ }
V=-m_1gL_1{\mathrm{cos} {\theta }_1\ }-m_2g\left(L_1{\mathrm{cos} {\theta }_1\ }+L_2{\mathrm{cos} {\theta }_2\ }\right)
V=-g\left[\left(m_1+m_2\right)L_1{\mathrm{cos} {\theta }_1\ }+{m_2L}_2{\mathrm{cos} {\theta }_2\ }\right]

La energía cinética es un poco más difícil de sacar. Recordemos que


La velocidad de la masa 1 es inmediata.

v_1=L_1\dot{{\theta }_1}

Sin embargo el de la masa 2 resulta de la suma vectorial de la velocidad 1 más la velocidad de la masa dos relativa al sistema no-inercial.

v_r=L_2\dot{{\theta }_2}

Es fácil de ver que el ángulo que forman \overrightarrow{v_1} y \overrightarrow{v_r} es {\theta }_2-{\theta }_1 y por tanto por el teorema del coseno:

{v_2}^2={\left(L_1\dot{{\theta }_1}\right)}^2+{\left(L_2\dot{{\theta }_2}\right)}^2+2L_1L_2\dot{{\theta }_1}\dot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }

Por tanto la energía cinética es:

T=\frac{1}{2}m_1{L_1}^2{\dot{{\theta }_1}}^2+\frac{1}{2}m_2\left[{\left(L_1\dot{{\theta }_1}\right)}^2+{\left(L_2\dot{{\theta }_2}\right)}^2+2L_1L_2\dot{{\theta }_1}\dot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }\right]

El Lagrangiano por tanto:

L=\frac{1}{2}(m_1+m_2){L_1}^2{\dot{{\theta }_1}}^2+\frac{1}{2}m_2\left[{\left(L_2\dot{{\theta }_2}\right)}^2+2L_1L_2\dot{{\theta }_1}\dot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }\right]+ g\left[\left(m_1+m_2\right)L_1{\mathrm{cos} {\theta }_1\ }+{m_2L}_2{\mathrm{cos} {\theta }_2\ }\right]

El siguiente paso por tanto es calcular las derivadas parciales del Lagrangiano como función $L({\theta }_1,{\theta }_2,\ \dot{{\theta }_1}\dot{{,\theta }_2})$:

\frac{\partial L}{\partial {\theta }_1}=m_2L_1L_2\dot{{\theta }_1}\dot{{\theta }_2}{\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }-g\left(m_1+m_2\right)L_1{\mathrm{sin} {\theta }_1\ }
\frac{\partial L}{\partial {\theta }_2}=-m_2L_1L_2\dot{{\theta }_1}\dot{{\theta }_2}{\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }-gm_2L_2{\mathrm{sin} {\theta }_1\ }
\frac{\partial L}{\partial \dot{{\theta }_1}}=\left(m_1+m_2\right){L_1}^2\dot{{\theta }_1}+m_2L_1L_2\dot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }
\frac{\partial L}{\partial \dot{{\theta }_2}}=m_2{L_2}^2\dot{{\theta }_2}+m_2L_1L_2\dot{{\theta }_1}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }

\frac{d}{dt}\left(\frac{\partial L}{\partial \dot{{\theta }_1}}\right)=\left(m_1+m_2\right){L_1}^2\ddot{{\theta }_1}+m_2L_1L_2\left[\ddot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }-\dot{{\theta }_2}(\dot{{\theta }_2}-\dot{{\theta }_1}){\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }\right]

\frac{d}{dt}\left(\frac{\partial L}{\partial \dot{{\theta }_2}}\right)=m_2{L_2}^2\ddot{{\theta }_2}+m_2L_1L_2\left[\ddot{{\theta }_1}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }-\dot{{\theta }_1}(\dot{{\theta }_2}-\dot{{\theta }_1}){\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }\right]

Por tanto, aplicando \frac{d}{dt}\left(\frac{\partial L}{\partial \dot{{\theta }_i}}\right)-\frac{\partial L}{\partial {\theta }_i}=0, las dos ecuaciones que rigen el sistema (simplificando los términos que se cancelan) son:

\left(m_1+m_2\right)L_1\ddot{{\theta }_1}+m_2L_2\left[\ddot{{\theta }_2}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }-{\dot{{\theta }_2}}^2{\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }\right]+g\left(m_1+m_2\right){\mathrm{sin} {\theta }_1\ }=0

L_2\ddot{{\theta }_2}+L_1\left[\ddot{{\theta }_1}{\mathrm{cos} \left({\theta }_2-{\theta }_1\right)\ }-{\dot{{\theta }_1}}^2{\mathrm{sin} \left({\theta }_2-{\theta }_1\right)\ }\right]+g{\mathrm{sin} {\theta }_1\ }=0

Para que estén escritas de la misma manera que en el apartado anterior solo habría que despejar \ddot{{\theta }_1} y \ddot{{\theta }_2}, cosa que vamos a dejar para el lector.

La ventaja del método Lagrangiano es que no requiere calcular las fuerzas que soportan los péndulos que es un proceso engorroso. Además la manera de llegar hasta las ecuaciones es siempre igual, a cambio requiere realizar varias derivadas.

Comportamiento Caótico del sistema

En Física se dice que un sistema es caótico cuando pequeñas diferencias en las condiciones iniciales del sistema conducen a situaciones muy distintas con el trascurso del tiempo. Para mostrar esto voy a simular dos casos en el primero los péndulos van a soltarse con unos ángulos: {\theta}_1=30^{\circ} \quad (\frac{\pi}{6} \mathrm{rad}) y {\theta}_2=60^{\circ} \quad (\frac{\pi}{3} \mathrm{rad}); el segundo se soltara desde:{\theta}_1=31^{\circ} \quad (\frac{31\pi}{180} \mathrm{rad}) y {\theta}_2=61^{\circ} \quad (\frac{61\pi}{3} \mathrm{rad}). Una diferencia de tan solo 1º produce diferencias importantes en tan solo 3s de simulación. De la misma manera diferencias de 1″ llevarían a errores inaceptables al cabo de unos minutos. Los péndulos simulados tienen una longitud de 1 m y unas masas de 1 kg.

Figura 2: Diferencia en la posición de cada una de las masas entre los casos simulados. En azul la diferencia entre los valores de {\theta}_1 en radianes. En naranja la diferencia entre los valores de {\theta}_2 en radianes.
Figura 3: posiciones de las masas de los pendulos durante los primeros 3s.


De la Figura 3 vemos que los dos sistemas se siguen bastante bien durante 1.5 s o así, a partir de ahí empiezan a separarse bastante bruscamente. La Figura 2 muestra la diferencia entre el caso cuyas condiciones iniciales son (30º, 60º) y aquel que tiene (31º,61º). Durante los primeros 1.75s o así las graficás de la Figura 2 estan bastante cerca de cero, indicando que la diferencia entre los dos sistemas es escasa. Sin embargo a los 2s diverge sustancialmente ya que llegan a mas de 2 rad (114º) de diferencia. Observar que la máxima diferencia posible es de 180º, significando que estan en la posición opuesta.

Notar que un error de 1º en la posición de un péndulo de 1m es bastante grande ya que equivale a unos 17 mm de desplazamiento, por esta razón los dos casos divergen a los pocos segundos.

Climate Radiation Model

This model is inspired in the model posted by David Evans in his blog page. The model is based in the concept of emission layers of the atmosphere. The different active gases that are part of the composition of the the atmosphere, each emits infra red radiation at characteristic wavelengths and from different atmospheric layers.

The active gases of the atmosphere, sometimes called greenhouse gases, are H2O, CO2, O3 and CH4 in order of decreasing thermal emissions. Apart from the active gases some radiation is emitted directly from Earth’s surface and the top of the clouds through what is called “The atmospheric IR window“, the spectrum to which the atmosphere is transparent in the IR. In David’s nomenclature these 6 possible sinks for the incoming heat are called “pipes”, of these two are of minor importance O3 and CH4, leaving 4 main pipes. Energy can redistribute though the other pipes if one of them gets blocked, as for example by adding CO2.

Fig 1. The spectral outgoing long-wave radiation (OLR). Showing the spectral windows of the different gases and the transparent window from which the surface emits. In gray is the blackbody emission of an object at 300K = 23ºC

David does a very good job at summarizing the available data on the highs of emission of the different gases and the top of the clouds, here. The gases are supposed ti be almost black body emitters in the window through which each is active, meaning the emitted energy is only a function of the temperature of the layer of the atmosphere from which the emission takes place. Since the temperature of the atmosphere decreases with altitude (in the troposphere), a higher layer emits less power than one closer to the Earth’s surface.

David’s OLR (outgoing long-wave radiation) model is only concerned on how the variation of various parameters modify the distribution of heat through the pipes, how these parameters may be dependent of the temperature or other independent variables is outside his scope.

Here I am going to layout a thermal model, based in well known physics to try to explain some of these missing relations. The first step is to build a model that fits the data, so to that purpose I am going to use the numbers from David Evans’ post:

  • Lapse rate 6.5ºC/km, surface temperature= 288K
  • Cloud cover = 62%, albedo = 30%, solar constant = 1367.7 W/m²
  • Water emission layer: height=8km, output power = 33%
  • Carbon Dioxide layer: height=7km, output power = 20%
  • Cloud top emission layer: height=3.3km, output power = 20%
  • Methane emission layer: height=3km, output power = 2%
  • Ozone emission layer: height=16km, output power= 5.8%
  • Surface emission layer: height=0km, output power=18.2%

Note: for now I have treated the CO2 as emitting from a constant average hight, I liked David’s treatment of the wights of the spectral emission on this spectrum, and I am planning on taking a similar approach on my next refinement. (End note)

The model uses a 2 surfaces representation of The Earth: surface 0 the ground surface (the origin) and the top of the atmosphere surface which is characterized by the maximum height of the convective Hadley. Temperatures are assumed to be linear throughout the atmosphere, so once the convective overturn is specified and the temperature at the top of the Hadley cell is known, the temperature of any other layer is linearly interpoled. The amount of energy that flows through each pipe is controlled by six additional parameters that represent the spectral width of the different spectral windows for each pipe. In the analogy of flow coming out of a damp through a set of pipes in parallel, these parameters represent the widths of the pipes.  For now these values have been adjusted to fit the percentages specified above, but I pretend to deduce their dependence with the height of the emission layers and the wave-lengths of the windows in the next post of the series.

The complete equations of the model and the values of the different parameters are on the link. The core of the model is equations 41, 50 and 51; representing the energy balance in both regions, the surface and the atmosphere.

clamte model diagram

Fig 2. Model schematic. One surface and one band model. Two balance equations one on the surface and one on the upper atmosphere as a whole. The atmosphere emits from different layers which are at different temperatures

The incoming solar power, modified by albedo, is the heat source of planet Earth and this heat is assumed to be absorbed on the surface. The surface balances the heat by radiation and convection mechanisms. The surface radiates either directly to space (about 18%) or to the clouds, this makes a total of three heat sinks for the surface: the two radiation and the convective mechanism.


The atmosphere on the other hand is heated by the surface, through the convention and the radiation to clouds mechanisms, which being heat sinks for the surface, become sources for the atmosphere. The atmosphere is balanced by its own sinks which is the radiation to space from the different active layers: clouds, H2O, CO2, CH4 and O3.

Q_{Conv}+Q_{ToClouds}=Q_{FromClouds}+ Q_{H2O}-Q_{CO2}+Q_{CH4}+Q_{O3}

Each of the radiative emission layers is modeled like so:

Q_i=A_i \epsilon f_i \sigma T_i^4

T_i=T_0-\alpha h_i

where A_i is the surface area, \epsilon is the emittance of the atmosphere (0.996), \sigma is Stephan-Boltzmann constant, T_i is the temperature of the emission layer in K, f_i is the window factor, T_0 is the temperature of Earth’s surface, \alpha is the lapse rate and h_i the height of the emission layer.

The convective heat is modeled as so:

Q_{Conv}=A_0 h_{conv} (T_0-T_1)

The lapse rate is then:


where A_0 is the area of Earth’s surface, h_{conv} is the convection film coefficient, T_1 is the temperature at the top of the Hadley convective cell, and H is the height of the convective cell.

The direct radiation to space is then:

Q_{Direct}=A_0 \epsilon f_{direct}(1-c)\sigma T_o^4

where c is the cloud cover and f_{direct} the direct atmospheric window.

The radiation to clouds is:

Q_{ToClouds}=A_0 \epsilon f_{direct}c\sigma T_o^4-A_1 \epsilon f_{clouds}c\sigma T_1^4

with f_{clouds} being the atmospheric window from the top of the clouds and A_1 the surface of a sphere which encompass the convective layer of Earth.

Lastly the solar irradiation is

Q_{Solar}=A_0 G_s/4 (1-a)

Whit G_s as the solar constant and a as the albedo.

The model has then 8 parameters that can be adjusted to fit the experimental data: all 6 window factors, the convective coefficient and the height of the convective cell. These parameters are set by imposing the experimental outgoing power distribution, the experimental mean lapse rate and the surface mean temperature which are a total of 7 restrictions. This leaves an extra degree of freedom which I chose as setting the height of the convective cell as 8.2 km arbitrarily.

There are several problems with the current model, that will be addressed in the next post of the serie:

  1. The temperature of the stratosphere increases with height from the tropopausa at about 10-12 km so the ozone temperature layer is not correct. The actual ozone layer is above 20-30 km high but I chose to leave it at 16km so that it’s temperature not fall drastically when using the linear lapse rate. The stratosphere increases temperature  because the O3 captures part of the UV light from the sun and is heated. In future models I may include this effect.
  2. Although the physical meaning of the window factors is clear, these factors can be deduced mathematically from the temperature of the emission layer and the wavelength interval as the fraction of the Planck distribution at the temperature that is emitted through the window. This will be tried on next model, once done the factor will be linked to the height of the layer, the lapse rate and the surface temperature through the temperature of the layer. The fact that the model has an extra degree of freedom (the height of the convection cell) increases my confidence that once the theoretical window fractions are calculated, which inevitably will be different from those obtained from the adjustment, the model will still fit the experimental data within reason.
  3.   CO2 emits radiation from a whole range of heights in the atmosphere through the weights of the spectral window (see figure 1), the treatment of this feature will be studied. I think it is the result of a lower opacity (larger optical length) of the CO2 at those wavelengths so the solution is only partly lowering the emission height but also the emittance at those wavelengths, since a lower absorption (opacity) will always be accompanied by a lower emittance at a same wavelength (Kirchhoff Law of radiation)


This has been a very interesting post for me. I look forwards to the continuation. Any comment, or doubt or correction is welcomed.



América precolombina

Hace ya tiempo leí el libro Armas, gérmenes y acero de Jared Diamond. Es sin lugar a dudas un libro muy interesante, que propone algunos puntos acerca de la influencia de la geografía en el desarrollo de las civilizaciones y en particular en el resultado de la mayor colisión de culturas en la historia: El encuentro de Europa y América a partir de 1492.

Me encontré con un articulo en Living Anthropologically, un blog de antropología, que hace una critica del libro de Armas, gérmenes y acero, diciendo que el libro si bien presentaba algunas ideas reveladoras, incluso innovadoras, llegaba a conclusiones que contradicen las últimas tendencias en antropología ya que ignora algunas de los descubrimientos de los últimos tiempos.

En este mismo blog recomendaban el libro 1491 : New Revelations of the Americas Before Columbus de Charles C. Mann, como un buen primer contacto con las ideas más actuales de como era América antes del primer contacto y como llegó a serlo. Así que, ya que el tema me resulta interesante compré el libro en versión electrónica y por ahora solo he leído la primera parte. En esta primera parte se introduce el resto de los temas y se analiza en detalle las consecuencias del choque de civilizaciones en América, es decir la evolución de la historia americana tras el descubrimiento de Cristobal Colón, la conquista de Hernan Cortés y de Francisco Pizarro y las colonizaciones inglesas y francesas en América del norte.

Escribo esto antes de terminar el libro ya que las revelaciones que en el estoy encontrando me resultan sorprendentes, esta lleno de detalles interesantes de los primeros encuentros y sobre todo abre los ojos a un sociedad completamente desconocida de la que el publico general tiene ideas muy distintas de las que manejan los expertos. Quizás es un tema que no resulta de interés al publico general o quizás no les resulta interesante a los editores de los medios de comunicación o quizás es políticamente incorrecto una historia que no muestre a los europeos como culpables, pero en cualquier caso parece lamentable que no hayamos oído de estos descubrimientos en ningún momento, siendo muchos de ellos de los 80s y 90s.

Según Diamond Jered, las razones por las cuales los Españoles vencieron a las civilizaciones precolombinas son como el título de su libro indica la tecnología y las enfermedades contagiosas. Su libro explica cómo por circunstancias geográficas se produjeron estas diferencias en las sociedades. La tesis de su argumento basa en:

  • Los antecesores de los indígenas llegaron a América hacia al principio del holoceno al final de la última edad de hielo hace 12000-13000 años.
  • Estos primeros colonos, exterminaron la mayoría de las especies animales de gran tamaño, que posteriormente podrían haber sido útiles para domesticar,debido a que estas especies no conocían al hombre y resultaban extremadamente fáciles de cazar.
  • América es un continente orientado de Norte a Sur por lo que presenta barreras naturales climatológicas a la difusión de especies domesticadas, particularmente plantas.
  • Como consecuencia de los puntos anteriores llegaron mucho mas tarde a la revolución agraria del neolítico.
  • Como consecuencia la aparición de grandes imperios y sociedades complejas fue mucho más tardía.
  • La aparición de nuevas tecnologías también tuvo lugar a un paso más lento debido a la menor densidad de población (menos mentes implica menos individuos excepcionales que a su juicio son los responsables del progreso tecnológico)

Según los avances en antropología genética, descubrimientos arqueológicos y análisis lingüísticos de finales del siglo pasado, muchos de estos puntos estan, actualmente, cuanto menos muy disputados y en muchos casos las evidencias en su contra son sustanciosas.

Por una parte la teoría de una única colonización americana en tiempos precolombinos esta cada vez más comprometida por la cantidad de yacimientos arqueológicos datados hace más 13000 y material genético mitocondrial con mutaciones no presentes en la sociedad indígena. (más en este tema cuando me termine el libro por ahora no tengo detalles)

Por otra parte la aseveración de que la población americana era mucho menor de su coetánea en Europa parece falsa en base a los documentos escritos por europeos al poco de llegar y registros funerarios y restos de enterramientos arqueológicos indígenas. Parece que la población en México (el llamado imperio Azteca o más correctamente la triple alianza) contenia entorno a 25 millones (como mínimo 15) de habitantes y una estimación conservadora de la población del continente americano es de 40 millones de habitantes. Como referencia, en esta época, los países mas poblados europeos eran Francia y Austro-Hungría con 15 y 11.5 millones de habitantes respectivamente, seguidos de Italia y Alemania con 11 y 10 millones.

La estimación de la población inicial había sido subestimada debido a que la mayoría de las poblaciones que encontraban los europeos ya habían sido diezmadas por las epidemias contagiosas como la viruela  antes del primer encuentro. Evidencias de esto son los registros de españoles e ingleses que encontraban poblados enteros desatibados y abandonados, así como cadáveres y miseria por donde quiera que exploraban. La estimación actual es que entre el 95%-97% de la población indígena de todo el continente murió por causa de las enfermedades en cuestión de 100 años.

Debido a que la población que colonizó América hace al menos 13000 años fue pequeña, todos los indígenas presentan una menor diversidad genética y en particular al no haber estado expuestos a enfermedades su paquete de anticuerpos era y aún continúa siendo menos diverso hasta el punto de que la probabilidad de que los anticuerpos de dos personas aleatorias no combatan una misma enfermedad en Europa es un 2% sin embargo en América era en torno a un 30%, esto explica la altísima tasa de mortalidad.

Por último se han encontrado evidencias arqueológicas de civilizaciones tempranas en América  muy anteriores a lo que se había previsto dando a entender que las ciudades y con ello las altas concentraciones de población no empezaron mucho más tarde que en Europa. (más sobre este tema en el próximo post, ya que tampoco he llegado al capitulo en el que se exponen los detalles a este respecto).

Hasta la próxima!!

Para aquellos visitando desde facebook o LinkedIn si os ha gustado el artículo os agradecería entrarais en el blog  para que se registre vuestra visita. Si os ha resultado interesante pulsad like en el post del blog- gracias a todos.

Como siempre cualquier comentario, pregunta o duda es bienvenida.

(perdonad si hay alguna errata, es un poco tarde y no voy a repasarlo)



Paseo fotografico por Sevilla

Hoy he aprovechado para hacer un poco de fotografía, la verdad es que hacía algún tiempo que no saco tiempo para esta actividad y desde hace unos días tengo la idea de hacer un reportaje fotográfico del ambiente primaveral de Sevilla. El reportaje se centra en las personas y en particular se trata de una serie de fotografías al natural que tratan de capturar la esencia de las personas cuando no esperan ser retratadas.

Las fotos están realizadas con una Nikon D5100 y unas lentes 18-55cm, se trata de un equipo básico para empezar a aficionarse a la fotografía, pero con esta cámara se pueden sacar fotos muy decentes.

Ha hecho un día esplendido, muy buen tiempo para pasear y ver la ciudad. Empezamos en la Plaza del Duque al lado del Corte Inglés donde nos encontramos esta japonesa escribiendo un WhatsApp mientras se come una manzana tomando el sol bajo una jacaranda floreciente.

Imagen 1: Plaza de la Concordia, Descansar bajo el cobijo de una Jacaranda y tomarse una manzana.

Normalmente no somos conscientes de la cantidad de tiempo que estamos mirando al teléfono. Andando por la calle, mires donde mires, encuentras gente mirando al teléfono. Parece que preferimos estar en otro lugar que allí donde nos encontramos físicamente, escapar de la realidad en la que vivimos.

Imagen 2: Esperar autobús en la Plaza del Duque

Llegamos a la plaza nueva donde hay mucho ambiente. Estas dos jovencitas americanas estaban en el centro de atención, os puedo asegurar que yo no era el único que las miraba. Cuesta descifrar el tatuaje del hombro pero dice:

OHANA means family. Family means nobody gets left behind or forgotten.

Parece ser que es una cita de la película Lilo y Stich de Walt’s Disney. Que hace referencia al concepto Ohana de la cultura hawaiana. ¿A lo mejor es Hawaiana? Desde luego era norteamericana por el acento.

Imagen 3: Plaza Nueva, Observando a las turistas.
Imagen 4: Plaza nueva frente al ayuntamiento, descansando a la sombra.

En la Avenida de la Constitución encontramos varias ocasiones para fotografías.  Muy divertido como va vestida la turista asiática de esta próxima fotografía, lo mas curioso era lo difícil que resultó conseguir hacerle una foto. No paraba de intentar fotografiar todo aquello que veía moviéndose a lo largo de la avenida para delante y para atrás.

Imagen 5: En la avenida de la constitución frente a la catedral. Turismo frenético, no se vaya a dejar algo sin grabar o fotografiar.
Imagen 6: El amor en primavera.












Imagen 7: Después de una mañana de turismo que mejor lugar que el Starbuks para tomar el café?
Imagen 8: Espectáculo callejero de baile, Despedida de solteras observando a los bailarines latinos.

Continuamos por la plaza de la encarnación donde había un ambiente muy agradable, gente sentada disfrutando de la tarde. Para cuando llegue aquí ya me había cansado un poco así que me tiré en el suelo usando una de las rampas como respaldo, no era el único que se había sentado en el suelo así que pasaba desapercibido. Además una perspectiva interesante y poco habitual.

Imagen 9: En la plaza de la encarnación, posando bajo el árbol

Cambié de sitio y me volvía a sentar en el suelo junto a unos chavales. Nada mejor que difuminarse en el ambiente para pasar desapercibido y hacer fotos al natural.

Imagen 10: Viendo un vídeo en la plaza de la encarnación
Imagen 11: Vamos, no te pares en el kiosco
Imagen 12: jugando detrás del Salvador

Como siempre cualquier comentario, opinión, pregunta o incluso critica esta bienvenida.

El hombre y la naturaleza

Imagen de portada cogida de aqui.
Estaba leyendo sobre el CO2 antropogénico en contraposición al de origen natural y casi sin darme cuenta empecé a divagar sobre la aparente paradoja entre estos calificativos sobre el origen.
Usamos el termino natural como el opuesto de antropogénico lo que inmediatamente califica de antinatural o artificial a la humanidad. Pero en el sentido mas estricto, no es el hombre parte de la naturaleza? En que momento se escindió la hombre de la naturaleza?
La existencia en el lenguaje de dos antónimos de la palabra natural: artificial y antinatural, que son dramáticamente distintos entre sí ponen de manifiesto la dicotomía del hombre en su relación con naturaleza.
El termino naturaleza viene del latín “natura” y significa de desarrollo espontaneo. En este sentido por un lado, resulta obvio que el hombre se desarrollo de forma espontanea en el mundo y es por tanto parte de la naturaleza. Sin embargo debido a su consciencia y razón, el hombre tiende a considerar su intervención como algo separado de la naturaleza, ya que se siente en capacidad de controlar o alterar su contribución. Este sentimiento esta en el corazón de la diferencia entre lo natural y lo artificial. De esta manera, la propia clasificación es artificial y puramente antrópica hasta el punto de ser antinatural. La naturaleza en sí no distingue entre una y otra parte del todo que conforman; siendo la clasificación contra natura ergo antinatural.
En la época moderna el hombre ha sido capaz a través de la ciencia de distanciarse de su posición antropocéntrica, un proceso complicado y lento que empezó con Copérnico y Galileo destruyendo la noción de la tierra como centro del universo, continuó con Darwin sacando al hombre de su posición privilegiada entre las especies y sigue en su proceso desbaratando hasta nuestros prejuicios metafísicos mas básicos: el espacio, el tiempo a través de las teorías Relativistas y cuánticas. El método científico nos ha permitido crear tecnologías inimaginables en tiempos anteriores.
Estas nuevas tecnologías nos capacitan para adaptar el mundo a nuestras necesidades y en el proceso repercuten en los procesos de la naturaleza. Esto nos hace conscientes de nuestra intervención pero no conocedores de su consecuencia ni capaces de controlar las implicaciones. Esto produce un cambio en la concepción de lo que caracteriza una acción de artificial: la culpabilidad, una emoción humana muy poderosa y como todas las emociones irracional. Este nuevo concepto lo calificamos de antropogénico: de origen humano, causado por el hombre. La introducción de esta palabra parece aclarar las cosas, pero en realidad solo complica la situación. Ahora tenemos, no dos sino tres antónimos, de una palabra paradójica desde su concepción, natural: antinatural, artificial y antropogénico.
La mente humana no trabaja bien con conceptos vagos y paradójicos por lo que inevitablemente se produce la siguiente relación cuando no encontramos con la palabra antropogénico:
CULPA–>antropogénico–>no natural–>artificial–>CONTROLABLE
Una falsa sensación de control, que unido a los avances tecnológicos y difusa frontera, para el hombre medio entre la realidad tecnológica y la ciencia ficción genera una ilusión de control. La ilusión de control y el fuerte sentimiento de culpa inevitablemente produce una necesidad irracional de reaccionar y mitigar las consecuencias de nuestra acción.
El uso de la misma palabra, natural para referirse a conceptos muy distintos: aquello que el hombre no se siente con capacidad de modificar o intervenir y aquello que no esta causado por el hombre, la convierte en un arma terrible a manos de políticos y figuras de los medios comunicativos que obliga al ciudadano medio a sentirse culpable si no favorece acciones de mitigación, que por otra parte están condenados a fallar por no estar el hombre en control de las consecuencias.

Uncertainty and Bayesian probability

bayesian_processThis post is to address the relation between the uncertainty on the state of a system with the information we have of it. Said in those terms is kind of obvious, the more information the less uncertainty. More information can take the form of knowing some other aspect of the system or being more precise information on previously acknowledge aspects.

In mathematics the way to deal with this kind of problem is probability and the way probabilities change when additional data is taken into account is the law of Bayes, hence Bayesian probabilities.

To illustrate how this works I’m going to go through an example. Lets imagine we have a tank of worm water, like a bath tub, and we want to know what temperature the water in the tank has. We could stick a thermometer in the tank and measure its temperature, assuming the temperature of the water in the tank is well mixed then that would yield the temperature of the tank with the uncertainty characteristic of our measuring device.

Fig. (1) The uncertainty distribution of a simple measurement of the water in the tank

If we are using a mercury thermometer the uncertainty would be around \pm0.2\textrm{ }\textdegree\textrm{C}. Measuring devices’ uncertainties are usually assumed to be normally distributed unless specific evidence is available. Usually the uncertainty level used is 95% or 2\sigma (two standard deviations). Meaning that when I say that the water in the tank is at 36.9\pm0.2\textrm{ }\textdegree\textrm{C}, it means I’m 95% certain that the temperature is between 36.7 and 37.1. The probability distribution of Fig. (1) shows the exact meaning, we are more confident the closer we get to the mean value.

To see how our knowledge of the system varies when further information is taken into account we are going to consider that this tank is not alone in the universe but it interacts with it.

Lets make the tank be in thermal equilibrium by adding a hot water inlet and a outlet, configured in such a way that the level of water is constant. Lets assume the tank is well insulated on all of its lateral walls and floor but open to the room temperature air on its top surface. For this system to be in equilibrium the mass flows of the inlet and outlet must coincide and the incoming heat through the inlet must be equal to the heat losses to the ambient.

This system is easily described with a simple equation relating the variables in play:

mc_p(T_{in}-T)=Ah(T-T_{amb})                                   (1)


  • m is the mass flow.
  • c_p is the specific heat of the water, which we are going to take as a constant known with absolute certainty to be c_p=4.187\quad\frac{\textrm{kJ}}{\textrm{kg}\textdegree\textrm{C}}   .
  • T_{in} is the temperature of the water comming into the tank.
  • T is the temperature of the tank.
  • A is the area of the surface water of the tank, which we also will assume is a perfectly known quantity T_{in}=0.64\quad\textrm{m}^2
  • h is the convection film coeficient, which we’ll assume is h=10 \quad\frac{\textrm{W}}{\textrm{m}^2\textdegree\textrm{C}}.
  • T_{amb} is the ambient temperature of the air in contact with the water surface.

Lets assume we are measuring the inlet temperature, the ambient temperature and the mass flow, as follows:

  1. T_{in}= 58 \pm 0.2\quad \textdegree\textrm{C}.
  2. T_{amb}= 17 \pm 0.2\quad \textdegree\textrm{C}
  3. m= 0.0015 \pm 3.7E-5\quad \frac{\textrm{kg}}{\textrm{s}}

Having these measurements gives us a pretty good idea of the temperature of the tank even before explicitly measuring it. Fig. (2) shows this probability, it turns out we already know the temperature of the tank is 37.257 \pm 0.52\textrm{ }\textdegree\textrm{C}. It is less precise that the direct measurement but the monitoring of the interactions with the outside does provide an estimate of the temperature of the system.

Fig. (2) Prior probability of the state of the tank, before measuring it explicitly.

Now lets consider what happens when we measure the temperature and the measurement device shows like before 36.9\pm0.2\textrm{ }\textdegree\textrm{C}. Since our prior knowledge of the state of the system is different, in the previous case we didn’t know anything of the system before hand, now we believe the temperature is 37.257 \pm 0.52\textrm{ }\textdegree\textrm{C}. How this influences the ultimate state of our knowledge, after the measurement?

Bayes’ theorem provides the method that allows us to to update beliefs when new evidence arrives (more on that on wikipedia). Applying the theorem to the example at hand we find that the prior beliefs modify the end result bringing the mean a little towards the mean of our prior beliefs and reduces a little the uncertainty of the measurement. Figure (3) shows how our prior probabilities (blue) bring the measurement (green) slightly towards the right to, transforming our prior believes (blue) to to our later, more precise, believes (red). The final state of knowledge of the system is 36.946 \pm 0.187\textrm{ }\textdegree\textrm{C}, the uncertainty has gone down from 0.2 to 0.187 because of our prior knowledge, moving the mean from 36.9 to 36.946.

Fig. (3) The Bayesian process. Our prior believes (blue) influence our final state of knowledge (red) after measuring the system (green). It doesn’t only modify the most likely value but also reduces the uncertainty of the measurement.

Joseph’s tiling the court yard problem

An example of a problem involving the resolution of Pell’s 2nd order diophantine equation

Problem statement

Joseph is planning to tile his square court yard with square tiles. He has requested an offer from his two friends Frank and Peter. Frank proposes to use tiles with an area 17 times bigger than Peter. Knowing that Peter’s tiles cover exactly the whole floor of the court and that Frank’s on the other hand fall short for the area a one of Peter’s tiles, how many tiles are the minimum that Peter and Frank, each have proposed in their respective offers?


Let and be the number of tiles used by Peter and Frank respectively (we know they must be perfect squares).

Let A be the area of Peter’s tiles and 17A the area of Frank’s, then:

  • The total area of Peter’s tiles is Ax².
  • The total area of Frank’s tiles is on the other hand 17Ay².

Since the difference in Frank’s and Peter’s total tiles’ areas is the area of one of Peter’s tiles, we have:

Ax² – 17Ay² = A

, which when dividing each side of the equation by A, yields:

x² – 17y² = 1                    (1)

The problem then consists is finding the positive integer roots of equation (1).

This is a particular case of Pell’s equation: x² – Dy² = 1 where D is a positive integer. It is a particular type of 2nd order diophantine equation. In particular it has infinite solutions over the integers for any value of D. The proof of this amazing fact can be found here

With modern computing, an equation like this is easily solved by brute force, just by trying all possible integers starting from 1. None the less if D was some big number it would still be of interest to implement some better algorithm. So I am going to solve the problem by hand to illustrate the procedure.

First we rearrange equation (1):

\frac{x^2}{y^2} = \frac{1}{y^2} + 17

where we notice that on the left side of the equation as y increases even slightly  1 /y² << 17, meaning x² / y² is roughly 17 or x / y is roughly the square root of 17. This insight suggests that we could try and find rational approximations to the irrational quantity \sqrt{17} and search for the solution among the numerator and denumerators of such fractions.

To find rational approximations we use the continued fractions technique. It has been proven that the solution is always within the set of continued fractions, or convergents of the \sqrt{D} in the general Pell’s equation (also in the previous link)

To calculate the continuous fractions of \sqrt{17} we proceed:

  1.                                                  17 = (4 + z)² = 16 + 8z +z²
  2.                                                    1 = 8z + z² = z (8 + z)
  3.                                                             z=1 / (8 + z)

This last expression can be used recursively to calculate the value of z, replacing z once and again by  \frac{1}{8+z}. These are the continued fractions, so:


as we continue expanding the terms we get closer and closer to \sqrt{17}, each of the approximations is called a convergent. So the first convergent would be 4, the second 4+\frac{1}{8}=\frac{33}{8}, …

Lets try these convergents as a solution of (1)

  • first convergent: 4=\frac{4}{1} so  x = 4,  y = 1 which gives  x² – 17y² = -1
  • second convergent: \frac{33}{8} so x = 33, y = 8 and x² – 17y² = 1

Eureka!! we have found the solution and we only had to try to numbers. Petter will use 33²   = 1069 tiles and Frank 8² = 64.

I hope it was interesting for you, it surely was for me. It is almost magic how the integer solutions of the equation form a rational approximation of an irrational number… who would have thought.