Con la tecnología de Blogger.

Henri Poincaré

Jules Henri Poincaré nació en 1854 en Nancy, en Francia, en el seno de una familia acaudalada. Ya desde niño era evidente que no era normal: destacaba enormemente en prácticamente todas las asignaturas –aunque era especialmente bueno en Matemáticas, un “monstruo” en palabras de su profesor–, le interesaba todo y mostraba una enorme pasión por aprender. Tras pasar nueve años en el Lycée de Nancy y servir en el cuerpo de ambulancias en la guerra franco-prusiana de 1870, ingresó en la École Polytechnique, en los suburbios de París, donde estudió Matemáticas.


En 1879 obtuvo su título de ingeniero por la École des Mines, aunque nunca dejó de estudiar matemáticas como un poseso. De hecho, lograría mantener un equilibrio entre ambas facetas –ingeniería de minas y matemáticas– a lo largo de su vida, aunque desde luego fue como matemático que dejó al mundo boquiabierto. Al mismo tiempo que obtenía el título de ingeniero trabajaba en su doctorado en Ciencias y Matemáticas bajo un mentor de excepción, Charles Hermite, una de las máximas figuras europeas de las matemáticas de la época. La importancia de esta tesis es tal que hablaremos de ella un poco más adelante; también lo haremos de Hermite, ya que aparecerá en un episodio bastante interesante de la vida posterior de Poincaré.


El mismo año que obtenía su título de ingeniero de minas, Poincaré recibía el doctorado en matemáticas por la Sorbonne. En un par de años era miembro del Corps des Mines, el cuerpo de ingenieros de minas del estado, y además entraba como profesor asociado de Análisis en la Sorbonne. Para culminar un año extraordinario para él, se casó con Poulain d’Andecy, con la que tendría cuatro hijos.

Con los años fue tomando más responsabilidades en las dos vertientes de su carrera profesional: como miembro del Corps des Mines se convirtió primero en Ingeniero jefe y luego en Inspector general. En la Sorbonne enseñaba casi de todo: en un momento dado tenía las cátedras de Probabilidad, Mecánica Celeste y Astronomía, Mecánica Física y Experimental y Física Matemática. Pero es que, como digo, este individuo era bueno en prácticamente todo, y su capacidad estaba alimentada por una energía inagotable.

Aparte de su inteligencia, Poincaré era muy peculiar en su forma de trabajar, que consistía en una extraña mezcla entre el orden más metódico y el caos más absoluto. Por un lado, su rutina diaria era sacrosanta: prácticamente todos los días trabajaba con el mismo horario distribuido de la misma manera. Clases aparte, dedicaba dos horas por la mañana (de las diez a las doce) y otras dos por la tarde (de las cinco a las siete) al trabajo que requería más concentración –fundamentalmente las matemáticas–, mientras que por la noche se dedicaba a leer.

Nunca se detenía en un asunto más de un par de horas, y saltaba de una cosa a otra como una mariposa va de flor en flor. Eso sí, mientras estaba centrado en un asunto concreto se enfocaba en él como si no existiera otra cosa en este mundo. Este constante saltar de una cosa a otra se debía a dos razones fundamentales: por un lado, para evitar aburrirse, ya que consideraba que mantener la mente fresca e interesada era lo esencial para resolver problemas.

Por otro, porque Poincaré –a quien le interesaba la psicología, como prácticamente todo– creía que el cerebro necesita su tiempo para crear conocimiento nuevo a partir de una información determinada, y que trabaja en ello inconscientemente aunque dediquemos nuestra atención a otra cosa. De modo que se ponía a trabajar en un problema un tiempo, y luego lo dejaba estar unas horas, o unos días, para luego volver a él fresco y encontrar, muy a menudo, que tenía la solución en la mente sin haberle dedicado un minuto consciente entre ambas sesiones. Tanto es así que no le gustaba pensar en problemas matemáticos tras determinada hora, porque su sueño se veía perturbado por su mente intentando resolverlo durante la noche en vez de descansar.

Todo esto puede sonar al comportamiento de un artista, y no el de un científico, pero es que el carácter de Henri era una mezcla entre ambos. Por ejemplo, muy al contrario que otros insignes matemáticos, Poincaré creía que la meticulosidad y la lógica eran trabas para crear ideas nuevas, y que la matemática es una disciplina de creación. Por lo tanto, para alcanzar nuevo conocimiento –o más bien, para él, para crear nuevo conocimiento– había que dejar a la mente volar libre en una primera etapa.

Evidentemente, la cosa no se queda ahí o Poincaré hubiera podido ser un gran artista pero no un gran matemático. No, una vez concluida esa primera etapa para la idea de que se tratase, aplicaba la lógica más minuciosa para verificar si tenía sentido o no y, si lo tenía, perfilar y refinar el teorema o lo que quiera que estuviera investigando en ese momento: como digo, no es que rechazara la lógica, sino que pensaba que la raíz de las nuevas ideas era un proceso de creación, no de análisis lógico. A diferencia de muchos otros matemáticos, por tanto, no solía trabajar mucho tiempo con lápiz y papel, sino que pensaba y visualizaba en su cabeza las cosas y luego, si tenían sentido, las ponía por escrito en poco tiempo. Caos y orden.

Esta combinación peculiar de trabajo en períodos cortos pero intensos, intuición y creación asociados al pensamiento lógico y el interés por tantas cosas diferentes hicieron que Poincaré, a lo largo de los años, realizara aportaciones enormes en muy diversos campos, aunque sobre todo en matemáticas y, dentro de ellas, en algunos de los asuntos más abstractos de todos. Tanto es así que, aunque mi intención es mostrar lo genial de Poincaré, es muy difícil hacerlo, tan profundo y tan abstracto es casi todo lo que creó o resolvió.

El primer gran logro de Poincaré, que le proporcionó fama en el mundo matemático, se produjo como consecuencia de su tesis doctoral bajo Charles Hermite, de la que hemos hablado antes. El título de la tesis era Sur les propriétés des fonctions définies par les équations différences (Sobre las propiedades de las funciones definidas por las ecuaciones diferenciales), y en ella Poincaré postuló la existencia de un tipo de funciones especiales, que hoy llamamos formas automórficas y engloban algo más general, pero que él denominó funciones de Fuchs o funciones fuchsianas en honor al matemático alemán Lazarus Immanuel Fuchs, que había contribuido mucho al avance en el estudio de las ecuaciones diferenciales.

El propio Poincaré relató posteriormente el proceso por el que llegó a plantear la existencia de las formas automórficas como una extensión de las funciones trigonométricas, y que ejemplifica muy bien su manera de trabajar y de pensar:

Durante quince días intenté demostrar que no podían existir funciones como las que he denominado posteriormente funciones fuchsianas. Era muy ignorante; cada día me sentaba frente a mi mesa de trabajo y permanecía allí una o dos horas, probando un gran número de posibilidades y no obteniendo ningún resultado. Una noche, en contra de mi costumbre, tomé un café solo y no podía dormir. Las ideas venían a mi cabeza a multitudes; las sentía chocar hasta que pares de ideas se conectaban, por así decirlo, para formar combinaciones estables. A la mañana siguiente había establecido la existencia de una clase de funciones de Fuchs, las que provienen de la serie hipergeométrica; simplemente tenía que poner el resultado por escrito, algo que me llevó pocas horas.

Un par de años más tarde, Poincaré publicó su Théorie des groupes fuchsiens y dejó al mundo patidifuso… porque el mundo no sabía lo que quedaba por venir, claro. A partir de entonces fue raro el año en el que el francés no nos apabullara con alguna innovación matemática.

Además de en matemáticas puras, la intuición de Poincaré era afilada en muchas otras disciplinas relacionadas. Por ejemplo, la mecánica celeste era fundamentalmente una aplicación de las matemáticas: por un lado, debían resolverse las ecuaciones diferenciales derivadas de las leyes de la dinámica newtoniana y, por otro, las trayectorias de los cuerpos celestes seguían las leyes de la geometría. No en vano, durante muchos siglos las palabras astrónomo y matemático significaban prácticamente lo mismo. La época de Poincaré fue el final de esta etapa, pero él es uno de los últimos ejemplos de esta combinación –en parte por sus variados intereses–.

Como ejemplo de esto tenemos un episodio interesante por muchas razones: el del premio ofrecido en 1885 por Óscar II de Suecia a quien fuera capaz de resolver el problema de los n cuerpos, del que hemos hablado recientemente en la serie sobre el Sistema Solar pues Joseph-Louis Lagrange obtuvo las posiciones de lo que hoy llamamos puntos de Lagrange intentando resolver ese problema para tres cuerpos mucho antes de que Óscar II propusiese recompensa alguna.

El rey Óscar, a su vez, propuso el premio a instancias de Gösta Mittag-Leffler, el insigne matemático sueco. Más que por sus muchos logros, este individuo es injustamente conocido por un rumor falso. Cuando Alfred Nobel instituyó sus famosos premios, no incluyó uno de Matemáticas –entre otras cosas porque ya existían importantes premios en esta disciplina–. Las malas lenguas rumorearon que esto se debía a que Nobel estaba enamorado de Signe Lindfors, la mujer de Mittag-Leffler, y su rivalidad con el matemático era la razón de que no existiera un Nobel de matemáticas, una mentira como un piano de cola.

El caso es que el premio proponía varios problemas diferentes, no sólo el de los n cuerpos, pero éste era considerado el más difícil de todos; otro de los problemas propuestos, por cierto, estaba referido a las funciones fuchsianas del propio Poincaré. De hecho, mucha gente pensaba que el francés se presentaría al premio con algún trabajo relacionado con las funciones de Fuchs, ya que era la máxima autoridad en ese campo, pero la mariposa ya había pasado a otra flor, el estudio del problema de los n cuerpos. La descripción del problema en la presentación del premio era la siguiente:

Dado un sistema compuesto por un número arbitrario de masas puntuales que se atraen mutuamente de acuerdo con la ley de Newton, bajo la suposición de que las masas nunca colisionan entre sí, debe tratarse de encontrar una representación de las coordenadas de cada punto como una serie de una variable que sea una función conocida del tiempo, de modo que para todos los valores de esa variable la serie converja uniformemente.

Dicho en términos menos rimbombantes, el premio sería otorgado a quien pudiera predecir matemáticamente la posición de las masas a lo largo del tiempo. El problema, a decir verdad, era más matemático que físico: su planteamiento era trivial utilizando la mecánica newtoniana, pero se llegaba a una serie de ecuaciones diferenciales que dependían unas de otras de un modo que convertía el problema en una auténtica pesadilla. Ya vimos como Lagrange no pudo resolverlo, a pesar de tratarse sólo de tres cuerpos en su caso –el de Óscar II era más ambicioso– y de suponer que uno de ellos era mucho más ligero que los otros dos.

Un tribunal de tres matemáticos insignes deliberaría sobre las posibles soluciones para determinar la vencedora: el propio Gösta Mittag-Leffler y los dos mayores expertos en análisis matemático del mundo, el alemán Karl Theodor Wilhelm Weierstrass y el francés Charles Hermite (el director de tesis doctoral de Poincaré). Naturalmente, las soluciones serían enviadas bajo pseudónimos, de modo que los tres jueces pudieran ser objetivos en su deliberación. La solución ganadora sería anunciada el 21 de enero de 1889, el sexagésimo cumpleaños de Óscar II.

De todas las soluciones recibidas, una brillaba con luz propia: Sur le problème des trois corps et les équations de la dynamique (Sobre el problema de los tres cuerpos y las ecuaciones de la dinámica). Era tan diferente, tan lejana al enfoque tradicional para intentar resolver el problema y tan afilada que, a pesar del pseudónimo, los tres jueces tenían bastante claro que el autor era Poincaré. En cierto sentido supongo que esto evitaba que fueran realmente objetivos, pero por otro lado era el propio genio de Poincaré el que hacía su solución especial, y no tanto el nombre de Henri.

Y es que el francés había hecho algo que nadie había intentado hasta entonces: en vez de intentar resolver las ecuaciones para obtener una solución, se había centrado en algo diferente. ¿Cómo podrían ser todas esas soluciones? ¿Habría muchas y muy diferentes, o serían parecidas? Si se dibujaran las trayectorias de todos los cuerpos involucrados, ¿realizarían órbitas estables, inestables, movimientos periódicos o qué otra cosa?

Dicho de otro modo, Poincaré no se preocupó de estudiar la trayectoria que seguiría cada cuerpo, sino en las propiedades comunes de todas las trayectorias posibles para cada cuerpo. Al mirar el problema “desde lejos”, como un todo, sin centrarse en los detalles, Poincaré llegó mucho más lejos que nadie antes que él, y las otras soluciones parecían juegos de niños comparadas con la suya. En palabras de Weierstrass, Hermite y Mittag-Leffler, la solución constituía “el trabajo original y profundo de un genio matemático cuyo lugar está junto a los grandes geómetras de este siglo”.

Tanto es así que los tres jueces, de forma unánime, le otorgaron el premio, y se publicó su solución. Sólo había un pequeño problema. La solución de Poincaré estaba mal.

El asunto tiene, además, una ironía deliciosa. No sólo el propio Henri Poincaré, un genio matemático de primera línea, había cometido un error de bulto que invalidaba su solución; además, los tres mayores expertos en análisis de todo el mundo se lo habían tragado como si tal cosa. El trabajo de Poincaré fue enviado a un joven matemático sueco, Lars Edvard Phragmén (algo así como el becario), para que lo adecentara y lo enviara a la imprenta. ¡Y fue el “becario” el que se dio cuenta! Con bastante cautela, Phragmén escribió a Mittag-Leffler para señalar varios puntos en los que no estaba convencido de las conclusiones de Poincaré, y Mittag-Leffler envió las preguntas de Phragmén al propio Poincaré.

En cuatro de los cinco puntos señalados por Phragmén, Poincaré tenía razón y se trataba de algo que Phragmén simplemente no había entendido, pero en el quinto punto, el sueco tenía razón y Poincaré no. Y la razón era la habitual: Poincaré había mirado las cosas a grandes rasgos y no se había fijado mucho en los detalles. En un momento dado, había demostrado un teorema utilizando una serie convergente, ¡pero nunca había demostrado que lo fuera! El cauteloso Phragmén simplemente había sugerido que tal vez fuera útil para el lector tener una demostración de que esas series eran convergentes, pero cuando Poincaré se dispuso a detallar la demostración se dio cuenta de que no tenía por qué ser convergente. Pero claro, el resto de la argumentación de Poincaré se basaba en la convergencia de esa serie, con lo que todo lo que venía después se iba al traste.

En honor a Poincaré, el francés escribió rápidamente a Mittag-Leffler para reconocer su error –otros más arrogantes hubieran luchado con uñas y dientes, o hubieran buscado excusas o alguna otra cosa ruin–. Pero había otro pequeño problema: la solución errónea al problema no sólo había sido ya enviada a la imprenta, sino que ya se había imprimido y se había enviado a los matemáticos que así lo habían solicitado. Al pobre Gösta se le pusieron los pelos de punta: ¡menudo ridículo! Se dedicó a retirar las copias que pudo agarrar, y escribió a muchos matemáticos pidiéndoles que le reenviaran su copia antes de leerla con pretextos un poco absurdos. Mittag-Leffler ni siquiera se atrevió a mencionar el error a Hermite y Weierstrass aunque, desde luego, al final todo el mundo se enteró y el propio Poincaré se dedicó a trabajar en el problema corregido.

Incluso considerando el error, por cierto, la solución de Poincaré seguía siendo tan superior a las otras que se mantuvo el premio. Pero la ironía se completa por el hecho de que, aunque la solución original de nuestra mariposa estaba mal, la corrección nos trajo algo aún más hermoso de lo que hubiera sido una solución correcta al problema de los n cuerpos. Al trabajar en el problema una vez más, Poincaré se dio cuenta de algo extraño: aunque el problema físico era determinístico, es decir, a partir de una situación inicial determinada debía ser posible predecir con precisión arbitrariamente grande lo que sucedería en el futuro, en la práctica no lo era.

La razón era la siguiente: supongamos unos datos iniciales determinados (valores de las masas, posiciones iniciales, etc.), para los que habría una solución al problema de los n cuerpos. Si modificamos los datos iniciales la solución, naturalmente, cambia. Pero ¿qué pasa si modificamos los datos iniciales una cantidad minúscula? Lo lógico sería pensar que la nueva solución sería prácticamente igual que la antigua, modificada un valor minúsculo. Pero, al estudiar el problema, Poincaré se dio cuenta de que no era así: la nueva solución y la antigua divergían en el tiempo de modo que, tras el transcurso de un tiempo determinado, eran tan diferentes como soluciones a datos completamente distintos. Era como si un levísimo toque inicial al sistema produjese un comportamiento absolutamente diferente al cabo del tiempo, un comportamiento caótico.

Al tratar de resolver el problema de los tres cuerpos y fallar, Lagrange había obtenido sus famosos puntos. Al hacer lo mismo y fallar de nuevo, Poincaré había creado lo que posteriormente se convertiría en teoría del caos. Pero la mariposa ya estaba buscando otras flores.

Además de sus responsabilidades como inspector de minas y catedrático, en 1893 Poincaré entró a formar parte del Bureau des Longitudes, la oficina fundada en 1795 y responsable de la estandarización de unidades de medida, sobre todo en lo que se refería a la navegación. En 1897, el Bureau des Longitudes se planteó de nuevo un sueño de un siglo antes: llevar el Sistema Internacional de Unidades a las unidades de tiempo, uno de los pocos lugares en los que no se había implantado realmente. Sí, existía el segundo como unidad, pero ¿y sus múltiplos? En otras magnitudes, como la longitud, se empleaban de manera rutinaria los kilómetros, pero en el tiempo se seguían empleando las unidades ancestrales de minutos, horas y días.

De modo que los miembros de la oficina, entre ellos Poincaré, se dedicaron a estudiar el problema de la medida del tiempo, la sincronización de relojes en distintos lugares del planeta, etc. Como consecuencia, entre muchas otras cosas, Poincaré se dedicó a pensar en la cuestión del tiempo medido por observadores diferentes. Si un reloj se encontraba en el hemisferio occidental de la Tierra y otro reloj en el oriental, de modo que ambos se movieran a gran velocidad el uno respecto al otro, ¿medirían el mismo tiempo o los relojes se irían desfasando uno respecto al otro?

Por entonces, de hecho, se estaban realizando los experimentos de Michelson-Morley en los que la Tierra parecía estar en reposo respecto al éter, salvo que algo en la física que estábamos empleando hasta entonces no fuera correcto, y muchos físicos trataban de encontrar una solución al tremendo dilema. Quien finalmente lo hizo, como bien sabes si eres “viejo del lugar”, fue Albert Einstein, pero sin negar el genio del alemán, la solución era inevitable y seguramente hubiera llegado en poco tiempo incluso sin él.

El holandés Hendrik Antoon Lorentz, por ejemplo, por su trabajo en electromagnetismo, ya introdujo en algunas ecuaciones que trataban de refinar las ecuaciones de Maxwell lo que denominó “tiempo local” que dependía de la velocidad relativa de los observadores, aunque nunca le dio relevancia física, sino que lo trató como una herramienta matemática. Por aquella época era muy común el diálogo epistolar entre científicos, y Lorentz y Poincaré hablaban a menudo de este modo, debatiendo los artículos de uno y otro, corrigiéndose y haciéndose sugerencias. En este caso, como en otros (Einstein y Bohr son otro ejemplo excelente), ambos eran de buen talante y no se enfadaban, ni mucho menos, cuando estaban en desacuerdo.

Como consecuencia, Poincaré estaba muy al tanto del trabajo de Lorentz, y llevó más allá las ideas del holandés: según Poincaré, el “tiempo local” de Lorentz apuntaba a algo profundo en nuestro concepto de tiempo y simultaneidad. En 1898, siete años antes del annus mirabilis de Einstein, el francés publicó La mesure du temps (La medida del tiempo), donde se planteaba cómo definir exactamente qué es, cómo medirlo y qué queremos decir cuando hablamos de que dos sucesos son simultáneos o no lo son. ¿Te suena?

La conclusión de Poincaré es bien simple: no tiene sentido hablar de simultaneidad o tiempo entre dos sucesos utilizando nuestra intuición. Es más, no podemos estar seguros de que cualquier definición sea la “buena”, de modo que debemos olvidarnos de reglas aplicadas al tiempo que sean “ciertas”. La definición de simultaneidad que debemos emplear es la que nos permita formular leyes físicas de manera eficaz. En sus propias palabras,

En conclusión: no tenemos una intuición directa de la simultaneidad ni de la igualdad entre dos períodos de tiempo. Si creemos tener esta intuición se trata de una ilusión. La reemplazamos con la ayuda de ciertas reglas que aplicamos casi siempre sin siquiera pensar en ellas.
Pero ¿cuál es la naturaleza de estas reglas? No existe una regla general ni rigurosa; utilizamos una multitud de pequeñas reglas aplicables a cada caso en concreto.
Estas reglas no nos son impuestas y podemos divertirnos inventando otras; pero no podríamos descartarlas sin complicar enormemente la formulación de las leyes de la física, la mecánica y la astronomía.
Por lo tanto elegimos estas reglas, no porque sean ciertas, sino por que son las más convenientes, y podríamos resumirlas del siguiente modo: “La simultaneidad de dos sucesos o el orden en el que se han producido, la igualdad entre dos períodos de tiempo, deben ser definidos de modo que la formulación de las leyes naturales sea lo más simple posible. En otras palabras, todas estas definiciones son sólo el fruto de un oportunismo inconsciente.

Sin embargo, aunque parezca paradójico, Poincaré era un defensor de la idea del éter, el sistema de referencia absoluto, y creía que un reloj en reposo respecto al éter mostraría el tiempo absoluto y cualquier reloj en movimiento respecto al éter mostraría el tiempo local — otra cosa es que, para formular nuestras leyes físicas, nos interese utilizar uno o el otro. De hecho, en 1889 el propio Poincaré sopesó la idea de que tal vez el éter fuera algo indetectable y por tanto una entelequia física, pero al mismo tiempo siguió considerándolo como una entelequia útil, con lo que continuó utilizándolo en sus argumentos. Dos ideas algo contradictorias, pero es que no es fácil ponerse en la piel de los físicos de finales del XIX: es muy, muy difícil abandonar la última “referencia absoluta”, el éter, y quedar sin rumbo ni ancla ni nada a donde agarrarse.

Ahí es donde Einstein le dio sopas con honda a Poincaré: ambos publicaron conclusiones bastante similares en 1905, a pesar de que, a diferencia de Lorentz-Poincaré, no había relación entre ellos ni estaban al tanto del trabajo uno del otro. Poincaré tenía ideas revolucionarias y muy interesantes, como la extrapolación como realidad física del tiempo local de Lorentz, pero fue Einstein quien rechazó toda referencia absoluta y trabajó “hacia atrás”, partiendo del carácter absoluto de la velocidad de la luz. Einstein también llegó más lejos en sus conclusiones, demostrando entre otras cosas la equivalencia masa-energía; finalmente, la simplicidad de sus postulados y argumentos deja a cualquier otro físico de la época en pañales y, además, después desarrolló una teoría más general que llega tan lejos respecto a las ideas de Poincaré que es difícil siquiera compararlas.

Si has leído sobre relatividad y ahora este artículo, en que la teoría especial de la relatividad era cuestión de tiempo, y no demasiado tiempo: Lorentz y Poincaré (además de otros, como FitzGerald) habían ya alcanzado conceptos como tiempo local, contracción de la longitud, relatividad de la simultaneidad… es imposible tratar de conciliar las ecuaciones de Maxwell con los experimentos de Michelson-Morley y el principio de relatividad de Galileo sin llegar a conclusiones parecidas. De no haber habido un Einstein, probablemente algún discípulo o lector de Poincaré y Lorentz hubiera elaborado una teoría muy similar, pues sólo faltaba el paso de abandonar la referencia absoluta, tan difícil de olvidar.

El resto de su vida, hasta su muerte en 1912, nuestra mariposa siguió revoloteando, dejando que su prodigiosa creatividad nos regalara conceptos nuevos constantemente, sobre todo en Matemáticas. El nombre de este francés cejudo está por todas partes: la métrica de Poincaré, el teorema de Poincaré-Bendixson, el teorema de la dualidad de Poincaré, el teorema de Poincaré-Hopf, la serie de Hilbert-Poincaré, el método de Lindstedt-Poincaré, el teorema de la recurrencia de Poincaré, la desigualdad de Poincaré…¿hace falta que siga?

No quiero, sin embargo, terminar este repaso a su genio sin dejar otro ejemplo que me deja patidifuso intentando asimilar el instinto matemático y la capacidad de abstracción de este personaje. En 1893, mientras básicamente creaba la topología, Poincaré propone una conjetura (que no es la famosa conjetura de Poincaré, de la que hablaremos en un momento) a la que llega por intuición pero que es incapaz de demostrar, y que hoy conocemos como teorema de la dualidad de Poincaré. La conjetura (pues no era teorema entonces, ya que este individuo llegó a ella sin demostrarla, así, al buen tuntún), expresada en términos modernos, dice los siguiente: si se tiene una variedad de n dimensiones que sea cerrada y orientable, el k-ésimo grupo de cohomología de esa variedad es isomorfo al (n-k)-ésimo grupo de cohomología de la variedad para cualquier número entero k.

Finalmente, resulta irónico el hecho de que, con tantas cosas en Matemáticas que llevan su nombre, la más conocida por el común de los mortales es, en cierto sentido, un error. Se trata de la famosa conjetura de Poincaré, a la que llegaremos en un momento, pero antes, paciencia.

Ya se sabía hacía mucho tiempo que cualquier superficie cerrada y sin agujeros es, dicho fatal, una “esfera deforme”: es posible coger esa superficie cerrada y sin agujeros y deformarla hasta conseguir una esfera o al revés. Los matemáticos, que son mucho más finos que esto y no hablan de esferas deformes, dicen que una variedad de dos dimensiones cerrada y simplemente conexa es homeomorfa a una esfera.

Otra manera de verlo que no involucra deformar superficies es la siguiente: si tienes una superficie cerrada y sin agujeros, es posible tomar un lazo atado sobre sí mismo sobre la superficie e ir cerrándolo hasta colapsarlo a un punto. Aquí tienes un dibujo con una esfera:


Es decir, que una esfera es homeomorfa a una esfera, lo cual es de perogrullo. Pero imagina que fuera un ovoide, o un globo en forma de jirafa hecho de una sola pieza sin agujeros, o un cubo: siempre podrías ir cerrando el lazo y colapsarlo a un punto. Sin embargo, como ejemplo de una superficie cerrada que no es homeomorfa a una esfera (porque tiene agujeros), tenemos el toroide, es decir, el donut. Como ves, ninguno de los dos “lazos” puede colapsarse a un punto:


Como digo, esto del homeomorfismo entre superficies cerradas sin agujeros y la esfera ya era bien conocido. Bien, Poincaré se pregunta si esto también será cierto en el caso de una variedad de tres dimensiones en vez de dos, es decir, un volumen cerrado. ¿Es un volumen cerrado y sin agujeros homeomorfo a un volumen esférico? Evidentemente, él no lo expresó en estos términos tan vulgares, pero bueno. El caso es que el bueno de Henri no supo contestar, ni realizó realmente conjetura alguna, sino simplemente una pregunta.

Otros después de él siguieron intentando contestar, y con el tiempo la afirmación se empezó a conocer como conjetura de Poincaré, a pesar de que él nunca sostuvo que fuera cierta:

Toda variedad de dimensión 3 cerrada y simplemente conexa es homeomorfa a una esfera.

Pero claro, esto no es tan intuitivo como antes. En el caso anterior la variedad era como la cáscara de una naranja que encierra una naranja de tres dimensiones, pero ahora es una cáscara de tres dimensiones cerrada que encierra a una naranja de cuatro dimensiones. Curiosamente, los matemáticos lograron demostrar que esta afirmación es cierta para dimensiones mayores que tres, pero no para tres dimensiones, hasta hace relativamente poco: entre 2002 y 2003, el matemático ruso Grigori Yakovlevich Perelman publicó una demostración de la conjetura. Pero no es esto lo que me interesa: es el hecho de que la intuición de Poincaré lo llevaba a plantear cuestiones tan tremendas que no sólo él no podía responder sino que nos han llevado, en ocasiones, un siglo conseguir resolver.

A cambio de estos quebraderos de cabeza, Henri nos proporcionó maravillas como la topología o la teoría del caos que cambiaron nuestra manera de ver el mundo.

Banda de Möbius

La banda o cinta de Möbius o Moebius es una superficie con una sola cara y un solo borde. Tiene la propiedad matemática de ser un objeto no orientable. También es una superficie reglada. Fue descubierta en forma independiente por los matemáticos alemanes August Ferdinand Möbius y Johann Benedict Listing en1858.



La banda de Möbius posee las siguientes propiedades:

Es una superficie que sólo posee una cara: Si se colorea la superficie de una cinta de Möbius, comenzando por la «aparentemente» cara exterior, al final queda coloreada toda la cinta, por tanto, sólo tiene una cara y no tiene sentido hablar de cara interior y cara exterior.
Tiene sólo un borde:Se puede comprobar siguiendo el borde con un dedo, apreciando que se alcanza el punto de partida tras haber recorrido la totalidad del borde.
Es una superficie no orientable: Si se parte con una pareja de ejes perpendiculares orientados, al desplazarse paralelamente a lo largo de la cinta, se llegará al punto de partida con la orientación invertida. Una persona que se deslizara «tumbada» sobre una banda de Möbius, mirando hacia la derecha, al recorrer una vuelta completa aparecerá mirando hacia la izquierda.

Otras propiedades: Si se corta una cinta de Möbius a lo largo, se obtienen dos resultados diferentes, según dónde se efectúe el corte. Si el corte se realiza en la mitad exacta del ancho de la cinta, se obtiene una banda más larga pero con dos vueltas; y si a esta banda se la vuelve a cortar a lo largo por el centro de su ancho, se obtienen otras dos bandas entrelazadas. A medida que se van cortando a lo largo de cada una, se siguen obteniendo más bandas entrelazadas. Si el corte no se realiza en la mitad exacta del ancho de la cinta, sino a cualquier otra distancia fija del borde, se obtienen dos cintas entrelazadas diferentes: una de idéntica longitud a la original y otra con el doble de longitud.


Acá les dejo una película Argentina relacionada con la cinta de cinta de Möbius. Moebius es una película argentina de ciencia ficción de 1996 dirigida por Gustavo Mosquera R. y protagonizada por Guillermo Angelelli, Roberto Carnaghi y Annabella Levy. Está basada en el cuento A Subway Named Mobius (Un tren llamado Mobius, 1950) de Armin Joseph Deutsch, el cual ya había sido adaptado en una película alemana Möbius (1993), aunque el film incorpora una trama mucho más compleja en cuanto a personajes y situaciones, asimismo dándole un giro borgeano a la historia.1 Se estrenó el 17 de octubre de 1996.


Antes de terminar hablemos un poquito de la botella de Klain. Seccionando una botella de Klein en dos mitades a lo largo de su plano de simetría resultan dos bandas de Möbius, cada una imagen especular de la otra. Una de ellas es la imagen de la derecha. Recuerde que la intersección de la imagen no está realmente allí. De hecho, también es posible cortar la botella de Klein en una única banda de Möbius.


Ferrofluidos

Son líquidos que tienen un comportamiento superparamagnético, es decir, se ven enormemente afectados por los campos magnéticos externos, pero cuando el campo magnético desaparece vuelven a su estado normal. Para obtenerlos suele cogerse algún aceite sintético y añadirle minúsculas partículas de algún material ferromagnético (como un óxido de hierro).

Para que el ferrofluido realmente se comporte de manera adecuada, estas partículas deben ser muy pequeñas (de unos 10 nanómetros), y no pueden quedarse pegadas unas a otras: deben estar dispersas uniformemente por todo el líquido, pues son ellas las que le dan sus propiedades. Por eso suelen recubrirse las partículas de una fina capa de alguna sustancia tensoactiva, como el ácido oleico, que impida que las minúsculas limaduras lleguen a “tocarse”, de modo que se tiene una disolución coloidal.

¿Qué sucede entonces? Que ves cómo se comporta una sustancia ante un campo magnético cuando realmente puede moverse como le place. La mayor parte de las sustancias paramagnéticas son sólidas, de modo que no se ve nada espectacular cuando se introducen en un campo magnético: si les acercas un imán son atraídos por él, y se mueve, pero al ser sólidos, se mueven “como un todo”.

En el caso de un ferrofluido, cada parte del líquido puede moverse independientemente (hasta cierto punto, pero muchísimo más libremente que en un sólido). Las pequeñas partículas ferromagnéticas se ven afectadas por el campo magnético, pero cada una de forma distinta, pues no están en el mismo sitio: y cuando se mueven “tiran” del líquido en distintas direcciones, creando formas fantásticas.

De hecho, cuando un ferrofluido se encuentra dentro de un campo magnético variable la superficie del fluido cambia de forma cuando lo hace el campo. Es posible así hacer que el fluido se mueva modificando el campo magnético a voluntad.

En el video se combina el efecto del campo magnético con un “soporte” para el fluido: una especie de “árboles de Navidad” con un surco en espiral que recorre cada uno y por el que el líquido puede ascender cuando hay un campo magnético, creado.




Historia de la goma de borrar

Hubo un tiempo, por supuesto, en el que no existían las gomas de borrar como las conocemos ahora. Por un lado, muchos de los métodos de escritura que existían eran indelebles, como la tinta. Por otro, el principal método de escritura que se podía borrar con relativa facilidad, el lápiz, no existió hasta relativamente tarde, como vimos en el artículo dedicado a ese invento. Desde el principio de su existencia, el lápiz y otros sistemas similares (como el carboncillo) tuvieron éxito, entre otras cosas, porque podían corregirse los errores con relativa facilidad, ya que no impregnaban el papel, sino que depositaban una capa sobre él que, en teoría, podía ser retirada de nuevo.

Naturalmente, esto no era fácil: la manera más común de borrar lápiz era utilizar miga de pan (un método que sigue usándose hoy en día, y estas gomas se llaman gomas de migajón), pero este sistema tiene varios inconvenientes: por un lado, hace falta pan fresco (una vez que la miga se seca, no sirve) y, por otro, no es fácil trabajar con precisión con ellas. Sin embargo, al no haber alternativas, era el instrumento más utilizado. Curiosamente, quienes cambiarían la situación serían los aztecas.

Diversos pueblos mesoamericanos, como probablemente sabes, jugaban a un juego de pelota en el que el objetivo era hacer pasar la bola por un aro de piedra. Puesto que este deporte fue practicado por varias naciones a lo largo de miles de años, hay muchas variaciones de reglas y no vamos a entrar en eso aquí, pero la clave de la cuestión (en lo que a este artículo respecta) era la pelota: era una pequeña esfera bastante elástica, que botaba en el suelo y las paredes de la cancha con una intensidad verdaderamente endiablada. No, no es una manera de hablar: de acuerdo con Bernal Díaz del Castillo, uno de los soldados de Hernán Cortés, cuando los conquistadores vieron los botes de estas pelotas se preguntaron si la causa no sería que estaban poseídas por espíritus malignos.

Naturalmente, el secreto de las pelotas que vieron del Castillo y sus compañeros era menos místico, pero revolucionaría el Viejo Mundo cuando fue llevado de vuelta: se trataba del látex, que los mesoamericanos extraían del jugo del hule (Castilla elastica). Para que no se pudriera, era mezclado con el jugo de otras plantas, especialmente la enredadera Ipomoea alba, ya que los pueblos mesoamericanos no conocían la vulcanización (de la que hablaremos más adelante).

La cuestión es que los españoles quedaron muy impresionados con las propiedades elásticas de la goma de los aztecas. Posteriormente se descubrirían otros árboles además del hule que producían látex, como el árbol del caucho (Hevea brasiliensis) brasileño, que se convertiría pronto en el principal productor mundial de látex. Con el tiempo fue transplantado a otros lugares, y hoy en día no es América la mayor exportadora de látex, sino que lo es Asia.

En cualquier caso, aunque el látex y sus derivados tendrían muchísimas aplicaciones en todo el mundo, cuando fue llevado a Inglaterra se descubrió, casualmente, un uso alternativo pero interesante para él: el científico Joseph Priestley, al frotar un trozo de caucho sobre un papel en el que había escrito con un lápiz, observó que el trazo se borraba muy bien. Sin embargo, Priestley no pensó en las posibilidades económicas de su descubrimiento.

Quien sí lo hizo fue el ingeniero Edward Nairne, quien había patentado varias máquinas eléctricas, instrumentos ópticos y barómetros. En 1770, Nairne vendía ya gomas de borrar, que eran simplemente bloques de caucho natural, en su tienda de Londres. De acuerdo con el propio Nairne, descubrió este uso del caucho cuando cogió un bloque del material por error en vez de miga de pan para borrar unos trazos de lápiz. ¿Es esto cierto, e inventó la goma de borrar independientemente de Priestley? No lo sabemos. Como quiera que fuese, sus gomas eran una novedad y un artículo de auténtico lujo: Nairne las vendía por tres chelines (quince peniques modernos), es decir, más o menos siete por una libra…¡pero una libra de 1770! Un precio exorbitante.

Sin embargo, el problema de las gomas de Nairne era que se pudrían: en efecto, los europeos habían adoptado el látex, pero no el tratamiento que los americanos habían dado al producto para preservarlo mejor (por ejemplo, usando Ipomoea alba). Con el tiempo, las gomas de borrar empezaban a oler mal según el caucho fermentaba. Evidentemente, había que encontrar algo nuevo: no quiero imaginar la reacción de quienes comprasen gomas por tres chelines cuando, un tiempo después, las vieran pudrirse.

La solución al problema la dio el estadounidense Charles Goodyear (sí, el nombre de los neumáticos) al inventar el proceso llamado vulcanización. No sabemos bien si por casualidad (como dicen algunos contemporáneos suyos) o a base de trabajo intenso y metódico (como dice el propio Goodyear en su autobiografía), el americano descubrió que, al calentar la goma natural con azufre, en vez de calcinarse (como ocurría cuando no se le añadía azufre) ésta se curaba, se volvía menos pegajosa, más dura pero elástica y, lo más importante, se volvía muchísimo más duradera, ya que no se pudría.

Aunque hay muchas consecuencias importantes de la vulcanización (todas las aplicaciones modernas del caucho la requieren, para que no se pudra), lo que más nos importa a nosotros en lo que a este artículo se refiere es que, a partir del descubrimiento de Goodyear y su patente en 1844, era posible fabricar gomas de borrar permanentes, que no se pudrían. A partir de entonces se volvieron más y más populares, hasta ser un objeto de la vida cotidiana hoy en día.

¿Por qué borra una goma? Bien, el caucho de una goma de borrar es un polímero del isopreno, es decir, está formado por cadenas muy largas hechas de “eslabones” de isopreno. Estas cadenas están enrolladas de forma parecida a la de un muelle, con “eslabones” que unen anillos consecutivos del muelle en diversos puntos. Por cierto, esa es la razón de que la goma sea tan elástica, ya que puede deformarse sin que las cadenas se rompan, pero al dejar de deformarla los anillos del muelle son devueltos a sus posiciones originales por los monómeros que hacen de unión entre ellos.
Isopreno (C5H8), “eslabón” de la goma natural.

En cualquier caso, al frotar un trozo de caucho sobre un papel con grafito sobre él, el isopreno es capaz de asociarse muy bien al grafito, y lo retira del papel, dejándolo “colgado” del polímero, enganchado a algunos escalones de la cadena. Llega un momento en el que, cuando suficiente grafito está asociado a las cadenas del polímero, la cadena entera se vuelve “resbaladiza”: no quedan eslabones libres que puedan asociarse a nada, y el polímero está cubierto de una vaina de grafito. El grafito, como recordarás del artículo sobre el lápiz, se asocia formando láminas que pueden resbalar unas sobre otras, de modo que en ese momento la goma se vuelve resbaladiza y, al tratar de borrar, deja un residuo de grafito sobre el papel. Por otro lado, al frotar vigorosamente contra el papel, el polímero se rompe en distintos puntos, y las cadenas rotas forman las “virutas” de goma que quedan siempre al borrar, dejando una capa limpia de cadenas “libres” por debajo.

Una vez se supo la composición química del látex, no fue difícil elaborar goma sintética: cualquier polímero que presenta propiedades elásticas recibe ese nombre, y hay muchos, dependiendo de qué propiedades se quiere que tenga el producto final. Por ejemplo, muchas gomas modernas están hechas de polímeros de vinilo (sí, el mismo que el de los discos). Sin embargo, sus propiedades y su comportamiento son bastante similares a las de caucho natural.

Los últimos avances en las gomas de borrar son accesorios: tener un cilindro de caucho dentro de una funda similar a un lápiz, por ejemplo, para tener mayor precisión, o la adición de pequeños motores eléctricos para realizar el movimiento de borrado en las gomas eléctricas -que pueden hacer más descansado borrar grandes superficies, pero no parecen tener demasiada precisión-. Pero se trata de cambios menores. El momento clave de la goma de borrar, desde luego, fue el día en el que los sorprendidos españoles vieron botar una pelota de goma “poseída” en América.

La historia del papel

La humanidad ha utilizado materiales para guardar ideas y almacenar información desde tiempo inmemorial – largo tiempo antes de que existiera la escritura ya se utilizaban la piedra, corteza de árboles y pieles de animales sin tratar. Los sumerios utilizaban tablillas de arcilla, que cocían después de escribir sobre ellas. Sin embargo, casi todas las superficies primitivas sobre las que dibujar o escribir tenían dos problemas fundamentales: eran pesadas, y ocupaban mucho espacio. Era relativamente fácil plasmar una pequeña cantidad de información sobre ellas, pero almacenar -por ejemplo- una biblioteca entera suponía un volumen gigantesco, y la imposibilidad en la práctica de llevarla a ningún sitio.

Poco a poco surgieron materiales más prácticos como soportes para la escritura, unos de origen vegetal y otros animal. Hacia el año 3.000 a.C. los egipcios inventaron el papiro, de donde proviene el nombre de “papel”. Lo fabricaban a partir de las plantas de papiro, una especie de junco que crece en las orillas de muchos ríos africanos: entrelazando fibras de esta planta, los artesanos creaban una especie de red muy fina. A continuación la comprimían, y los jugos pegajosos que se extraían de las fibras cohesionaban la red y la convertían en una superficie consistente. Finalmente, frotaban una de las dos caras de la superficie sobre rocas para hacerla suave. La calidad que obtenían era excelente, y permitía escribir sobre el papiro con una gran precisión. Además, al ser simplemente un conjunto de fibras vegetales entrelazadas y pegadas, era muy ligero y podía plegarse fácilmente.

Desde luego, las culturas que vivían lejos de las plantas adecuadas no podían fabricar papiro. Muchos pueblos utilizaban pieles de animales directamente o después de curtirlas, aunque estas superficies eran, como puedes imaginar, mucho más burdas que el papiro. El primer tipo de soporte animal de calidad fue desarrollado, irónicamente, como una alternativa al papiro: cuando se construyó la gran Biblioteca de Alejandría, se empezaron a escribir (y copiar) tal cantidad de libros hechos de papiro que la demanda de estas plantas creció exponencialmente. Se recolectaron en las riberas del Nilo hasta casi la extinción, y los precios eran exorbitantes.

Todo esto eran horribles noticias para Pérgamo, ciudad griega del Asia Menor que pretendía construir una biblioteca rival de la de Alejandría. ¿Cómo iban a poder hacerlo si los alejandrinos utilizaban todo el papiro y lo poco que exportaban tenía precios inaceptables? Los griegos de Pérgamo refinaron el proceso de curtido de pieles y empezaron a utilizar el pergamino (cuyo nombre viene de Pérgamo, claro). Se trataba la piel con cal, se tensaba y se secaba de manera que era mucho más suave y fina que cualquier otra piel anterior, y se convirtió en una alternativa algo más barata que el papiro.

Independientemente de todo esto, los pueblos mesoamericanos crearon su propio tipo de “papel”, utilizando la corteza de ciertos árboles (como algunos ficus) para fabricar el papel amate. Varios códices Mayas y Aztecas están escritos en papel amate, y este tipo de papel sigue utilizándose hoy en día por artistas mexicanos: sin embargo, el papel amate nunca se extendió por el resto del mundo, ni se perfeccionó como el que utilizamos mayoritariamente.

El problema del papiro, el pergamino y otras alternativas como la seda (que se utilizaba en China) era que, por un lado, eran caros y, por otro, la cantidad que se podía producir era limitada: por eso eran caros, claro. De ahí que ninguna de estas soluciones sea la que utilizamos hoy en grandes cantidades – piensa que, si un par de siglos antes de nuestra era ya había cierta falta de papiro, ¡qué pasaría tras la invención de la imprenta! El papel verdadero aún estaba por llegar.


Los inventores de “nuestro papel”, como de tantísimas otras cosas que utilizamos hoy, fueron los chinos. Aún no está muy claro el momento exacto en el que se fabricó por primera vez, pero los últimos descubrimientos arqueológicos sugieren que los chinos fabricaban papel hacia el año 8 a.C. El método chino consistía en coger residuos vegetales (al principio, de cáñamo, posteriormente de otras plantas como el bambú y la morera), romperlos en trozos pequeños y remojarlos en agua caliente, “cocinándolos” hasta que se reblandecían. A continuación se golpeaban con mazos para convertirlos en una pasta blanda y húmeda, que se comprimía para formar láminas finas y se dejaba secar: las fibras de celulosa, reblandecidas por el agua, se entrelazaban con los golpes de los mazos y quedaban pegadas una vez se secaba el papel.


La principal ventaja del papel chino era que no dependía de un tipo específico de planta: casi cualquier cosa con celulosa, si se remojaba durante suficiente tiempo y luego se golpeaba con suficiente paciencia, podía convertirse en una pasta y posteriormente en láminas sobre las que escribir (por supuesto, unos tipos de papel eran de mayor calidad que otros). El principal problema, irónicamente, era el agua: hacían falta grandes recipientes llenos del líquido, que en algunas zonas de Asia no era fácil de conseguir.

La “receta” del novedoso papel se extendió lentamente por el resto del mundo: entró pacíficamente en Corea y Japón hacia el año 600, y no tan pacíficamente llegó a Samarcanda: el califato Abásida se enfrentó con la dinastía Tang en 751, en la Batalla de Talas, y los árabes consiguieron capturar a varios artesanos fabricantes de papel, con lo que lograron la receta de su fabricación. Una vez en Samarcanda, se extendió por todo el Imperio Islámico, y en 793 se fabricaba ya en Bagdad.

Naturalmente, algo parecido ocurriría de nuevo: las Cruzadas llevaron a los cristianos hasta Damasco, donde se encontraron con el papel de los árabes, que llamaron “charta damascura”, y quedaron enamorados de él. Sin embargo, los cristianos aún no empezaron a fabricarlo en Europa: no sé si porque no sabían hacerlo, o porque la industria del papel estaba muy desarrollada en el Oriente Medio y no tenía sentido empezar de nuevo en otro sitio. En cualquier caso, los pequeños reinos cristianos del Oriente Medio exportaron papel a Europa durante unos años, pero esto no duraría, puesto que esos pequeños reinos fueron reconquistados por el Islam uno por uno.

De hecho, el papel entraría en Europa definitivamente no desde el este, sino desde el oeste: la primera fábrica de papel europea fue creada en la España musulmana, en Jávea. Poco a poco, la técnica se extendió al resto del continente, y ya en el siglo XIII había otras fábricas en Italia, y posteriormente en Francia y Alemania. El papel había llegado a Europa justo a tiempo para su uso en otro invento chino: la imprenta. El Renacimiento podía comenzar.

De hecho, hay teorías que sugieren que el papel ha sido un motor del progreso cultural muy importante a lo largo de la historia: tanto en China, como en el Islam, como en Europa, la llegada del papel ha venido acompañada de un desarrollo intenso en muchas áreas, tal vez por el aumento en la disponibilidad de conocimiento.

Aunque numerosas fábricas de papel producirían este nuevo soporte para la escritura, la producción masiva de papel no empezaría hasta principios del siglo XIX y la invención de la máquina de vapor. La primera máquina moderna para fabricar papel (y el método que, con algunas modificaciones, seguimos usando hoy en día) llegaría hacia 1800: la máquina de Fourdrinier, llamada así por sus promotores, los hermanos Fourdrinier, que tenían una fábrica de papel en Londres. El sistema de los Fourdrinier es el siguiente:

En primer lugar, se cogen troncos de árbol y se cortan en piezas de tamaño uniforme, que la máquina descorteza. A continuación los grandes bloques de madera se cortan en trozos muy pequeños, que se meten en grandes depósitos llenos de agua y un compuesto químico (que suele ser un derivado del azufre) para “digerir” la madera, es decir, eliminar la lignina y liberar las fibras de celulosa . Esta mezcla de agua, trozos de madera y compuesto azufrado se “cocina” durante unas horas, con lo que se obtiene una especie de pulpa de celulosa.

A continuación, la pulpa pasa por unos rodillos de acero que la comprimen y entrelazan las fibras de celulosa (algo similar a los mazos de los métodos primitivos), que es ahora una pasta de color marrón. Para blanquearla se utilizan diversos compuestos químicos: cloro, hipoclorito cálcico y otros similares. Desgraciadamente, este blanqueado del papel produce numerosos compuestos tóxicos – si alguna vez has visto una papelera “tradicional”, sabes a lo que me refiero. Por otro lado, poco a poco se va mejorando en este aspecto, produciendo papel menos bonito pero menos dañino para el medio ambiente, y utilizando compuestos diferentes del cloro y sus derivados para blanquear el papel (como el peróxido de hidrógeno o el ozono). Para purificar esta pulpa aún más, se trata con soda cáustica (hidróxido sódico).

Esta pulpa blanca purificada se lava (y a veces se le añade alguna cosa más para modificar su textura) y llega a la prensa, que elimina gran cantidad de agua utilizando rodillos. Para eliminar el resto del agua, se llevan las láminas de pulpa a una secadora, donde además suelen añadirse aún más sustancias para modificar sus características (como cola, resina o almidón). Finalmente, se hace pasar la pulpa comprimida y secada (que ya es papel) por otro juego de rodillos, donde alcanza su espesor final y se almacena en grandes carretes para transportar el papel y cortarlo.

¿Cuál será el próximo paso en la historia del papel? Aparte de convertirlo en un producto menos perjudicial para nuestro entorno, puede que desaparezca y sea sustituido por el papel electrónico o e-papel, si se desarrollan técnicas para poder no sólo leerlo fácilmente (lo cual ya existe), sino también escribir sobre el con la flexibilidad del papel normal. Veremos cómo evoluciona la tecnología, el precio, y cómo la acepta la mayor parte de la gente, que suele tener gran resistencia al cambio (echan de menos el olor del papel, y cosas parecidas).

La historia del refrigerador

Desde los albores de la historia, el ser humano ha buscado maneras de enfriar las cosas, pero la Termodinámica es un enemigo feroz para conseguir enfriar algo cuando el entorno está más caliente: de manera espontánea, el calor fluye de los cuerpos calientes a los fríos, de modo que sus temperaturas se igualen. Durante milenios, la única manera que existía de enfriar algo era ponerlo en contacto con algo más frío aún, y no siempre se podía disponer de ese algo.

Naturalmente, la utilidad fundamental de conseguir enfriar las cosas tenía que ver con conservar los alimentos: las reacciones químicas se producen más rápidamente cuanto mayor es la temperatura, de modo que cuanto más frío está el alimento, más lentamente pueden producirse las reacciones de fermentación que producen las bacterias sobre él para pudrirlo. (La comida en tu nevera se está pudriendo, sólo que más despacio que en el exterior).

Existían otras formas de conservar los alimentos (y de alguna otra hablaremos en futuras entradas de la serie), como la salazón, el aceite, la salmuera, el ahumado… Pero todos estos métodos alteraban el sabor de los alimentos, convirtiéndolos en algo diferente y, además, no servían para cualquier tipo de vianda. ¿Cómo lograr, por ejemplo, mantener una lechuga fresca durante bastante tiempo sin que se oxide ni se pudra?

La solución es evidente: el frío. Desde hace milenios se lleva utilizando para conservar alimentos. La manera más típica era coger hielo o, más comúnmente, nieve de las montañas, introducir los alimentos en un compartimento lo más aislado térmicamente posible, y añadir la nieve al compartimento de modo que mantuviera los alimentos fríos. De ahí el nombre de nevera (más antiguo y más bonito que frigorífico): era simplemente un sitio donde meter nieve y comida.

Lo que solía ocurrir es que los neveros (y era una profesión en toda regla) iban a las montañas con palas, cortaban nieve y la bajaban a las ciudades con carros y caballos. Allí la comprimían hasta convertirla en hielo en los neveros artificiales, desde donde, poco a poco, se iba distribuyendo a las casas y, si se había calculado bien, duraba todo el verano.

Sin embargo, esto tenía varios inconvenientes: en primer lugar, hacía falta o bien tener enormes reservas de nieve o hielo, o reemplazarlos con frecuencia (con mucha frecuencia si hacía calor), era necesario trasladarla desde las montañas hasta el nevero, y el precio era elevado. Las familias más acomodadas, desde luego, disponían ya en la Edad Moderna de neveras, pero la implantación de estas primitivas neveras era, inevitablemente, muy pequeña: hacía falta otro método de mantener las cosas frías. Pero, ¿era posible conseguir que algo que estaba a una temperatura más baja que su entorno se enfriase aún más, rompiendo aparentemente las leyes naturales? Esto parecía contrario a la intuición.

El primer sistema de refrigeración artificial fue fabricado por William Cullen en 1748, y mostrado al público en la Universidad de Glasgow. Sin embargo, la refrigeración fue durante el resto del siglo una curiosidad científica, y no fue hasta el siglo XIX que el proceso físico fue comprendido en profundidad y empezaron a fabricarse los primeros sistemas de refrigeración eficientes. El responsable fue un científico mucho más conocido por su trabajo en electromagnetismo, pero que también hizo sus pinitos en termodinámica: Michael Faraday.

Antes de realizar sus numerosos experimentos relacionados con la electricidad y el magnetismo, Faraday se dedicó a estudiar el comportamiento de diversas sustancias al cambiar de estado –desconozco si basándose en las ideas de Cullen o no–. Sí era posible lograr lo aparentemente antinatural (que por supuesto no lo es): para conseguirlo simplemente hacía falta utilizar inteligentemente los cambios de estado, algo perfectamente natural.

Faraday sabía, como todos los científicos de la época, que cuando un gas se expande, se enfría, mientras que cuando se comprime se calienta. Es lo que sucede, por ejemplo, cuando hinchas la rueda de una bicicleta con una bomba: la boca de la bomba se calienta mucho, y no es por el rozamiento (como alguna gente cree), sino porque lo que hace la bomba es comprimir el gas desde la presión atmosférica a la presión del interior del neumático. Lo mismo pasa cuando utilizas un spray: la disminución de presión (junto con la evaporación, si el contenido era un líquido) hace que el gas en el exterior esté frío.

Si entiendes esto, entonces comprendes la base del funcionamiento del sistema de Faraday (y de los frigoríficos y aires acondicionados actuales): es posible enfriar o calentar algo sin necesidad de que alguien “de fuera” le dé o le quite calor, simplemente expandiendo o comprimiendo un gas en lugares diferentes.

El sistema propuesto por Faraday era el siguiente: supongamos que tengo un circuito cerrado dentro del cual hay un líquido. Si disminuyo la presión, éste se enfría mucho y se evapora, convirtiéndose en gas. A continuación, pongo en contacto el gas frío (a través del circuito) con el interior de un recipiente a temperatura ambiente: el gas se irá calentando mientras el interior del recipiente se enfría. Acto seguido el gas, siguiendo el circuito, sale del recipiente y se comprime, con lo que se condensa y se calienta mucho. Este líquido caliente se pone en contacto con el exterior, con lo que el exterior se calienta y el líquido se enfría. A continuación, el líquido se lleva al principio del proceso: se expande, se enfría y se convierte en gas, etc.

Esquema de la refrigeración por compresión: 1. Transferencia de calor al exterior, 2. Válvula de expansión, 3. Absorción de calor desde el interior, 4. Compresión del gas.

La idea es simple pero genial: hacer que el refrigerante se comprima fuera del recipiente, con lo que se calienta, pero que se expanda dentro del recipiente, con lo que se enfría, y moverlo entre uno y otro estado. De ese modo, puede hacerse que el exterior esté cada vez más caliente y el interior cada vez más frío, algo que, hasta entonces, parecía antinatural.

Entre 1850 y 1851, el Dr. John Gorrie fabricó una máquina que era capaz de fabricar hielo (lo único que hacía falta, por supuesto, era utilizar un refrigerante y un sistema de expansión-compresión que lo llevase por debajo de cero grados centígrados). En 1857, el australiano James Harrison fabricó el primer frigorífico industrial, destinado a la industria cárnica y cervecera. Aunque no es el asunto específico de este artículo, el primer sistema de aire acondicionado (que utiliza, por supuesto, justo el mismo sistema de refrigeración) fue diseñado en 1902 por Willis Haviland Carrier – sí, el fundador de la Carrier.

Sin embargo, lo que hoy conocemos como “nevera” (es decir, un electrodoméstico, no una máquina industrial) aún estaba por llegar. En las casas seguían usándose las neveras primitivas con su depósito de hielo o nieve. El problema, naturalmente, era el precio: la tecnología existía, pero las bombas necesarias eran muy caras, y la electricidad no estaba en todas partes. La primera modernización llegó de forma discreta: en vez de tener que ir hasta las montañas para bajar nieve, la gente compraba hielo en las fábricas, que utilizaban los sistemas de refrigeración para producirlo a partir de agua.

La primera empresa en construir una nevera doméstica fue la americana General Electric, aunque no para sí misma, sino para la American Audiffren Refrigerating Machine Company del francés Marcel Audiffren, el primero en patentar una nevera diseñada para el hogar. Las neveras Audiffren eran un auténtico lujo: la primera comercializada, en 1911, costaba la friolera de mil dólares. ¡Pero mil dólares de 1911 era el doble de lo que costaba un coche!

Pronto otras empresas (incluyendo la General Electric con sus propios modelos) empezaron a hacer la competencia a Audiffren, y los precios bajaron: laKelvinator de 1922 costaba “sólo” 714 dólares. ¡Pero es que un Ford T de 1922 costaba 450 dólares!

Además, estas primitivas neveras eléctricas no eran como las de ahora: la nevera en sí estaba en la cocina, pero el tamaño de las bombas de compresión era tan grande que no podían instalarse en el propio aparato. Una serie de tubos iban de la nevera al lugar en el que se encontraba el sistema de refrigeración en sí (como ocurre con algunos aires acondicionados actuales), normalmente instalados en el sótano de la casa. Durante esta época empezaron a añadirse compartimentos congeladores en las neveras (hasta entonces no podían fabricar hielo).

Por cierto, Michael Faraday no fue el único científico famoso que tuvo que ver con el desarrollo de la nevera. Aunque no se haya reflejado en el posterior desarrollo de este electrodoméstico, por esta época Albert Einstein y Leo Szilárd trabajaron en el diseño de versiones que podrían haber sido revolucionarias, como nos cuentan en Tecnología Obsoleta. Fascinante.

Sin embargo, la primera nevera “para las masas”, y ya con una unidad de refrigeración integrada en el propio aparato, fue la serie de modelos Monitor de General Electric hacia 1927. Estas neveras (de las que se fabricó más de un millón) utilizaban dióxido de azufre como refrigerante, algo no muy recomendable, ya que es tóxico. Por cierto, algo en lo que no hemos mejorado precisamente desde entonces es la calidad de fabricación: hay bastantes Monitor que siguen funcionando hoy, ochenta años despúes.

Hoy en día no es fácil ver el sistema de refrigeración de nuestras neveras, pero hay cosas del ciclo que he descrito que sí puedes notar. Por ejemplo, seguro que estás familiarizado con la rejilla y el serpentín que hay en la parte de atrás de la nevera: están muy calientes, puesto que ahí es donde el líquido caliente (ya comprimido) está soltando calor al exterior. A continuación se expande y evapora, y el tubo está en contacto con la pared interior del compartimento donde ponemos la comida, enfriándolo. Aún es posible oir la bomba de compresión (especialmente, si no funciona muy bien), aunque se encuentre en las entrañas del aparato. Además, algunas neveras no sólo dependen del contacto del circuito de refrigeración con la pared interior, sino que tienen rejillas dentro de las cuales hay ventiladores que favorecen el intercambio de calor.

Naturalmente, hoy en día no se emplea dióxido de azufre como refrigerante. Sus sucesores fueron gases llamados clorofluorocarburos (CFCs) como eltriclorofluorometano o el diclorodifluorometano, comercializados por la empresa Dupont con la marca “Freón”. Estos refrigerantes eran tan comunes que suelen llamarse freones, cuando en realidad eso es la marca (algo parecido a lo que pasó con los kleenex o el celo).

Sin embargo, los CFCs, aunque no eran tóxicos, resultaron ser muy peligrosos en otro sentido: al liberarlos a la atmósfera tomaban parte en una serie de procesos que hacían disminuir el espesor de la capa de ozono, de modo que con el tiempo éstos también fueron sustituidos por muchos otros (hoy en día se emplean muchísimos diferentes), no tan nocivos para el medio ambiente. También existen otros sistemas de refrigeración que no emplean la compresión, como los de Efecto Peltier.

Por cierto, si has entendido el funcionamiento de la nevera, también comprendes por qué es absolutamente estúpido abrir la puerta de la nevera para enfriar la casa (sí, sí…hay gente que lo hace). La nevera extrae calor del interior y lo suelta por la espalda del aparato, de modo que no está enfriando la casa. Es más, ¡la está calentando! Piensa que la nevera está conectada a la corriente eléctrica, y cuando funciona, está introduciendo energía en la casa. El aire acondicionado tiene una parte fuera de la casa, que es donde el refrigerante transfiere calor al exterior, de modo que ahí sí que tiene sentido.

La historia del Ketchup

Para empezar, puede que te sorprenda saber que, durante miles de años, el ketchup no tenía tomate en absoluto. De hecho, era imposible que lo tuviera, porque se cree que la salsa original de la que proviene nuestro ketchup es del extremo oriente… y el tomate proviene de América. ¿Qué tenía pues el primitivo ketchup, si no tenía tomates? Pues lo cierto es que poco de lo que contiene hoy en día.

En el sudeste asiático, las salsas fermentadas eran (y siguen siendo) muy populares. Cuando los primeros exploradores holandeses e ingleses llegaron a Indonesia, probaron varias de estas salsas fermentadas, que los indonesios conocían con el nombre colectivo de kecap o kitjap. Una de ellas, elaborada a base de pescado fermentado, les gustó tanto que trajeron la receta de vuelta a Europa: el kitjap se convirtió, en los idiomas europeos, en ketchup, catchup o catsup(aunque hoy en día se usa mucho más ketchup). De hecho, un diccionario inglés de 1690 da la siguiente definición de Catchup: salsa de las indias orientales.

Sí, el primitivo ketchup no tenía tomate sino pescado fermentado y especias. Eso sí, al igual que nuestro ketchup actual tenía una generosa cantidad de azúcar o melaza (aunque, como veremos luego, no tanta como ahora). En Europa, y especialmente en Gran Bretaña, tuvo una enorme popularidad, y se fueron añadiendo ingredientes adicionales a la salsa básica de pescado – anchoas, setas, frutos secos…con el tiempo, lo que desapareció fue el pescado.

De hecho, probablemente conoces otras salsas europeas elaboradas a partir de salsas asiáticas fermentadas. Otra muy conocida es la famosa salsa de Worcestershire, aunque en este caso la salsa ha permanecido mucho más fiel a su origen que el ketchup, y sigue sin tener tomate. Probablemente se parece más al primitivo ketchup que el propio ketchup que consumimos hoy en día.

Estas salsas de ketchup de pescado y otros ingredientes siguieron evolucionando hasta que, en un momento determinado y que no conocemos, a alguien se le ocurrió añadirle tomate triturado, creando el “ketchup de tomate”. En los botes de Heinz americanos sigue aún poniendo Tomato Ketchup, traducido desgraciadamente al español como Tomate Ketchup, cuando lo que realmente significa es exactamente “ketchup de tomate“… ¡en aquellos días había que especificar de qué ketchup se trataba!. Por cireto, leo por ahí que en el Reino Unido se sigue vendiendo ketchup que no es de tomate, ¿alguien sabe algo de esto y tiene más información?

La primera referencia que tenemos del ketchup de tomate es de 1801, en un libro de recetas estadounidense llamado Sugar House Book. Poco a poco, a lo largo del siglo XIX, el ketchup de tomate fue ganando popularidad en los Estados Unidos: en 1824 aparece en The Virginia Housewife, un libro de recetas muy influyente escrito por Mary Randolph, prima de Thomas Jefferson.

Al principio, el ketchup era elaborado en casa a partir de diversas recetas, pero pronto empezó a ser vendido directamente por los granjeros que cultivaban tomates. En 1837 nació la primera empresa que trataba de convertir el ketchup en un producto industrial, creada por Jonas Yerkes, pero fue en 1875 cuando los hermanos Heinz crearon su propia empresa productora de ketchup de tomate – la misma que es hoy la más popular de todas.

Para que te hagas una idea de lo reciente que es la concepción del ketchup que tenemos ahora, incluso en 1913 el diccionario Webster daba la siguiente definición del ketchup: Salsa de mesa elaborada a base de setas, tomates, nueces, etc.

Curiosamente, el ketchup que conocemos hoy apareció debido a la preocupación por la salud. Al principio, el ketchup de tomate se elaboraba con tomates bastante verdes, lo cual lo hacía mucho más líquido y menos denso que el de ahora (la pectina de los tomates maduros le da parte de su consistencia hoy en día). Además, tenía menos vinagre y menos azúcar que ahora. Debido a que se usaban tomates frescos, el ketchup se pudría relativamente rápido, de modo que Heinz y los demás productores industriales añadían un conservante, el benzoato sódico.

Pero había muchos que cuestionaban el benzoato sódico por considerarlo peligroso para la salud – de hecho, se sigue pensando que es peligroso, sobre todo mezclado con ácido ascórbico, pues produce benceno, que es un carcinógeno. Como nota curiosa, hay alimentos que siguen conteniendo benzoato sódico hoy en día…qué se le va a hacer, no aprendemos.

En cualquier caso, Heinz tuvo una idea que no sólo eliminaría las preocupaciones sobre la salud, sino que convertiría al ketchup de tomate en lo que conocemos hoy en día y multiplicaría su popularidad por cien: en primer lugar, en vez de usar tomates verdes se pasó a tomates maduros, haciendo el ketchup mucho más espeso. Además, en vez de usar tomates frescos se pasó a tomates en conserva (en vinagre), de modo que el benzoato sódico ya no era necesario y el ketchup se volvió más avinagrado. Para compensar esta acidez, Heinz dobló la cantidad de azúcar, haciéndolo tan dulce como hoy en día.

Y en esto, en parte, se basa la popularidad de esta salsa: es salada, dulce y ácida al mismo tiempo, y se piensa que esta orgía de sabores combinados es parte de lo que la hace tan irresistible a tanta gente. Por otro lado, cualquier cosa que tiene grandes cantidades de azúcar y sal no es particularmente saludable. También hay que decir que el ketchup contiene enormes cantidades de licopeno, un antioxidante muy saludable, aunque hay formas más sanas de obtener licopeno.

Además de tomate, sal, azúcar y vinagre, el ketchup moderno tiene otros ingredientes para darle sabor: la pimienta de jamaica, el clavo y la canela son muy comunes; menos lo son el apio y la cebolla. Sin embargo, es difícil identificar sabores individuales por la intensidad del salado-dulce-ácido del ketchup.

La historia del paraguas

Continuamos hoy esta serie de Inventos ingeniosos, un contrapunto a otras más densas en El Tamiz. Después de hablar del lápiz y el semáforo, vamos a dedicarnos a otro objeto de la vida cotidiana: el paraguas, a petición de Scarbrow. ¿Tienes algún objeto del que te gustaría saber el origen? Dínoslo y una de las próximas entradas de la serie se dedicará a él, como en este caso.

El paraguas es un invento curioso por su nombre, su historia y su diseño. Es uno de esos objetos que lleva con nosotros miles de años sin apenas cambiar de aspecto: otros inventos han variado radicalmente su forma en pocos años, pero los paraguas de hace siglos son casi indistinguibles de los de ahora.

El paraguas, que tiene unos 2.400 años y fue inventado en China. Otros pueblos habían usado instrumentos para protegerse de los elementos como el sol y la lluvia, por supuesto: eso ha venido sucediendo desde que existe la humanidad. Sabemos que los antiguos egipcios usaban parasoles de diversas formas, como también lo hacían los asirios. Pero es que lo que inventaron los chinos fue un paraguas en toda regla: con varillas formando un armazón…¡y plegable, como los de ahora!

De hecho, el paraguas es un buen recordatorio de cómo nuestro etnocentrismo cultural es una solemne estupidez. Piénsalo: alrededor del año 600 a.C. tenemos descripciones de un paraguas en China. En un manual de ceremonias, el Zhou-Li (Los Rituales de Zhou), se describe cómo colocar un objeto que cubre al Emperador en sus apariciones. El objeto tiene 28 varillas arqueadas y cubiertas por una tela. Las varillas están unidas a un palo de madera que puede deslizarse dentro de un cilindro hueco, colapsando las varillas y cerrando el objeto…Las diferencias con nuestros paraguas de ahora son mínimas.

El propio ideograma chino para el paraguas ha tenido pocos cambios a lo largo del tiempo. Como probablemente sabes, muchos caracteres chinos, aunque en su inicio eran idealizaciones de los objetos que representaban, han ido cambiando hasta que el “dibujo” es irreconocible. Pero fíjate en el de paraguas…es fácil de ver que es simplemente un paraguas idealizado:
No está muy claro de dónde sacaron sus inventores la idea de crear un armazón de madera con una tela por encima y, desde luego, no sabemos el nombre del inventor. Se piensa que el origen puede ser, por un lado, el utilizar ramas de árbol (las varillas de madera y la fronda en vez de tela) o tal vez, por otro lado, las tiendas de campaña. Al fin y al cabo, el paraguas es algo así como un “techo de tienda de campaña portátil”.

En cualquier caso, el paraguas se utilizaba en China para protegerse tanto del sol como de la lluvia, pero sólo las personas de alto linaje lo usaban (no necesariamente la realeza, pero desde luego no los campesinos). En aquella época, construir un objeto de esas características (especialmente el sistema de madera plegable y la seda que se usaba para cubrirlo) era costoso y requería gran habilidad, de modo que los paraguas eran objetos de lujo: los pobres se cubrían con capas de agua o se mojaban.

Sin embargo, aunque en Europa se utilizaban diversos objetos para cubrirse del sol (ninguno de ellos plegable), el concepto de sujetar algo sobre la cabeza para no mojarse era desconocido. Los viajeros occidentales relataban tras sus viajes las extrañas costumbres de los pueblos asiáticos (como los japoneses, los indios y los siameses) que los utilizaban con regularidad en sus ceremonias. Aunque el diseño chino llegó a Persia y eventualmente a Europa a través de la Ruta de la Seda, había un problema fundamental para su popularización, más allá de la dificultad de su construcción: la imagen.

Los europeos, ya desde la Antigua Grecia, habían asociado el parasol (y el paraguas se parecía mucho) a las mujeres. De hecho, existe incluso algún texto de Anacreonte en el que se afirma que el que un hombre lleve un paraguas es una muestra de afeminamiento. De modo que las mujeres griegas llevaban parasoles, como las etruscas y las romanas, pero los hombres no: las gruesas capas de agua eran su única defensa contra la lluvia.

Pero es que el propio concepto de utilizar el paraguas para resguardarse de la lluvia no era común en Europa: como hemos dicho, lo que se utilizaban eran parasoles. Aunque en castellano la palabra “paraguas” es de etimología evidente y referida a la lluvia, fíjate en la palabra en inglés: umbrella, que viene deumbra en latín, “sombra”.

De hecho, el umbracullum (un gran parasol) era y es utilizado para dar sombra al Papa, uno de los pocos hombres en utilizar un instrumento así en la Europa medieval. No sólo eso: el escudo de armas del Vaticano durante la sede vacante (el período de tiempo entre dos papas) sigue teniendo hoy en día elumbracullum papal:
Poco a poco, finalmente, el paraguas (para protegerse del sol) fue entrando en Europa y haciéndose popular. Al principio se extendió por Italia y Francia…para el regocijo de los ingleses, que se reían y consideraban a sus vecinos del sur afeminados por utilizarlos. En el siglo XVII ya era relativamente común en el sur de Europa.

En Inglaterra el paraguas tuvo que luchar contra esa asociación femenina durante mucho tiempo. Aún en 1706 los diccionarios lo describían como una “pantalla usada comúnmente por las mujeres para protegerse de la lluvia”. Uno de los primeros hombres en utilizarlo abiertamente en Londres fue el doctor Jonas Hanway (el que aparece en el anuncio de 1756), que sufría las burlas de los londinenses cada vez que llovía y salía a la calle con su paraguas. Otro inglés, John Macdonald, relata cómo incluso en 1770 la gente se reía de él y le gritaban, “¡Eh! ¡Francés! ¿Por qué no llamas a un carruaje para no mojarte?”

De modo que podemos considerar el final del siglo XVIII como el momento en el que, ya en toda Europa, se considera el paraguas como un objeto cotidiano y las tonterías se acaban. Poco a poco fueron mejorándose los materiales, hasta llegar al metal y las telas baratas que usamos hoy en día (por no hablar de la fabricación en serie) que han hecho del paraguas un objeto ubicuo…pero, curiosamente, igual que los tiburones son casi iguales que hace millones de años, el paraguas es prácticamente igual en diseño al que describe el Zhou Li.

Por cierto, no sólo se ha utilizado el paraguas a lo largo de la historia para protegerse del sol o la lluvia: también ha sido un arma. Por ejemplo, el disidente búlgaro Georgi Markov fue asesinado en 1978 por un agente de la KGB ¡con un paraguas! Markov estaba esperando al autobús cuando un extraño le pinchó con la punta de un paraguas en el muslo, aparentemente sin querer. El extraño se disculpó y se fue tras dejar, con la punta del paraguas (en la que había una jeringuilla) una bolita de platino-iridio con ricina, un veneno potentísimo del que, aún hoy, no se conoce un antídoto.

La historia del semaforo

Hubo un tiempo en el que no había semáforos. Por otro lado, tampoco había coches, de modo que no eran necesarios casi en ningún sitio…los carruajes seguían una serie de reglas sencillas (como ir por un lado de la calle, ceder el paso a una determinada dirección, etc.) y, al no haber demasiados, no era necesario nada más.

Pero hacia mediados del siglo XIX, décadas antes de que los coches colapsaran las calles de las ciudades, ya aparecieron problemas: en algunas ciudades y, especialmente, zonas muy concurridas de las grandes capitales, la densidad de carruajes era tan grande que no bastaba con ceder el paso. De vez en cuando se formaban caóticos atascos que bloqueaban plazas y las calles adyacentes y, además, los peatones tenían enormes dificultades para poder cruzar las calles más transitadas – ¿uno de los lugares en los que esto ocurría regularmente? Delante de las Cámaras del Parlamento Británico, en el Palacio de Westminster.


Las autoridades decidieron poner solución al problema acudiendo al lugar más natural: el ferrocarril. El ingeniero ferroviario J. P. Knight diseñó el primer semáforo en 1868, básicamente una copia de los semáforos de las vías de tren: tenía dos brazos móviles accionados por cables en el interior de la torre. Cuando el brazo estaba bajado, se podía pasar. Si se levantaba horizontalmente, había que detenerse y, si formaba 45 grados con la horizontal significaba “precaución” (como el ámbar hoy en día). El Comisionado de Policía de Londres publicó instrucciones precisas para obedecer las señales de la torre del semáforo.


Desde luego, no era automático: había un policía en la base de la torre 24 horas al día operando los brazos con una manivela. Además, Knight tuvo en cuenta la vida nocturna londinense: su semáforo tenía dos luces de gas, una roja y otra verde (luego veremos por qué estos colores), para poder funcionar de noche (el alumbrado público de la época era de gas). El policía que controlaba la torre podía cambiar la orientación de las luces con una palanca.

Sin embargo, este primer semáforo no acabó bien: menos de dos meses después de ser estrenado, explotó. La explosión de gas hirió al policía que lo controlaba e hizo a los londinenses plantearse la idea de construir otro…los semáforos modernos tendrían que esperar a ser eléctricos.

¿Por qué Knight utilizó luces roja y verde? Si hubiera usado otros colores, hoy en día nuestros semáforos usarían, por ejemplo, el azul y el naranja. De hecho, hay mejores opciones de color (hay combinaciones de colores que los daltónicos, por ejemplo, podrían distinguir bien), pero todo el mundo está tan acostumbrado, en todos los países, a utilizar el código rojo/verde, que sería muy difícil cambiar. De hecho, el lenguaje rojo/verde se ha extendido a casi todas las facetas de la vida pero, si lo piensas, es una elección arbitraria.

Naturalmente, siendo un ingeniero del ferrocarril y copiando el sistema de los semáforos ferroviarios, Knight simplemente utilizó el código de la época en los brazos de los semáforos de las vías de tren británicas – el rojo y el verde. Sin embargo, los semáforos de tren habían empezado siendo rojos y blancos, no rojos y verdes: tuvieron que cambiarse porque mucha gente ya tenía en la cabeza el código “verde = pasar”, “rojo = parar” debido a un sistema anterior aún al ferrocarril…¡los barcos!

Desde siglos atrás, los barcos habían venido utilizando un código de colores para señalar el derecho de paso (código de colores que se sigue usando hoy en día y, probablemente, has visto incluso en las alas de los aviones): rojo a babor y verde a estribor. De este modo, si dos barcos se acercan el uno al otro perpendicularmente, como se ve en la imagen de abajo, uno de ellos ve la luz roja en el babor del otro, que se le acerca por la derecha, y el barco que viene por la derecha ve la luz verde en el estribor del otro barco.
De este modo, el timonel que veía la luz roja sabía que debía ceder el paso al otro barco, y el que veía la luz verde podía continuar sin problemas. ¿Por qué verde y rojo en los barcos y hace tanto tiempo? La verdad es que no he conseguido descubrir por qué, de modo que, si lo sabes, escribe un comentario o un correo electrónico.

En cualquier caso, desde ese primer (y peligroso) semáforo de J. P. Knight situado en la intersección de George Street y Bridge Street, los colores rojo y verde han sido la norma en el mundo entero. Por supuesto, cuando la luz eléctrica se hizo común, se construyeron los primeros semáforos “modernos” que la utilizaban. El primero de ellos, aunque no es algo en lo que todo el mundo esté de acuerdo, parece haber estado en la Postdamer Platz de Berlín, construido en 1882. Éste también era accionado por un policía en la base, claro – no había sistemas automáticos.

Con el tiempo se vio la necesidad de alertar al tráfico de que el semáforo se iba a poner en rojo. Al principio se utilizó un zumbador que emitía un sonido potente para alertar del inminente cambio de luz: el primer semáforo de este tipo estaba en la intersección de la 105th Street y Euclid Avenue en Ohio, Cleveland (Estados Unidos) en 1914. Sin embargo, me imagino que tras las quejas de los vecinos, se cambió el sistema añadiendo una tercera luz ámbar en 1920, en Detroit, Michigan.

Pero claro, no pasó mucho tiempo hasta que se descubrió otro problema: según se iban multiplicando los semáforos, existía por un lado la cuestión de conseguir policías para cada uno y, por otro, la necesidad de sincronizar de alguna manera los semáforos para que se pusieran en rojo y verde de manera eficaz. El primer sistema de sincronización de semáforos se instaló en Salt Lake City, Utah, en 1917. Tenía seis semáforos (en seis intersecciones diferentes) controlados con un solo interruptor…manual, por supuesto.

Sin embargo, puede que te sorprenda saber que el primer sistema automático no tuvo que esperar mucho: ya en 1922, en Houston, Texas, había una torre central que controlaba doce intersecciones sin intervención humana. Desde luego, la electrónica no fue la solución entonces, sino un simple programador eléctrico. El sistema automático no llegaría a Europa hasta una década después.

Con el tiempo y la llegada de los ordenadores, los semáforos siguieron evolucionando. En primer lugar fue posible coordinar cientos de semáforos de modo que favoreciesen el flujo del tráfico. En segundo lugar, la tecnología finalmente permitió no utilizar simples temporizadores, sino reaccionar al tráfico de muchas maneras:

La primera, y la más básica, empezó relativamente pronto, y consistió en complicar un poco el temporizador de modo que no tuviera los mismos tiempos dependiendo de la hora del día y el día de la semana. Aunque no es un sistema realmente interactivo, sí añadió eficacia a las redes de semáforos.

Algunos semáforos tienen sensores bajo el pavimento. Si no hay coches esperando a la luz roja, ésta permanece roja de modo que el tráfico de la calle perpendicular siga rodando sin detenerse. A veces, estos sistemas han dado problemas si el vehículo es ligero…las motocicletas han tenido que esperar muchotiempo en estas intersecciones.

Los sistemas modernos, en primer lugar, no encienden y apagan los semáforos a la vez: van poniendo las luces en verde a lo largo de una calle en forma de cascada, de modo que se forma una “banda verde” en la que avanza el tráfico. Controlando la velocidad con la que se mueve esta banda verde, se puede controlar la velocidad del tráfico en una zona determinada: sí, hay lugares en los que los semáforos ralentizan la “banda verde” para que los coches no vayan demasiado deprisa, creando un tráfico lento a propósito.

Además, en algunas intersecciones de tráfico muy denso los semáforos tienen varios sensores (no sólo bajo el pavimento sino también cámaras de video conectadas a sistemas de reconocimiento de imágenes) que pueden no sólo detectar si hay coches parados, sino cuántos coches están cruzando la intersección con el semáforo en verde y cómo de denso es el tráfico que se acerca a la intersección. De este modo, nuestros semáforos están empezando a “ver” el tráfico y reaccionar a él según cambia.

Probablemente, en un futuro no muy lejano los semáforos sean aún más inteligentes y tengan sofisticados sistemas de optimización del flujo de tráfico: es muy caro, pero construir infraestructuras adicionales para aliviar el tráfico de zonas densas es mucho más caro, de modo que las inversiones continuarán en este sentido.

Por cierto, durante muchísimos años los semáforos utilizaron simplemente bombillas cubiertas de un cristal o plástico tintado. No ha sido hasta hace pocos años que la tecnología finalmente ha dado un paso decisivo – ahora los semáforos (al menos en muchos países) utilizan diodos emisores de luz (LEDs) en vez de bombillas: son mucho más eficientes energéticamente, al haber muchos en un semáforo no importa que alguno se funda (y esto sucede mucho menos frecuentemente que con bombillas incandescentes), tienen mayor contraste y luminosidad, pueden crear dibujos o señales fácilmente…

Sin embargo, los semáforos pueden seguir mejorándose. Aunque ya se ha tenido en cuenta el problema del daltonismo (pero podrían haberse elegido mejor los colores, como hemos dicho antes), ya que el orden de las tres luces es siempre el mismo, hay lugares en los que las tres luces tienen formas distintas, de modo que ayudan aún más a los daltónicos.
Naturalmente, llegará un día en el que probablemente no haya semáforos: el día en el que no conduzcamos los coches y ellos mismos sepan cuándo parar y cuándo seguir moviéndose. De hecho, cuando los sistemas de conducción asistidos por GPS y redes inalámbricas estén plenamente desarrollados, de modo que todos los coches sepan dónde están todos los demás coches, lo más probable es que no haga falta ni que paren salvo que ocurra alguna emergencia – simplemente alterarán su velocidad o ruta ligeramente para que el tráfico siga fluyendo.