Archivo de la categoría: Historia

Todo persevera en su estado a menos que se aplique una fuerza

Ahora que acaba de salir el informe PISA de 2012, se ha vuelto a abrir el debate del lamentable estado de nuestra educación. De lo que se habla poco, creo, es de las enormes diferencias territoriales, responsables en gran medida del mal papel del sistema educativo español en el contexto internacional. Mientras que en matemáticas los resultados de Castilla y León o Navarra están por encima de la media de la OCDE, al nivel de países como Bélgica o Alemania, Extremadura, a la cola de la distribución, se sitúa 33 puntos por debajo de la media de los países desarrollados. Mucho peor les fue a los estudiantes canarios en la pasada evaluación PISA (Canarias no participó en PISA 2012) en la que obtuvieron 61 puntos menos que el promedio de la OCDE y 38 menos que el español. Estas diferencias equivalen a un retraso de un año y medio en la escolarización con respecto a sus compañeros de los países desarrollados de rendimiento medio y de más de un año respecto al alumno español medio.

En definitiva, aunque en general los resultados de la evaluación PISA no son maravillosos, tampoco sería justo decir que el rendimiento de los alumnos de regiones como Castilla y León, Navarra o Madrid es malo. El tradicional discurso  catastrofista, sin embargo, sí es aplicable a las regiones insulares y del sur de la península.

Es un lugar común decir que España es un país igualitario pero, si algo destacaría yo de estos datos, es que el nuestro es un país profundamente desigual. La supuesta equidad del sistema español está basada en el hecho de que no se trata demasiado mal a los peores alumnos (la dispersión por la izquierda es similar a la del resto de países de la OCDE) pero pésimamente mal a los mejores (la dispersión por la derecha es de las más bajas del mundo desarrollado porque el porcentaje de alumnos con alto nivel de competencias es prácticamente testimonial). En cuanto a las diferencias territoriales, ninguna ley educativa desde la primera regulación impulsada por el ministro Moyano en 1855, parece haber servido para disminuirlas. Los siguientes gráficos son reveladores. En el primero se muestra el rendimiento en matemáticas correspondiente a la evaluación PISA de 2012 frente a la tasa de alfabetización en 1860 (se puede ampliar pinchando sobre la figura):

Relación entre el nivel de alfabetización en 1860 y las puntuaciones de PISA de matemáticas para diferentes CCAA. Imagen extraída de este artículo.

Relación entre el nivel de alfabetización en 1860 y las puntuaciones de PISA en matemáticas para diferentes CCAA. Imagen extraída de ‘eldiario.es’.

El siguiente es similar pero mostrando ahora los resultados de comprensión lectora de PISA 2009. Canarias es la comunidad que peor lo hizo en 2009 pero es que en 1860 era también la región con mayor porcentaje de analfabetos: nada más y nada menos que el 87% de los canarios no sabía leer ni escribir a mediados del siglo XIX.

nivel-educativo-1860-20091

Relación entre el nivel de alfabetización en 1860 y las puntuaciones de PISA en competencia lectora para diferentes CCAA. (Imagen extraída de ‘Nada es gratis’)

Aunque en las figuras anteriores las correlaciones parecen evidentes, un análisis algo más detallado advierte de que más que una relación lineal entre los resultados educativos actuales y la tasa de alfabetización en 1860, lo que hay es un efecto norte-sur. Si bien las comunidades del sur han mantenido un rendimiento medio, sostenido en el tiempo, inferior a las comunidades del norte, en el sur el efecto lineal de las tasas de analfabetismo desaparece, mientras que en el norte la correlación es muy pequeña y no significativa.

Relación entre el nivel de alfabetización en 1860 y las puntuaciones de PISA en competencia lectora para diferentes CCAA, en rojo las del sur y en azul las del norte. Se han superpuesto las rectas de regresión lineal para ambas muestras  (Imagen extraída del blog del IFiE).

Relación entre el nivel de alfabetización en 1860 y las puntuaciones de PISA en competencia lectora para diferentes CCAA, en rojo las del sur y en azul las del norte. Se han superpuesto las rectas de regresión lineal para ambas muestras (Imagen extraída del ‘blog del IFIE’).

En cualquier caso, creo que la conclusión sigue estando clara: hasta la fecha, ningún sistema educativo ha sido capaz de superar las diferencias históricas que aún perviven en nuestra sociedad. Un buen sistema educativo debería haber reducido el peso de los factores socioeconómicos en los resultados académicos. Lo que vemos, sin embargo, es que seguimos moviéndonos por una especie de inercia histórica en la que el modelo de sociedad ha cambiado mucho menos de lo que con frecuencia nos quieren hacer creer. Quizás porque realmente nadie se ha tomado realmente en serio la importancia de la educación para el desarrollo de la sociedad y como motor de movilidad social.

Ahora voy a hacer una serie de simplificaciones pero creo que no me voy a desviar mucho de la realidad. El sistema  económico español podría calificarse como neo-caciquismo o capitalismo de amiguetes. Aunque es indudable que el país se ha desarrollado considerablemente el último siglo y medio (pasar en Canarias del 87% de analfabetismo en 1860 a prácticamente cero en la actualidad es un logro que merece ser destacado), los sectores claves de la sociedad siguen controlados por unas élites cuya composición no ha cambiado demasiado o, al menos, no demasiado para lo que se esperaría de un país desarrollado que se dice democrático. En consecuencia, tanto a estas élites como a los que quieren progresar dentro del sistema,  les beneficiará más conservar, reforzar o crear relaciones sociales útiles que una buena formación académica. Por eso, las clases medias se han preocupado más de mantener a sus hijos separados de los de las clases menos favorecidas que de demandar, por ejemplo, un profesorado mejor preparado o un curriculum realmente formativo. Y por eso, el discurso falsamente progresista del pedagogo-LOGSE, profeta del buen rollo y de la educación emocional, pudo calar con relativa facilidad: al final no es tan importante lo que el niño haga en la escuela sino con quien lo haga, y no es tan importante lo que aprenda sino el título que consiga. Al mismo tiempo, la enseñanza ha sido tradicionalmente una de las pocas salidas laborales honrosas para las clases medias ilustradas —sobre todo en aquellas regiones poco industrializadas—, a las que ha interesado mantener ciertos blindajes corporativistas. Por eso, en el acceso a la función docente se ha primado más la capacidad de aguantar dentro del sistema que el propio mérito académico o profesional. Lo que casi nunca se dice es que  “aguantar”, ya sea dedicando tiempo a preparar unas oposiciones o con trabajos irregulares como interino, es un lujo que no todos se pueden permitir. Y por eso, no es tampoco raro que como colectivo los profesores hayan antepuesto sus intereses a los de los alumnos. Es el caso, por ejemplo, de la jornada intensiva, que indudablemente viene bien al profesor pero probablemente no a los niños. “La pública para mí, la concertada para mis hijos”, piensan muchos profesores. Con la LOGSE nunca se alcanzó una auténtica igualdad de oportunidades pero sí llenó las aulas de niños difíciles, lo que a la larga no solo ha resultado ser bastante caro, sino molesto para los  beneficiarios tradicionales del sistema educativo. “La educación pública ha dejado de contribuir a la sociedad“, dijo el ministro Wert en un alarde de cinismo y sinceridad. Por eso, ahora con la LOMCE se habla de dar la vuelta a la tortilla, cuando en realidad no se trata de acabar con el fracaso, sino de servirse de él para ahorrar y al mismo tiempo legitimar las desigualdades sociales. Ni las repeticiones, ni las expulsiones, ni los diferentes itinerarios, van a mejorar la calidad de la educación porque, ni son prácticas nuevas, ni han servido nunca para nada. Si acaso cambiará la retórica: ahora se hablará de excelencia como antes se hablaba de equidad, pero serán discursos vacíos en ambos casos. Porque si algo vuelve a dejar claro PISA es que las leyes educativas no influyen tanto como nuestra propia inercia como sociedad. Como reza la primera ley de Newton, todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.

Entradas relacionadas:

Astronomía para niños ilustrados

José de Viera y Clavijo fue un ilustrado canario, nacido en 1731, conocido sobre todo por su estudios sobre la geografía y la historia de Canarias, recogidos en el libro “Noticias de la historia general de las Islas de Canaria”, y por su “Diccionario de Historia Natural de las Islas Canarias”, un  índice alfabético descriptivo de los tres reinos, animal, vegetal y mineral, como él mismo subtituló. Tras pasar gran parte de su vida en Madrid y viajando por distintos países europeos, regresó a los 53 años a las islas, donde fundó un colegio y trabajó algún tiempo como maestro. 

José de Viera y Clavijo. Imagen extraída de la wikipedia.

José de Viera y Clavijo. Imagen extraída de la wikipedia.

Además de por los trabajos enciclopédicos, Viera destacó por sus textos didácticos para niños, sobre todo sobre ciencias experimentales. En “Las bodas de las plantas“, resume en verso el esquema de Linneo para la clasificación botánica; En “Los aires fijos“, también en verso, entre otros temas trata la teoría – ya obsoleta – del flogisto, que decía que los materiales susceptibles a ser quemados contenían una sustancia llamada flogisto, de modo que la combustión consistía en la pérdida de la tal sustancia. Pero si en lo referente a la teoría del flogisto no estuvo acertado, o digamos que no llegó a enterarse de que unos años antes, en 1777, Lavoisier ya había demostrado su inconsistencia, fue profético al imaginar que el hombre llegaría a la Luna o que se descubrirían nuevos planetas: Neptuno en el Sistema Solar en 1846 y un sinfín de planetas extrasolares, “en el más profundo”, a finales del siglo XX:

Bien podrá ser que un día la Fortuna
haga nacer otro Colón segundo
que emprenda navegar hasta la Luna
como aquel hizo viaje al nuevo mundo

que un Herschel lince, sobre tal columna,
nuevos planetas halle en el profundo;
y que algún Fontenelle tanto viva
que ande los astros y su Historia escriba.

Sobre astronomía Viera y Clavijo escribió “Noticias del cielo o Astronomía para niños”, esta vez en forma de catecismo. El libro recoge una serie de preguntas con sus respuestas, que suponemos que los niños tendrían que aprenderse de memoria:

PREGUNTA: Arrebatada mi alma al fijar la atención en ellos, quisiera de algún modo instruirme en el conocimiento de los cuerpos celestes y, a diferencia de los brutos, saber distinguirlos con tal cual su individualidad.
RESPUESTA: Los cuerpos celestes son el Sol, los Planetas, los Satélites o Lunas, los Cometas y las Estrellas fijas.

En los distintos capítulos se interroga sobre el Sol, la Tierra, la Luna, los planetas y sus satélites, los eclipses, los cometas y la Vía Láctea. Sobre el Sol explica:

PREGUNTA: ¿Qué es el Sol?
RESPUESTA: Un cuerpo esférico, luminoso y ardiente, casi millón y medio mayor que la Tierra, y unas quinientas mil veces más grande que todos los Planetas juntos, los cuales participan de su luz y calor.

P.: ¿El Sol se mueve?
R.: Aunque nos parezca a nosotros que se mueve, demuestran los Astrónomos que está casi inmóvil como centro del Sistema Planetario.

P.: ¿Y por qué nos parece que él se mueve y que nosotros no nos movemos?
R.: Por la misma razón que al que navega le parece que se mueve la Tierra que tiene a la vista, y que su bajel está inmóvil.

P.: Pero aunque el Sol esté fijo, por lo menos no dará vueltas sobre su propio eje…
R.: Si señor, las da con efecto en veinte y cinco días y medio.

P.: ¿Cómo se sabe eso?
R.: Por las manchas que se suelen observar en su superficie.

P.: ¿Cuánto tiempo gasta la luz del Sol para llegar a la Tierra?
R.: Ocho minutos.

Explica también, con más pena que gloria, que los astros se mueven bajo la acción de la gravedad:

PREGUNTA.: Ahora queda que satisfacer la duda de que cómo tantos y tan grandes cuerpos Planetarios pueden mantenerse suspensos en el espacio etéreo; y qué fuerza secreta puede ser la que los retiene en sus órbitas y los obliga a circular con tanta regularidad y armonía…
RESPUESTA.: Este prodigio es obra de la pesantez, que penetra todos los cuerpos de la naturaleza, y de la atracción con que se dirigen los unos hacia los otros según sus tamaños y sus distancias. Así, los Planetas gravitan hacia el Sol como al centro común del sistema, y los Satélites, hacia sus Planetas respectivos.

P.: Pues si gravitan hacia sus centros, ¿cómo es que no se precipitan en ellos?
R.: Porque tienen que obedecer a otro movimiento de proyección; esto es, a aquel movimiento que tienen los cuerpos arrojados, con el cual van huyendo constantemente del mismo punto céntrico que los atrae. Por eso, aunque la piedra de una honda es atraída al centro de la mano por el cordel, se aparta al mismo paso de ella a fuerza del movimiento de rotación con que es impelida.

Como buen ilustrado, Viera creía en el poder de la razón y no dudó en diferenciar entre ciencia y pseudociencia – entre astronomía y astrología. Él ya lo tenía claro, pero todavía hay hoy quien las confunde:

P.: ¿Las Estrellas y los Planetas tienen influjo sobre nosotros?
R.: Los antiguos atribuyeron varios influjos a los Astros, pero esa vana realidad de sus influjos está reducida al calor, a la luz, al peso sobre el aire y el mar, y a la fuerza de su atracción.

P.: ¿Cómo se llama esa imaginaria ciencia?
R.: Astrología Judiciaria.

Decía que las utilidades de la astronomía eran “muy honrosas y de la mayor satisfacción” porque, además de “suministrarnos la más admirable idea del universo y de la magnificencia del Creador” y tener utilidad práctica por ejemplo  en agricultura y navegación, nos ayuda a  conducirnos racionalmente y liberarnos de miedos infundados:

P.: ¿Qué utilidades se sacan de la Astronomía?
R.: Los conocimientos astronómicos son los que han ido desterrando del mundo aquellos terrores pánicos de que, a vista de los eclipses, se llenaban los hombres necios, cuyas consecuencias fueron tan funestas para ejércitos y provincias; y aquellas vanas observancias y sustos que ocasionaban las apariciones de los Cometas, Auroras Boreales y Exhalaciones encendidas. En fin, los conocimientos astronómicos han desterrado aquellas ridículas imposturas con que los Astrólogos, fundados en las influencias de los aspectos de los Astros, no sólo pronosticaban los sucesos naturales y físicos, sino que también llevaban el Horóscopo y anunciaban los acontecimientos de la vida humana. Así, viva la Astronomía y muera la absoluta ignorancia de ella.

Pues eso, ¡que viva la Astronomía y muera la absoluta ignorancia de ella!

Entradas relacionadas:

¿De qué están hechas las cosas? (Parte III)

El modelo atómico de Rutherford había establecido un bonito paralelismo entre el sistema solar y el átomo al suponer que los electrones se movían en torno a un núcleo siguiendo trayectorias circulares, del mismo modo que los planetas orbitan en torno al Sol. Pero el modelo, aunque elegante, no podía explicar las observaciones, primero, porque era inevitable que los electrones acabaran cayendo hacia el núcleo, cosa que en realidad no sucede y, segundo, porque no explicaba las rayas de colores que se observan en los espectros de los elementos. Al calentar un elemento hasta la incandescencia, por ejemplo una muestra de hidrógeno dentro de un tubo de ensayo, y hacer pasar la luz emitida a través de una rendija y luego por un prisma, se ve un patrón de colores como el de la ` figura de abajo – que corresponde al hidrógeno – al que llamamos espectro. Cuando un elemento es calentado hasta emitir luz en ciertas longitudes de onda – o colores – al enfriarse tiende a absorber las mismas longitudes de onda. Cada elemento tiene un patrón de rayas, diferente y único, que es como su huella dactilar y que nos permite distinguir un elemento de otro y saber de qué están hechas las cosas sin necesidad de tocarlas. Por ejemplo, cuando se hizo pasar la luz del Sol por uno de estos dispositivos de rendija y prisma, a los que llamamos espectrógrafo, se observó el patrón del hidrógeno, indicando que nuestra estrella estaba hecha fundamentalmente de ese elemento. Pero además de las del hidrógeno, se vieron una serie de líneas que no correspondían a ningún elemento conocido en la Tierra. Al nuevo elemento se le dio el nombre de helio por haberse descubierto en el Sol aunque en realidad es un elemento bastante común en la Tierra que hasta aquella fecha – 1886 – había pasado desapercibido. Pues bien, según el modelo de Rutherford, los átomos tendrían que emitir en los colores del arco iris, pero de forma continua y no con patrones de líneas.

Espectro de emisión del hidrógeno. (Imagen extraída de http://fismoderna.wikispaces.com).

Espectro de emisión del hidrógeno. (Imagen extraída de http://fismoderna.wikispaces.com).

La luz ha resultado ser un elemento valiosísimo para estudiar de qué están hechas las cosas. De hecho, la luz es la única fuente de información de la que disponen los astrofísicos. Eso sí, luz en su sentido amplio, entendida como radiación electromagnética, aunque no necesariamente visible. Un experimento que a los físicos les costó comprender fue el de la luz emitida por un cuerpo negro.  Un cuerpo negro es aquel capaz de absorber toda la luz que le llega. Una cámara cerrada de paredes rugosas con un pequeño agujero actúa como cuerpo negro casi perfecto porque la luz que entra, o es absorbida, o rebota una y otra vez en las paredes y no es capaz de escapar. Si calentamos la cámara la veremos brillar a través del agujero, igual que vemos que un trozo de carbón – un cuerpo negro sencillo – se pone primero rojo y después blanco azulado cuando se calienta.  Como el cuerpo es capaz de absorber todas las longitudes de ondas posibles, al calentarse  debería ser capaz de radiar luz de todos los colores puesto que los ha absorbido antes. Esta radiación, denominada radiación de cuerpo negro, sigue una curva conocida desde hace tiempo. Cuanto más se caliente un cuerpo negro – cuanta más energía se le proporcione – menor será la longitud de onda en la que emite su máximo de radiación. El carbón pasa de rojo a azul si se calienta mucho, porque la longitud de onda del rojo es más larga que la del azul. Pese a ser un problema aparentemente sencillo, las teorías de entonces no podían explicar satisfactoriamente la radiación del cuerpo negro. Había fórmulas que funcionaban bien para un rango concreto de longitud de onda pero que hacían predicciones incorrectas, como  la de que un cuerpo negro debería emitir una energía infinita. Como la discrepancia entre la teoría y la observación se  encontraba en la zona de las longitudes de onda pequeña, se le llamó, quizás de forma algo sensacionalista, ‘catástrofe ultravioleta’.

El problema fue abordado por el físico alemán Max Planck a quien se le ocurrió la genialidad de considerar que la luz era radiada en porciones discretas a las que llamó cuantos. Es decir, Planck pensó que al igual que existían ‘trozos’  de materia que no podían ser divididos, tampoco podían existir porciones de energía más pequeñas que los cuantos. Los cuantos eran paquetes de energía igual que los átomos eran paquetes de materia.  Planck supuso además que el tamaño del cuanto variaba con la longitud de onda de la luz: cuanto menor la longitud de onda, mayor es el cuanto. La radiación no puede ser emitida ni absorbida de forma continua sino en paquetes, del mismo modo que al subir una escalera no podemos subir partes de un escalón, sino escalones enteros. Subir los escalones más bajos – correspondientes a longitudes de onda más largas – es fácil pero cuanto más al azul vayamos, más alto será el escalón y más nos tendremos que esforzar. Volviendo al cuerpo negro, es cierto que al calentarlo más, habrá más energía disponible con lo cual sería posible producir longitudes de onda más cortas, compuestas de cuantos más grandes. Pero, aun así, siempre habría una longitud de onda demasiado corta, incluso para una temperatura muy alta. En definitiva, no se produciría una catástrofe ultravioleta, porque sería como decir que siempre habría un escalón demasiado alto para poder subirlo. ¿Y qué tiene que ver la teoría del cuerpo negro de Planck con los modelos atómicos? Pues que aplicando la misma teoría al caso del átomo fue posible resolver todos los problemas que tenía el modelo de Rutherford.

Modelo atómico de Bohr. La línea roja del espectro de hidrógeno de la figura superior se forma cuando el electrón pasa del tercer al segundo nivel. La diferencia entre los niveles de energía es igual a la frecuencia de la radiación,  ,por una constante, h, llamada constante de Plank (Imagen extraída de la wikipedia).

Modelo atómico de Bohr. La línea roja del espectro de hidrógeno de la figura superior se forma cuando el electrón pasa del tercer al segundo nivel. La diferencia entre los niveles de energía es igual a la frecuencia de la radiación, ν, por una constante, h, llamada constante de Planck (Imagen extraída de la wikipedia).

El físico danés Niels Bohr, tras doctorarse en Copenhague, amplió sus estudios en Cambridge, primero con Thomson y más tarde con Rutherford, así que su interés por los atómos parece inevitable. Bohr aplicó las ideas de Planck y supuso que los electrones no pueden tener cualquier energía sino solo ciertos valores – o niveles – discretos, es decir, pensó que la energía del electrón estaba cuantizada. Un electrón en una órbita determinada no emitiría energía sino que sólo lo haría al caer a una órbita inferior. Además, no emitiría a cualquier longitud de onda sino únicamente a unas longitudes de onda – colores – determinadas, lo que explicaría de manera natural por qué en los espectros se veían líneas y no un continuo de color. Esto último se le había ocurrido a Albert Einstein al tratar de explicar el efecto fotoeléctrico, un trabajo por el que recibió el premio Nobel. El efecto fotoeléctrico era el fenómeno por el que al hacer incidir luz sobre un metal en ocasiones se originaba una corriente eléctrica. Es decir, la luz parecía arrancar electrones al metal. Curiosamente el efecto no se producía siempre sino que dependía del color de la luz incidente pero no de su intensidad.  La intensidad de la luz hacía que aumentara el número de electrones arrancados (la intensidad de la corriente), pero no la energía de cada electrón (el voltaje de la corriente). Las teorías clásicas no podían explicar este comportamiento pero si se supone que las fuentes de luz sólo pueden estar en los escalones de energía que propuso Planck  y que emiten al perder energía, es lógico pensar que la luz radiada depende de esos escalones. Es decir, la luz también va en paquetes. Einstein llamó a estos paquetes cuantos de luz pero hoy en día preferimos llamarlos ‘fotones’. En el átomo, el electrón que baja un nivel de energía emite un fotón que se lleva la energía perdida. Bohr hizo los cálculos para el átomo más sencillo, el de hidrógeno, en el que un sólo electrón orbita el núcleo, y fue capaz de determinar las longitudes de onda de las líneas de su espectro con una precisión inaudita. El modelo de Bohr explicaba maravillosamente el átomo de hidrógeno, sin embargo, en los espectros de otros átomos se observaba que electrones de un mismo nivel energético tenían energías ligeramente diferentes lo que hizo necesaria alguna corrección al modelo como suponer que dentro de un mismo nivel energético existían subniveles.

A principios del siglo XX, muchos experimentos habían demostrado que la luz a veces se comportaba como una partícula, como en el efecto fotoeléctrico, y a veces como una onda, como en los experimentos de interferencias de la luz. Al igual que los fotones, los electrones tampoco se comportan exactamente ni como partículas ni como ondas: los electrones funcionan a su propia manera que podríamos llamar mecanocuántica. Los hechos a pequeña escala parecen seguir una lógica distinta a la que nos sugiere nuestra experiencia cotidiana. Los físicos trataron de describir matemáticamente ese peculiar comportamiento de los electrones y fue así como en 1925 Erwin Schrödinger formuló una ecuación que daba una solución satisfactoria al problema. Al aplicarla al átomo de hidrógeno pudo explicar tanto las líneas espectrales como las modificaciones de los niveles de energía en presencia de campos magnéticos o eléctricos que hacen que a su vez cambien las líneas espectrales observadas (según los llamados efectos Zeeman o Stark). Schrödinger  interpretó que el electrón no estaba dando vueltas alrededor del núcleo, sino que era una especie de nube de densidad de carga y masa alrededor de él. La forma de esta nube venía dada por la solución a esta ecuación que tiene forma de función de onda. Las nubes electrónicas en el átomo de hidrógeno se muestran en la figura de abajo. Según esta interpretación, el electrón no está en un punto determinado sino que habría “más electrón” en las zonas de mayor intensidad (las regiones brillantes de la figura), y “menos” en las de menor intensidad (las regiones oscuras). Una interpretación alternativa fue la formulada por Max Born quien vio la función de onda como una función probabilística. Volviendo a la figura de las nubes electrónicas, según Born el electrón no estaría “extendido” por todas esas regiones sino que al detectarlo como partícula estaría en un punto exacto. Ahora bien, interpretando las zonas de la imagen como nubes de probabilidad, podemos suponer que al realizar un experimento sería más probable encontrar al electrón en las regiones brillantes y mucho menos probable hallarlo en las zonas oscuras. Algunos interpretan esto como que el electrón se mueve por la “nube” de la función de onda pero pasa más tiempo en algunos sitios por lo que es más frecuente encontrarlo allí. Sin embargo, en la interpretación de Born, hablar de lo que hace el electrón antes de observarlo es completamente irrelevante.

Átomo de Schroedinger

Nubes electrónicas en el átomo de hidrógeno. (Imagen extraída de http://www.eltamiz.com)

Hasta aquí llega la serie sobre los átomos. Nos hemos centrado en los electrones que son los que determinan las propiedades de los elementos y que por tanto explican que las cosas sean como son. Hoy creemos que en el núcleo hay neutrones además de protones y que además existen muchas otras partículas fundamentales. Sin embargo, esta es otra historia que queda pendiente para otro día.

Entradas relacionadas:

¿De qué están hechas las cosas? (Parte II)

Para poder explicar lo que se observaba en las reacciones químicas, John Dalton había planteado, a principios del siglo XIX, la hipótesis de que la materia estaba compuesta de pequeñas partículas llamadas átomos. Sin embargo, el alcance de la hipótesis atómica es muchísimo mayor de lo que al principio se pensaba. Simplemente suponiendo que la materia está compuesta de átomos, podemos explicar de manera convincente, no sólo las reacciones químicas, sino fenómenos tan diversos como los estados de la materia, el frío y el calor, la tensión superficial del agua, o la disolución de un sólido en un líquido. Richard Feynman lo cuenta en este vídeo:

Para Feynman la hipótesis atómica era las más completa de cuantas tratan de describir el mundo. “Si, por algún cataclismo, todo el conocimiento quedara destruido y sólo una sentencia pasara a las siguientes generaciones de criaturas, ¿qué enunciado contendría la máxima información en menos palabras? Yo creo que es la hipótesis atómica o el hecho atómico, o como quiera que ustedes deseen llamarlo) según la cual todas las cosas están hechas de átomos: pequeñas partículas que se mueven en movimiento perpetuo, atrayéndose mutuamente cuando están a poca distancia, pero repeliéndose al ser apretadas unas contra otras”. Los seres vivos están hechos de átomos o, al menos, podemos decir que lo que hacen los seres vivos se puede explicar suponiendo que están hechos de átomos que actúan de acuerdo a las leyes de la física. El cuerpo humano debe de contener unos 7×1027 átomos, un número asombrosamente  grande. Se piensa que tenemos más átomos en nuestro cuerpo que estrellas hay en el universo.

El siglo XIX fue el siglo de la electricidad. Michael Faraday había experimentado con la ella de todas las formas posibles, incluso intentado enviar una descarga eléctrica a través del vacío, aunque sin mucho éxito en este caso, por la dificultad técnica que suponía hacer un vacío que estuviera realmente vacío. Para poder hacer el experimento en condiciones, hubo que esperar algunos años a que se inventara una bomba lo suficientemente potente para vaciar completamente(*) un tubo de vidrio. Dentro de uno de estos tubos se colocaron electrodos de metal  para producir descargas eléctricas en su interior. Se comprobó entonces que en la pared opuesta del electrodo negativo (que habían llamado cátodo) aparecía un resplandor verde. Esos rayos, bautizados como rayos catódicos por partir del cátodo, eran desviados por un imán y también por cargas eléctricas. En aquella época – hablamos de finales del siglo XIX – las únicas partículas de carga negativa que se conocían eran los iones negativos de los átomos. Los rayos catódicos, sin embargo, sufrían tal desplazamiento en el interior del tubo que se pensó que era imposible que estuviesen formados por iones, a menos que estos tuvieran una carga eléctrica increíblemente elevada, o fueran extremadamente ligeros, tanto, como mil veces menos la masa del átomo de hidrógeno.

Esto es una sandía, no un budin de pasas, pero también sirve para ilustrar el modelo de Thomson. Las pepitas serían los electrones en medio de una masa positiva.

Esto es una sandía, no un budin de pasas, pero también sirve para ilustrar el modelo de Thomson. Las pepitas serían los electrones en medio de una masa positiva. Imagen extraída de chemistryadda.blogspot.com

El físico inglés Joseph John Thomson apoyó la segunda hipótesis y se le ocurrió que los rayos catódicos estaban compuestos de pequeñas partículas de carga negativa que procedían de los átomos de los electrodos. A estas partículas las acabaron llamando electrones. El descubrimiento era notable porque significaba que el átomo era en realidad divisible, no como pensaba Dalton que había imaginado los átomos como algo parecido a bolas de billar. Thomson formuló un nuevo modelo atómico en el que los electrones reposaban en un mar de cargas positivas como si fueran pasas   dentro de un pastel. Su modelo es conocido por eso como del ‘budín de pasas’.

Mientras tanto, Henri Becquerel había descubierto que las sales de uranio emitían de forma espontánea unos rayos de naturaleza desconocida con propiedades tan exóticas como atravesar distintas sustancias y ser capaces de velar una película fotografíca. Este fue precisamente el tema de estudio de su estudiante, Maria Skłodowska o Madame Curie, quien, entre otras cosas, dedicó mucho tiempo a analizar un mineral de uranio para ver qué causaba esa actividad. Así descubrió dos elementos nuevos: el polonio, bautizado de esa manera en honor a su país de origen, Polonia, que en el siglo XVIII había perdido la independencia repartido entre Rusia, Prusia y Austria; y el radio, llamado así porque era una sustancia con muchísima actividad radioactiva. El caso es que estos elementos emitían radiación de diferentes tipos que, a falta de otros nombres, bautizaron como rayos α, β y γ. El radio emitía los tres tipo de rayo mientras que el polonio sólo rayos α, nadie sabía muy bien por qué. Ernest Rutherford se dedicó a estudiar los rayos α y vio que se desviaban ligeramente al hacerlos pasar por un campo magnético muy intenso por lo que pensó que contenían partículas cargadas eléctricamente (para poder notar los efectos del campo magnético) y además bastante grandes (porque si no se desviarían mucho más fácilmente). Rutherford siguió experimentando con las partículas α y diseñó el famoso experimento que lleva su nombre: En un recipiente de plomo al que había practicado un agujero metió un muestra de polonio. Por el agujero se supone que saldría un haz de partículas y delante de ese haz colocó una lámina de oro muy fina. Para observar el lugar a donde llegaban las partículas colocó detrás y a los lados de esta lámina una pantalla fosforescente. Rutherford esperaba que las partículas pasaran a través de la lámina sin desviarse porque suponía que las cargas positivas y negativas de los átomos de oro de la lámina estarían distribuídas uniformemente, según el modelo atómico de Thomson, por lo que estas esferas ‘pudín de pasas’ serían eléctricamente neutras y no podrían desviar la trayectoria de las partículas α. Sin embargo, los resultados fueron sorprendentes. Tal y como esperaba, la mayor parte de las partículas atravesó la lámina sin desviarse pero algunas sufrieron desviaciones grandes e incluso un pequeño número de partículas rebotó hacia atrás. Los resultados de este experimento hicieron que Rutherford planteara un nuevo modelo atómico. Supuso que el átomo estaba prácticamente vacío, puesto que la mayoría de las partículas α atravesaban los átomos de oro sin variar su dirección. Además, pensó que tenía un núcleo central con carga positiva que poseía prácticamente toda la masa y que era el responsable de que las partículas α que chocaban contra él rebotasen. Alrededor del núcleo, y a una enorme distancia de él, los electrones orbitaban a gran velocidad. El átomo de Rutherford se comportaba como un sistema planetario a pequeña escala. No sólo explicaba los hechos observados hasta entonces sino que se establecía un bonito paralelismo entre el macro y el micro mundo físico. Sin embargo, tenía unos cuantos problemas.

El modelo atómico de Rutherford es el logo de la Comisión estadounidense de energía atómica. Imagen extraída de la wikipedia.

El modelo atómico de Rutherford es el logo de la Comisión estadounidense de energía atómica. Imagen extraída de la wikipedia.

Resulta que los electrones estaban girando por lo que según la teoría de Maxwell deberían emitir radiación electromagnética todo el tiempo. Esa radiación les haría peder energía de modo que al final acabarían cayendo irremediablemente sobre el núcleo. Además, la emisión también los haría brillar con cualquier color (o, más precisamente, cualquier longitud de onda). Sin embargo, se sabía que los átomos emitían sólo líneas de unos colores determinados. Esto hizo que el modelo de Rutherford tuviera que ser rápidamente abandonado pese a que en el imaginario popular el átomo sigue siendo tal y como Rutherford lo imaginó.

¿Cómo se solucionaron estos problemas? Lo veremos en la tercera parte.

(*) Para saber más sobre el vacío, aconsejo encarecidamente leer esta magnífica entrada de “Una vista circular”.

Entradas relacionadas:

¿De qué están hechas las cosas? (Parte I)

Supongamos que dividimos una gota de agua en dos partes iguales, y después cogemos una de estas mitades y la volvemos a dividir para a su vez subdividir cada mitad y así sucesivamente. Cada vez tendremos gotas más pequeñas pero ¿habrá algún límite? ¿Se llegará a un punto en el que sea imposible seguir dividiendo? Demócrito, un filósofo griego que vivió en tiempos de Sócrates, hace unos dos mil cuatrocientos años, imaginó que ocurriría en una situación así y llegó a la conclusión de que ninguna sustancia podía dividirse infinitamente. Llegaría un momento, pensó Demócrito, en el que tendríamos un trozo muy pequeño que ya no podría ser dividido. A esa minúscula fracción indivisible, a esa pequeña partícula, la llamó átomo. Para él, el universo estaba constituido de átomos en el vacío. Todas las sustancias estaban formadas por partículas de distintos tipos – distintas en forma y tamaño, aunque con las mismas propiedades – que se ordenaban de distintas maneras. “Por convención el color, por convención lo salado, pero en realidad existen sólo átomos y vacío”, dijo Demócrito, que fue un adelantado al sugerir que la percepción podía ser una construcción mental. Demócrito, al parecer, llegó a formular una teoría del conocimiento bastante elaborada al afirmar que los fenómenos, lo perceptible, eran necesarios para conocer lo oculto pero, al mismo tiempo, la razón debía explicar cómo funcionan los sentidos y cómo se presentan ante ellos los fenómenos. Era sin duda un hombre sabio del que bien podíamos aprender para elaborar un curriculum escolar: “Son tres las consecuencias que se derivan de tener buen juicio: calcular bien, hablar bien y actuar como es debido.

    Imagen de demócrito en un antiguo billete griego de 100 dracmas. A la derecha se muestra un modelo atómico y el edifio de un institito griego de investigación nuclear. Imagen extrída de www-personal.umich.edu

Imagen de Demócrito en un antiguo billete griego de 100 dracmas. A la derecha se muestra un modelo atómico y el edifio de un institito griego de investigación nuclear. Imagen extrída de www-personal.umich.edu

Las ideas de Demócrito no prendieron entre los pensadores de su tiempo y de su obra sólo se conservan algunos fragmentos recogidos por Epicuro, gran admirador de Demócrito, quien fundó una escuela filosófica en Atenas casi un siglo después de morir este. Y si la obra de Epicuro ha llegado hasta nosotros, ha sido fundamentalmente gracias al libro “De rerum natura“, o “Sobre de la naturaleza de las cosas”, que el poeta y filósofo romano Tito Lucrecio Caro – o, simplemente, Lucrecio – escribió unos cincuenta años antes de Cristo. El libro de Lucrecio era en realidad una descripción del mundo físico en forma de poema. Llegó a ser muy popular pero también se hubiera perdido de no ser por Poggio Bracciolini, un latinista de Florencia y antiguo secretario de Papa, cuya afición a los libros lo llevó a emprender un viaje con la intención de buscar manuscritos de autores latinos en los monaterios europeos. La que probablemente fuese la única copia del poema de Lucrecio estaba en un monasterio alemán. Aunque nadie lo conocía, Bracciolini supo ver que estaba ante una obra excepcional. Tras mandarlo a copiar lo llevó a Florencia donde hicieron nuevas copias y, así, muy pronto empezó a circular entre los eruditos de la época. Cuando llegó la imprenta, fue uno de los primero libros en imprimirse. Se dice que “De rerum natura” ejerció una considerable influencia en el pensamiento occidental, hasta el punto de enterrar la Edad Media cambiando la concepción filosófica del mundo moderno.

Sello irlandés con Boyle y su famosa relación entre la presión y el volumen de un gas. Imagen extraída de communicatescience.eu.

Sello irlandés con Boyle y su famosa relación entre la presión y el volumen de un gas. Imagen extraída de communicatescience.eu

Pese a que Demócrito había señalado la importancia de la observación – lo perceptible para conocer lo oculto – su método, y el de los antiguos griegos en general, era teórico y especulativo. Como los griegos, los antiguos alquimistas también trataban de averiguar cuáles eran los elementos originarios de los que están hechos todas las cosas aunque, a diferencia de ellos, experimentaban con los materiales con los que especulaban. Especialmente cuidadoso en sus observaciones fue Robert Boyle, quien, ya en el siglo XVII, sentó las bases de la química moderna. En sus experimentos, Boyle anotaba todos los datos que creía relevantes: el lugar, el viento, la presión, la posición de la luna y el sol… Estudiando el aire, se preguntó por qué se podía comprimir y se le ocurrió – puede que rescatando la vieja idea de Demócrito – que quizás estaba compuesto de partículas que se iban juntando más y más con la compresión. Los éxitos de los alquimistas eran cada vez mayores a medida iban dejando a un lado la magia y adoptando el método científico. Por ejemplo, se hizo el intento de medir los pesos relativos de los componentes de las sustancias químicas. Así, Joseph Louis Proust, quien desarrolló casi toda su carrera en España, al estudiar la composición de diversos compuestos, descubrió que la proporción en masa de cada uno de los componentes se mantenía constante independientemente de las condiciones en las que se llevase a cabo el estudio. Por ejemplo, siempre que el cobre, el oxígeno y el carbono formaban carbonato de cobre, las proporciones de peso eran siempre las mismas: cinco unidades de cobre, por cuatro de oxígeno y una de carbono. La receta del carbonato de cobre era inmutable y la proporción era siempre la misma, 5:4:1, ni un poco más, ni un poco menos.

El científico inglés John Dalton fue todavía más allá con sus observaciones pese a que, según se decía, no era un experimentador demasiado riguroso y además tenía la dificultad añadida de confundir los frascos de reactivos porque no podía distinguir su color. Dalton era daltónico, como su nombre indica. El caso, es que no solo confirmó que en un compuesto las proporciones en peso de sus componentes eran siempre las mismas – como ya había dicho Proust – , sino que descubrió que cuando dos elementos se combinaban para originar distintos compuestos, dada una cantidad fija de uno de ellos, las diferentes cantidades del otro  estaban en relación de números enteros sencillos. Por ejemplo, el dióxido de carbono está compuesto por carbono y oxígeno en la proporción, por peso, de 3 unidades del primero por 8 del segundo, mientras que el monóxido de carbono también está formado por carbono y oxígeno pero en la proporción de 3 a 4. En el carbonato de cobre la proporción en peso de carbono y oxígeno era de 1 a 4 (que es lo mismo que de 3 a 12). Pensó entonces que esta norma podía explicarse suponiendo que la materia estaba formada por partículas y, como conocía la teoría de Demócrito, a estas partículas las llamó átomos. Si el átomo de carbono pesara 4 unidades, el dióxido de carbono tendría dos átomos y el monóxido de carbono uno. Según Dalton, cada elemento representaba un tipo particular de átomos y cualquier cantidad de este elemento estaba formada por átomos idénticos de esa clase. Lo que distinguía un elemento de otro era entonces la naturaleza de sus átomos y lo que diferenciaba a uno de otro era su peso. Así, los átomos de azufre eran más pesados que los del oxígeno, que a su vez eran más pesados que los del nitrógeno, más pesados que los del carbono, los cuales pesaban más que los del hidrógeno. De este modo Dalton estableció la primera teoría atómica de la materia.

Lista de elementos de Dalton, con sus símblos. Dalton pensaba que había tantos típos de átomos como elementos distintos.

Lista de elementos de Dalton, con sus símblos. Dalton pensaba que había tantos típos de átomos como elementos distintos. Imagen extraída de http://tableofelements.tumblr.com

En el siglo XX los físicos empezaron a utilizar métodos para descubrir que el átomo estaba constituido por partículas aún más pequeñas, pero esta ya es otra historia que contaremos en la segunda parte.

Entradas relacionadas:

La campana perdida de Gauss

Un maestro manda un ejercicio a sus pequeños alumnos de siete años con la idea de mantenerlos ocupados mientras él se dedica a otra tarea. Se trata de calcular la suma de todos los números del 1 al 100: 1+2+3+4+… y así sucesivamente hasta 100. La clase queda en silencio cuando los niños se ponen manos a la obra, pero no pasa ni un minuto y ya hay uno que parece estar en babia. ¿Por qué no trabajas?, le pregunta el maestro. Es que ya he terminado – dice el crío -, la suma de todos los números del 1 al 100 es 5050. Los hechos ocurrieron a finales del siglo XVIII y el niño de la historia es Carl Friedich Gauss.

El pequeño Gauss, antes de comenzar a sumar mecánicamente como habían hecho sus compañeros, se paró a reflexionar sobre el problema. En seguida se dio cuenta de una curiosa propiedad: la suma del primer y último término de la serie (1+100=101) era igual a la suma del segundo y el penúltimo (2+99=101) y así sucesivamente:

1 , 2 , 3 , 4 . . . . . . . . . 97 , 98 , 99 , 100

1+100 = 2+99 = 3+98 = 4+97 = … = 101

Para tener el resutado final, se necesita repetir esta suma 50 veces, porque el último par a sumar es el 50+51. Es decir, el resultados será 50 veces 101, o 5050.

El maestro entendió que tenía un alumno especialmente dotado para las matemáticas y no dudó en hablar con sus padres para que le permitieran recibir clases complementarias de esta materia después de las clases ordinarias. Su talento también llegó a oídos del duque de Brunswick, quien pagó los estudios posteriores del joven Gauss, que de otro modo no podría haber continuado en la escuela porque su famila carecía de medios. De haber vivido hoy, Gauss no hubiera necesitado la ayuda de ningún duque para seguir estudiando. Sin embargo, quizás en la escuela, coloreando fichas, nadie hubiera descubierto su talento.

A Gauss se le conoce como Príncipe de las matemáticas, porque sus trabajos en este campo fueron muy numerosos e increíblemente brillantes. Una de sus contribuciones es la curva de distribución normal, también llamada gaussiana o campana de Gauss. La gaussiana representa la distribución de numerosos fenómenos aleatorios, humanos o naturales. Por ejemplo, la estatura, el coeficiente intelectual, los errores en las medidas de un experimento, el tamaño de los tornillos fabricados con una máquina o el peso de los paquetes de harina envasados en un molino, siguen una distribución normal.

Curva de distribución normal en torno a la media de desviación. (Figura extraída de la wikipedia).

Curva de distribución normal en torno a la media, μ, de desviación σ. (Figura extraída de la wikipedia).

La distribución normal tiene algunas propiedades interesantes. Si a cada uno de los valores de una distribución, le restamos el valor medio, elevamos al cuadrado cada una de estas diferencias, calculamos su suma y dividimos el resultado entre el número de valores, obtenemos una cantidad llamada ‘varianza’. La raíz cuadrada de la varianza es la desviación típica, o desviación estándar, un valor que da cuenta de la dispersión de los datos respecto a la media y que se suele denotar con la letra griega sigma (σ). Pues bien, en una distribución normal, el 68.2% de los valores se encuentran a una desviación estándar de la media (es la región pintada de azul oscuro en la figura). Es complicado dar definiciones precisas de conceptos tan complejos como la inteligencia o la capacidad de aprendizaje pero, a grandes rasgos, podemos decir que un 68.2% de los estudiantes tienen capacidades promedio dentro de una sigma. La educación escolar está diseñada fundamentalmente para atender a esta mayoría. Sin embargo, hay un 31.8% de escolares fuera de esta “normalidad”. Si en el año 2012 había unos 290.000 niños escolarizados en Canarias en los niveles de infantil y primaria, podemos decir que aproximadamente 92.000 niños se alejaban de la media en más de una desviación estándar. De ellos, más de 12.000 se encontraban entre dos y tres  desviaciones estándar. Incluso en los casos extremos, en las alas de la campana de Gauss, hay una población lo suficientemente importante como para que su presencia no pase desapercibida en las escuelas. Así, en Canarias en el año 2012 tuvo que haber unos 290 escolares cuyas capacidades eran más de tres desviaciones estándar menores que la media y otros tantos con capacidades más de tres sigmas mayores que la media. Este último quizás era el caso de Gauss. ¿Donde están todos estos niños?

Entradas relacionadas:

La vergüenza de Arquímedes

Se quejaba el otro día Fernando Savater en uno de sus artículos, de que nuestro sistema educativo está  totalmente enfocado a lo práctico, a lo útil, a lo rentable. Según él, ése es el verdadero problema de la universidad actual, bajo las pautas abierta o encubiertamente mercantilistas dictadas por Bolonia. Me pregunto dónde ha estado metido este hombre todo este tiempo para afirmar semejante cosa. ¡El verdadero problema! Estoy segura de que cualquiera que haya conocido la universidad española, y sea mínimamente honesto consigo mismo, no dudará en reconocer que los problemas de la enseñanza superior son múltiples y variados pero, desde luego, el exceso de utilidad de los contenidos nunca ha sido uno de ellos. Ni siquiera ahora, cuando – es cierto -, se está dando mucho más peso a lo (aparentemente) práctico. Sigue diciendo Savater que el objetivo de los planes de estudio viene dictado hoy en gran medida por las exigencias de las empresas que pueden ofrecer colocación a los graduados. Y creo que aquí se vuelve a equivocar. Yo diría que los planes de estudio vienen dictados – hoy como ayer – por los departamentos universitarios, y que responden sobre todo a sus luchas internas de poder, no a los intereses de las empresas, y no digamos a los de los alumnos. ¡Ojalá a los graduados les sirviera al menos para encontrar colocación! Eso que habríamos ganado. La realidad es que han cambiado algo las formas, pero en el fondo están los mismos, enseñando lo mismo, que no es otra cosa que aquello que conocen y que saben hacer. Dicho esto, yo tampoco creo que  se deba supeditar la escuela, o la universidad, al mercado, pero tampoco debe dar la espalda a la sociedad, cerrada en su círculo de autocomplacencia.

El hecho de que alguien como Savater opine sobre este tema en estos términos pone de manifiesto, una vez más, que lo que ciertas élites intelectuales conocen como cultura y conocimiento, así en general, se refiere a su pequeño campo de intereses y a su particular visión academicista del mundo. Es cierto que no todo en la vida ha de servir para ‘algo’. Ahora bien, ¿puede decir Savater seriamente que el objetivo de unos estudios de ingeniería industrial debe ser el simple afán de saber y de indagar sin objetivo inmediato práctico? ¿Deben estar los planes de estudios de medicina orientados a proporcionar una formación humanista en el sentido amplio del término, o conviene que los futuros médicos adquieran conocimientos y destrezas prácticas con las que ayudar a prevenir y curar enfermedades? Es más, me resulta curioso que utilice los términos ‘práctico’ y ‘rentable’ indistintamente, porque no tienen demasiado que ver. Saber instalar una placa solar en casa para uso doméstico es muy práctico pero seguro que ni  las compañías eléctricas  ni el gremio de instaladores lo consideran rentable. En cualquier caso, la buena educación siempre es rentable a largo a plazo. Hay una clara correlación entre el desarrollo económico y la calidad de la enseñanza y la investigación que se hace en un país (por ejemplo, estos gráficos son muy claros a este respecto). Es decir, que la buena educación se puede defender incluso usando criterios estrictamente económicos. Pero es que además, aunque no lo fuera, la educación es un derecho: todos debemos tener la oportunidad de aprender, de enriquecer nuestra vida, de abrir nuestro mundo. El conocimiento tiene valor por sí mismo y no sólo como medio para conseguir un puesto de trabajo. En esto estoy de acuerdo con el artículo (¿cómo no estarlo?), lo que ocurre es que cuando se leen cosas como que el verdadero problema de la universidad es que el sistema está demasiado enfocado a lo práctico, no me queda otro remedio que entender dos cosas: 1) que el autor considera que antes de esa supuesta deriva utilitarista la universidad sí proporcionaba una formación “humanista” en el sentido amplio y sí satisfacía la curiosidad intelectual o el afán de conocer; y 2) que piensa que el verdadero conocimiento no puede nunca ser práctico. Respecto a la primera afirmación, los datos empíricos la desmienten fácilmente, en tanto que la segunda, no es otra cosa que una nueva vuelta de tuerca al espíritu del hidalgo castellano, aquel que consideraba indignas las tareas prácticas. Como le pasaba a Arquímedes.

Arquímedes embarcado. Imagen extraída de www.divulgon.com.ar

Arquímedes embarcado. Imagen extraída de http://www.divulgon.com.ar

Arquímedes era un gran matemático pero además sentía debilidad por los ingenios mecánicos, algo que, en aquellos tiempos, estaba muy mal visto entre las personas de su clase. Inventó multitud de artilugios útiles como el tornillo sin fin, para llevar el agua a zonas elevadas,  y la polea.  También fue suyo el diseño del mayor barco de transporte de la antigüedad así como la formulación matemática de la ley de la palanca y muchas de sus aplicaciones prácticas. Pero si hoy sabemos esto es porque lo contaron otras personas, porque al propio Arquímedes le daba vergüenza dedicarse a actividades tan vulgares como diseñar y fabricar mecanismos  y no se atrevió a escribir nada sobre ellos. Solo hizo una excepción al describir un modelo mecánico del sol, la luna y los planetas, y esto, probablemente, porque era un instrumento sin utilidad práctica y por tanto considerado menos indigno de su condición. No tengo ninguna duda de que a Arquímedes lo guiaba su curiosidad intelectual y su afán de conocer y que disfrutaba enormemente experimentando con sus artilugios. Dos mil trescientos años más tarde, debería sonar ridículo avergonzarse por unos logros intelectuales tan impresionantes. ¿No suena ridículo?

Entradas relacionadas: