domingo, 19 de marzo de 2017

Las matemáticas en la actualidad: hechos, dudas, sueños

El número de matemáticos, de unos 60.000 en 1972, ha aumentado en varios cientos desde 1900. Grandes empresas tales como IBM, Bell Telephone y General Electric, mantienen centros de investigación rodeados de césped, donde se paga a grupos de matemáticos para que piensen y nada más. En el Pentágono abundan los doctores en matemáticas. Los computadores electrónicos -esos esbirros de las matemáticas- se utilizan ahora en los centros vitales de la sociedad: en los centros de mando de los cohetes dirigidos y buques de guerra, en el Ministerio de Hacienda, en las oficinas de las líneas aéreas, en la Bolsa de Nueva York.

Las matemáticas, en síntesis, son el centro de la vida moderna. Nunca jamás, anteriormente, una torre de marfil proyectó, durante tanto tiempo, una sombra sobre la vida cotidiana. Al mismo tiempo, paradójicamente, sus iniciados no se han arrepentido de su afición por lo abstracto. Se han familiarizado con el abrupto y azulado horizonte jalonado por los matemáticos del siglo XIX. Y se asocian con abstracciones de abstracciones, «covariantes» y «contravariantes» «grupos de transformación» y números «transfinitos» «deformaciones discontinuas» y «espacios topológicos».
Estas excursiones en la pura fantasía matemática, aunque no parecen nada prácticas, tienen una forma peculiar de llevar la delantera a la ciencia física, de suministrar ecuaciones que se apliquen a los hechos antes que la ciencia halle los hechos que se apliquen a las ecuaciones. Esto ha sucedido tantas veces -y también ha fracasado en tantas otras- que muchos matemáticos se consideran a sí mismos como formuladores de posibilidades más bien que como descubridores de la verdad. La licencia impartida por esta visión del «arte por el arte» ha terminado en una pródiga inventiva. Los matemáticos de hoy en día se han desbocado de golpe en todas direcciones, haciendo conquistas con gran rapidez.
Los eruditos que han tratado de seguir esta agitada expansión nos aseguran que estamos viviendo en la Edad de Oro de las Matemáticas; estiman que en el último siglo se han creado casi tantas nuevas matemáticas como en todos los siglos anteriores juntos. Las estadísticas lo confirman. Según un reciente censo de las críticas en Revistas matemáticas, el número de trabajos publicados por matemáticos creadores se duplicó de 1940 a 1950, se duplicó de nuevo de 1950 a 1960, y volvió a duplicarse con exceso de 1960 a 1970; en otras palabras, aumentó un 800 por ciento en 30 años. Nicolás Bourbaki, seudónimo del supersabio que representa el esfuerzo colectivo de un grupo de intelectuales franceses, ha publicado casi 40 volúmenes de una enciclopedia sobre los fundamentos de las matemáticas modernas, y todavía no se ve el fin.
Tanto en alcance como en antigüedad, las matemáticas modernas desafían a la descripción fácil. En general, no obstante, se han desarrollado dentro de dos líneas: por un lado éxito y conquista -la habilidad para solucionar problemas-, por el otro investigaciones de espíritu y contemplación -una incertidumbre en lo referente a la naturaleza y, finalmente, las últimas abstracciones matemáticas.

Por el lado contemplativo, dos de los desarrollos más notables son la teoría de conjuntos y la lógica simbólica. La teoría de conjuntos, entre otras cosas, facilita un nuevo tipo de aritmética para el tratamiento del infinito, la lógica simbólica representa un intento de reducir todo el razonamiento matemático a una notación matemática. Tanto la teoría de conjuntos como la lógica simbólica se hallan estimuladas por una tercera forma de matemáticas, la teoría de los grupos, que desempeña un papel unificador en el análisis y revela asombrosas similitudes entre los distintos dominios matemáticos.
Entre sus principales conquistas, las matemáticas del siglo XX cuentan con dos reinos completos y nuevos: la teoría del juego y la topología. La teoría del juego es el análisis de la estrategia, bien sea en el apasionante juego de los negocios o en el frío juego de la guerra. La topología es el estudio de las propiedades de las formas geométricas que no varían cuando las propias formas se alargan, doblan o se ponen al revés.
De todos los triunfos de las matemáticas, el más espectacular ha sido la Relatividad, la cual, al preceder a nuestra era atómica, ha probado irrevocablemente el espantoso poder que las matemáticas pueden ejercer sobre la vida cotidiana. El creador de la Relatividad, Albert Einstein, llegó a ser una de las más grandes personalidades de nuestra época. Como tal contribuyó a unir la amplia distancia entre las matemáticas y el público.
La Teoría de la Relatividad, la obra maestra de Einstein, está en realidad formada por dos teorías: la Relatividad Especial y la Relatividad General, la primera publicada en 1905, la última en 1916. Ambas teorías están basadas en la premisa de que todas las mediciones científicas son relativas al marco de referencia del observador: que no hay ningún centro fijo en el cosmos para que los científicos empiecen, partiendo de éste, a medir distancias y a describir con precisión dónde y cuándo exactamente sucede cada cosa en el espacio.

La Relatividad General perseguía el mismo fin que la Relatividad Especial, pero con una gran fuerza. En la Relatividad Especial, Einstein había examinado las leyes newtonianas de forma tal que fueran aplicables a los cuerpos que se mueven de prisa y que van a velocidades constantes a lo largo de líneas rectas. En la Relatividad General amplió sus ecuaciones de forma tal que fueran aplicables a los cuerpos que viajaban a velocidades cambiantes a lo largo de líneas curvas. Las así denominadas «ecuaciones de campo» de la Relatividad General no tan sólo abarcan todo estado posible de movimiento sino que también describen todo el comportamiento de nuestro universo y todos los universos imaginables.

Einstein pudo alcanzar dichas fórmulas sólo porque él adoptó las totalmente hipotéticas, aparentemente inútiles ideas de Riemann acerca del espacio geométrico curvo. Según Einstein el espacio real por donde andan los hombres y las estrellas buscan sus trayectorias es, en verdad, curvo. La evidencia de que el espacio es curvo cerca del sol empezó a acumularse casi de golpe después de la publicación de la Relatividad General. En 1919 los astrónomos que observaban los eclipses en sus viajes por el Brasil y el África Occidental hallaron que los rayos de luz estelar que pasaban cerca del borde del sol se doblaban ligeramente y, por lo tanto, hacían que sus progenitores estelares aparecieran ligeramente desplazados en el cielo. No mucho después, los descubrimientos astronómicos referentes a un progresivo cambio en la órbita de Mercurio y un enrojecimiento de luz en ciertas estrellas confirmaron también las ideas de Einstein en torno a la curvatura del espacio.
Para realizar sus sueños, Einstein dispuso la materia movible y la energía del cosmos dentro de un marco matemático de cuatro dimensiones tres para el espacio y una para el tiempo. Incluyó el tiempo, ya que había hallado en la Relatividad Especial que el tiempo y el espacio son inseparables, que el tiempo en que ocurre un suceso no es independiente del movimiento del observador. En las posteriores especulaciones de Einstein, materia y gravedad son manifestaciones una de la otra; así, puede considerarse que la materia es una infusión de la gravedad, cuya intensidad varía de un punto a otro. En la Teoría del Campo Unificado, Einstein intentó explicar las fuerzas eléctricas y magnéticas.
2. Una máquina cósmica del juego del millón
Es la presencia de la gravedad en la continuación lo que da lugar a la curvatura del espacio. El efecto es algo parecido al que crean los pequeños imanes situados debajo de la superficie de juego de algunas máquinas del millón. Cuando los imanes se desconectan, la superficie actúa como un plano inclinado, pero al encenderse, la superficie se comporta como si estuviera llena de colinas y valles. En la máquina cósmica del millón de Einstein, la materia y la energía desempeñan el papel de bolsas e imanes, siguiendo la forma del espacio a medida que se mueven.

(Los matemáticos insisten en que las descripciones de este tipo no deben tomarse demasiado literalmente. Cuán traidoras pueden ser queda ilustrado en una anécdota que se refiere a Einstein y un teórico ruso que disertaba sobre la Relatividad.

Queriendo simplificar, el ruso comparó una de sus ecuaciones «con una taza y un platillo en su vuelo en el espacio». En este punto, la historia prosigue, Einstein se puso en pie protestando, y después de un intercambio de ecuaciones con el ruso volvió a su asiento. Cuando hubo terminado, los oyentes se agruparon alrededor de Einstein deseando saber lo que había sucedido. «Esta situación que describía - explicó Einstein - dijo que era como una taza y un platillo, pero en realidad era como dos tazas y dos platillos en el espacio.»)
Al tratar de cuestiones difíciles del cosmos - o en realidad del átomo - las matemáticas abstractas han sido obligadas a una utilidad casi surrealista. Esto en sí mismo ha constituido una fuente de entretenimiento para los matemáticos, pero también una fuente de discusiones. ¿Cómo seguir creando más matemáticas del mismo alcance? ¿Cómo juzgar las líneas de análisis que se revelarán en el futuro?
Los matemáticos no conocen ninguna respuesta a este predicamento, algunos trabajan bajo el credo «Piense concretamente». Otros inventan por el placer de su arte solamente. En gran parte, la diferencia filosófica entre las dos escuelas tiene poca influencia en sus verdaderos métodos de trabajo. Ambas tratan de expresar sus creaciones en los términos más generales posibles, para marcar amplios aspectos de posibles problemas específicos. Y ambas tratan de evitar que las definiciones insípidas y los razonamientos defectuosos penetren furtivamente entre sus abstracciones, a las que no pueden aplicar los testes normales de la experiencia.
3. La forma de un sea lo que fuere
Para explorar los laberintos donde pueden agacharse los futuros gigantes del conocimiento, los matemáticos modernos iluminan su camino por medio de la teoría de los grupos y la lógica simbólica mencionada anteriormente. La teoría de los grupos y de los conjuntos, son utilizadas ambas para comparar los instrumentos de las distintas ramas de las matemáticas y para hacerlas todo lo intercambiables que sea posible. Un conjunto es una reunión cualquiera de entes. Un grupo es un tipo particular de conjunto de números, símbolos, puntos, líneas, movimientos, átomos, unidades de energía o un «sea lo que fuere» indefinido. Se distingue de cualquier otro viejo conjunto por tener que obedecer ciertas reglas con respecto a algunas operaciones tales como la suma y la multiplicación. Por ejemplo, la sucesión de dos miembros cualesquiera del conjunto cuando se combinan a través de la operación, debe de permanecer en el conjunto -el «4» producido por la unión del «2» y el «2» es también un número entero-. Además, cuando se combinan varios números de un conjunto, la forma en que están ordenados no debe afectar al resultado - por ejemplo, a(bc) debe ser igual (ab)c.
La teoría de los conjuntos fue desarrollada por el matemático alemán Georg Cantor como una técnica para «anatomizar el infinito». Durante el siglo XIX había habido continuos intentos para definir procesos infinitos tales como la diferenciación y la integración en términos de una aritmética simple. El sentimiento era que si todos los procesos y símbolos podían definirse así, habría menos dificultad para razonar con precisión sobre ellos. Como dijo un matemático, Leopold Kronecker : «Los números enteros son obra del buen Dios. Todo lo demás es obra del hombre».
Fue el triunfo de Cantor, en la teoría de los conjuntos, distinguir órdenes distintos de infinito en distintos conjuntos infinitos. Comparó los conjuntos infinitos al aparejar sus miembros, dos a dos, como los animales del arca de Noé. A través de este método aparentemente simple, alcanzó conclusiones sorprendentes. Por ejemplo, todas las fracciones pueden ser aparejadas con un conjunto infinito de números enteros. Los dos conjuntos infinitos son, por lo tanto, «iguales»; a pesar de esto, el conjunto de todas las fracciones incluye el conjunto de todos los números en virtud de términos tales como 2/1 ó 6/2, en otras palabras, aunque los dos conjuntos son iguales, uno contiene al otro como un «subconjunto». A través de la misma técnica, Cantor averiguó que otras series infinitas - todos los puntos en la línea de un segmento, por ejemplo, no pueden aparejarse con los números enteros. En pocas palabras, no pueden contarse. Cantor halló otros órdenes de infinito - otros «números transfinitos» que todavía son más infinitos -. Creó una aritmética para tratar dichos conjuntos infinitos - un arma tal con la que los matemáticos podían dividir su antiguo mito en torno al infinito en varias fases lógicas.
Aunque los conjuntos son más inclusivos que los grupos, la teoría de los grupos ha sido denominada el arte supremo de la abstracción matemática.

Su principal pionero fue un trágico joven francés del siglo XIX, Evariste Galois. El pobre Galois preparó la teoría de los grupos para las ecuaciones. Guardó el contenido de la obra de su vida en un documento de treinta y una páginas casi ininteligibles, escrito de prisa en la última noche de su vida, cuando sólo tenía veinte años. A la mañana siguiente murió en un duelo por causas políticas y una chica que apenas conocía.
La teoría de los grupos llega al fondo de lo que sucede cuando se efectúa un tipo de operación matemática con distintos elementos, o cuando se realizan sucesivamente diferentes operaciones con un elemento unitario. A través de este análisis deja al descubierto modelos estructurales básicos de las matemáticas. Un innovador agobiado por las dificultades puede algunas veces utilizar la teoría de los grupos para pasar a otras ramas de las matemáticas y poder seguir adelante con su obra. La teoría también ayuda a los científicos cuando observan modelos oscuros por naturaleza. Se ha utilizado, por ejemplo, para analizar configuraciones de moléculas y cristales - disposiciones importantes en la química de los genes humanos o en los «sólidos circuitos» de la electrónica moderna.
Todo tipo de objetos matemáticos se comporta como grupo. Por ejemplo, un triángulo equilátero puede descansar sobre cualquiera de sus tres lados y continuar pareciendo lo mismo. Las rotaciones a que da lugar el triángulo, desde una de estas posiciones a la otra constituye un grupo.
Lo que es más, este grupo tiene una contrapartida estructural en un cierto grupo de permutaciones y en un grupo formado por las soluciones de una ecuación cúbica determinada. Los tres grupos son realizaciones de un solo «grupo abstracto». Por lo tanto, el mismo grupo abstracto abarca casos referentes a tres reinos distintos, la geometría, la aritmética de las disposiciones y el álgebra.
Los hábiles cambios que realiza la teoría de los grupos en un tipo de creación matemática para transformarlo en algún otro tipo distinto se conocen por «transformaciones». Una ecuación algebraica se transforma cuando, por ejemplo, toda x en ésta es reemplazada por una y - 5. Una figura geométrica en un plano se transforma cuando se alarga o cuando se proyecta su sombra en una superficie distinta o en un tipo distinto de espacio. Fue un grupo de transformaciones algebraicas, ideado por un físico holandés, Hendrik A. Lorentz, para tratar diversos problemas de electricidad, el que utilizó Einstein para construir su Relatividad Especial.
Durante las transformaciones, algún aspecto de una ecuación o de una forma geométrica puede permanecer obstinadamente inalterado. Estas sólidas islas se denominan «invariantes». Puede que no sean más perceptibles que el centelleo invariante en el ojo de un actor de una compañía de teatro, pero los matemáticos los buscan y se aferran a ellos. Una idea de su importancia se puede obtener de una definición de la teoría de los grupos de la geometría como «el estudio de las invariantes de las configuraciones geométricas bajo grupos de transformaciones».
La más introspectiva de las súper matemáticas que ayudan a los analistas del siglo XX a hallar su sendero, es la lógica simbólica: una notación para señalar y manipular todo tipo de proposiciones para llevar a los sequiturs y a los no sequiturs a una revelación extremadamente despiadada. A través de la lógica simbólica - cuyas manifestaciones pueden probarse en el extracto de Lewis Carroll- los matemáticos se han propuesto una tarea ímproba: clasificar y analizar los pensamientos que se hallan comprendidos en cada rama de las matemáticas, con el propósito de identificar los axiomas y procedimientos que cada uno tiene por base y de reducir todas las pruebas posibles a los esqueletos más simples. Por medio de este plan los resultados deberían ser absolutamente abstractos y sus proposiciones lo más abreviadas posible, tales como «si se supone el axioma A entonces se desprende el teorema B», que en una trascripción en lógica simbólica se escribiría así
A ⊃ B,
o «si se supone A o B entonces resulta el negativo de C», se escribiría así:
A ∨ B ⊃ ~ C.
Se han realizado varios esfuerzos monumentales para traducir todo el razonamiento matemático en dicha abreviación, en especial los tres tomos de símbolos de la Principia Mathematica, publicados por Alfred North Whitehead y Bertran Russell entre 1910 y 1913.
La lógica simbólica ha producido uno de los teoremas más curiosos e influyentes de todas las matemáticas modernas. Esta es la demostración de Gödel, una línea de razonamiento extremadamente abstracta que muestra que no puede construirse ninguna rama útil de las matemáticas sobre un conjunto consistente de axiomas sin suscitarse problemas sin solución dentro del marco de los propios axiomas. Es como si alguna propiedad estructural de un triángulo rectángulo jamás pudiera verificarse por medio de los axiomas euclidianos que condujeron a la formulación del teorema de Pitágoras. Para la aritmética, la demostración de Gódel muestra que todas las relaciones posibles entre los números enteros no pueden deducirse de ningún conjunto de supuestos básicos. Las relaciones posibles o «verdades» acerca de los números son tan ilimitadas como el propio desfile de números. Para las matemáticas en conjunto, la implicación es que la disciplina nunca será completa.
Kurt Gödel - en la actualidad miembro del Instituto para Estudios Superiores en Princeton - elaboró su notable teorema en 1931 a la edad de 25 años. Lo demostró a través de lo que denomina «una prueba de existencia», un tema que demuestra que algo existe sin producir necesariamente ese algo para su inspección. El teorema de Gödel se toma o con antipatía o con alborozo. Los que están más afectados son los matemáticos «formalistas». Los más contentos son los de espíritu libre que no puede soportar el pensamiento de que las matemáticas pudieran jamás estar bien esquematizadas. Entre éstos uno de los más famosos fue John von Neumann, que desempeñó un papel primordial en el desarrollo de la bomba atómica. Von Neumann en cierta ocasión dijo «Gran parte de la inspiración matemática proviene de la experiencia y apenas es posible creer en la existencia de un concepto absolutamente inmutable del rigor matemático disociado de toda experiencia humana».
4. Acercamiento a un adversario cambiante
Una de las principales contribuciones de Von Neumann, la teoría de los juegos, es uno de los desarrollos más prácticos de nuestra época. Propugna complicadas leyes de estrategia: cómo adoptar las mejores variaciones en el juego para evitar la derrota ante un adversario cambiante; cómo sacar el mejor partido de una mala situación o evitar lo peor de una buena, al enfrentarse con un competidor muy racional y analítico.
La teoría de los juegos ha sido utilizada en una gama de aplicaciones. Ha contribuido a determinar el espacio de tiempo más ventajoso que debiera observar una empresa de discos entre la presentación al público de dos grabaciones de éxito segurb; ha sido utilizada en un contrato «cielo-azul» o «piense» propuesto, no hace mucho tiempo, por la Oficina de Investigación Naval americana. En un juego que no ofrece ninguna perspectiva clara de ganar, la teoría de los juegos puede mostrar cómo hallar la estrategia que se acercará más para conseguir tablas.

Como resultado de esto la idea de la minimización de las máximas pérdidas - denominados «mini máximos» o «puntos de silla» de Von Neumann - ha sido utilizada por ambos lados en la guerra fría, y puede contribuir al retraso indefinido de la tercera guerra mundial.
Entre la difícil lógica abstracta de los formalistas y las igualmente difíciles teorías de los adeptos de Von Neumann en las matemáticas modernas, se encuentra la sombra de los computadores electrónicos de gran velocidad. Diariamente, partiendo de elegantes fórmulas, se traducen las matemáticas en prosaicas hojas de instrucciones que los computadores digieren por medio de la fuerza mecánica bruta. Un computador puede solucionar problemas que dejarían a un Newton o a un Gauss con la boca abierta, y solucionarlos con un número cualquiera de decimales, por medio de esquemas de aproximación puramente pragmáticos.
Mientras tanto los matemáticos puros van ascendiendo cada vez más arriba hacia nuevos cielos de abstracción. Lo que están alcanzando nadie de nosotros lo sabe realmente, ya que los equivalentes de la Relatividad y la energía atómica -que pueden salir a partir de las matemáticas actuales puede ser que no se comprendan durante varias décadas.
En lo que al propio futuro se refiere, está bien descrito por André Weil, uno de los colaboradores franceses en la obra de Bourbaki : «El gran matemático del futuro, así como el del pasado, huirá del camino muy trillado. Es gracias a inesperados rapprochements, que nuestra imaginación no hubiera sabido cómo llegar hasta ellos, que él solucionará, al darles otro giro, los grandes problemas que le dejaremos como legado».


Un paso lógico en el abrupto y azulado horizonte

Los jóvenes graduados gozan diciendo a los estudiantes de primer curso que cuando un estudiante llega a dominar la aritmética, la geometría, el álgebra, la geometría analítica y el cálculo, está preparado para empezar el estudio de las matemáticas. Se refieren a las matemáticas del siglo XIX, un período en que toda la disciplina del análisis despegó hacia un abrupto y azul horizonte en el que se pierde el lego y donde incluso el matemático puede ir a tientas. Antes de 1800 los matemáticos se apoyaron en gran parte en su intuición y sentido común, visualizando sus pensamientos en términos de la geometría o de la mecánica realista. Después de 1800 empezaron a reconstruir las matemáticas con fundamentos más sólidos que el simple sentido común. Y a finales del siglo las matemáticas eran todo un edificio nuevo cuyas agujas imaginarias llegaban al cielo.
Surgieron nuevas legiones de números; los números antiguos con los que contamos se incluyeron como un solo grado. Se establecieron nuevas relaciones funcionales, éstas incluían las funciones algebraicas ordinarias, las funciones trigonométricas y logarítmicas como simples subproductos. Y las geometrías griega y cartesiana se transformaron en casos especiales de las geometrías generalizadas de n dimensiones, geometrías de superficies y formas que comprendían más dimensiones de las habituales: altura, anchura, y profundidad y que, por lo tanto, eran imposibles de representar. El álgebra clásica se convirtió en una de entre las muchas álgebras superiores, álgebras en las que se reemplazaban párrafos enteros de símbolos tradicionales por caracteres individuales manipulados según extrañas leyes, por ejemplo, que a x b no tenía necesariamente que ser igual a b x a.
Al aprender todas estas curiosidades, cualquier persona sensata puede tener la sensación de que sus peores sospechas acerca de lo confusas que son las matemáticas se han confirmado. Pero en las matemáticas las proposiciones más amplias pueden ser las más útiles. Al matemático actual se le pide que solucione una enorme variedad de problemas. Cuanto más comprensivas sean sus clasificaciones, mayor es la posibilidad de que extraiga de su sombrero una ecuación adecuada para determinado trabajo.
Los matemáticos escogieron el camino de la generalidad por necesidad más bien que por elección propia. En todo el siglo XVIII habían estado ocupados explorando las regiones prácticas del cambio y la posibilidad siguiendo las directrices de los grandes innovadores del siglo XVII tales como Newton y Fermat. El prolífico suizo Leonhard Euler, creó multitud de nuevas aplicaciones para el cálculo en lo que se refiere a curvas y superficies. Los académicos franceses Joseph Louis Lagrange y Pierre Simon de Laplace pudieron elaborar, a través del cálculo, teorías comprensivas de la mecánica ordinaria y celeste, levantando con ello un vigoroso marco para la ingeniería y la astronomía modernas.
Hacia principios del siglo XIX los matemáticos averiguaron que el uso de las abstracciones que empleaban empezaba a ser insuficiente. Se presentaban problemas que desafiaban el viejo tratamiento del sentido común.

Euler, por ejemplo, había definido una relación funcional entre dos variables en el sentido de «un tipo de curva que se describe al mover libremente la mano», con lo que quería decir simplemente una curva uniforme. ¿Pero la curva tenía que ser siempre uniforme, o podía aplicarse la palabra también a ciertas ecuaciones que representaban grupos de puntos discontinuos? ¿Las ecuaciones escritas en términos de más de tres variables podían imaginarse, tal vez, en términos de más de tres dimensiones, dimensiones más allá de las habituales de altura, anchura y profundidad? ¿Las expresiones indefinidamente largas, tales como x + x2 + x3. . ., lo que los matemáticos llaman «series infinitas», podían ser tratadas por medio de las reglas de la aritmética, como hasta entonces, o eran necesarios aplazamientos especiales para poder abarcar su infinidad?
Enfrentada con tales dificultades conceptuales, la mente empezó a titubear. Lagrange se desesperó tanto que abandonó las matemáticas durante un período de varios años, y, en una carta a su amigo y colega Jean Baptiste D'Alembert, en 1781, expresó la opinión de que las matemáticas estaban ahondando demasiado, con peligro de ser destruidas. D'Alembert, en cambio, no sosegó a sus alumnos, sino que les exhortó «Seguid adelante y la fe vendrá a vosotros».
En la misma época que el pesimismo se establecía en el campo matemático, Carl Friedrich Gauss, había empezado justamente a desarrollar su prodigioso talento para los números. En 1779, cuando aún no tenía tres años, el muchacho observó a su padre, que era capataz, cómo hacía las nóminas de los albañiles. El padre cometió un error y cuando repasó los números halló que su hijo estaba en lo cierto.
Gauss es tal vez el último genio que jamás convierta en disciplina unitaria el estudio de las matemáticas; durante su larga vida aparecieron en torno suyo más matemáticas nuevas, se estima, que en todos los siglos anteriores. Gauss encauzó el nuevo movimiento hacia la generalidad, al imponer a ésta la rigidez de sus concepciones, exigiendo un pensamiento absolutamente riguroso. En sus propias innovaciones, tanto analíticas como geométricas, preparó el terreno para la relatividad y la energía atómica del siglo XX. Debido a sus investigaciones en el campo de la electricidad se le ha honrado con la palabra «gauss», una unidad de magnetismo, y también con el término naval «degaussing», que significa contrarrestar el magnetismo de un barco como previsión contra minas. Lo que es más, él y su asociado, Wilhelm Weber, inventaron y construyeron un telégrafo que funcionaba y lo utilizaron como un sistema de intercomunicación en 1883, unos dos años antes que Samuel F. B. Morse.

Por cuenta propia, Gauss pensó en los rudimentos de la aritmética antes de que supiera hablar. A la edad de 10 años, cuando se pidió a su clase que sumaran todos los números de 1 a 100, instantáneamente escribió 5050 en su pizarra y lo entregó con una orgullosa declaración: «ahí está». Cuando los otros estudiantes entregaron sus pizarras después de un tiempo considerable y de un gran esfuerzo, nadie, a excepción de Gauss, tenía la respuesta correcta. Parece ser que Gauss había visto que cada uno de los pares de números, 1 y 100, 2 y 99, 3 y 98, 4 y 97, etc., y así hasta 50 y 51, dan un total de 101, y que, por lo tanto, el total de los pares debe ser 50 x 101.
2. Un Mozart de las matemáticas
A la edad de 14 años este Mozart matemático fue objeto de la consideración de Fernando, duque de Brünswick, quien a partir de entonces apoyó financieramente al muchacho en el bachillerato, en la Universidad y en las primeras etapas de su carrera. Utilizando al máximo su buena suerte, Gauss devoró los clásicos y las tablas logarítmicas con igual apetito, y llegó a dominar el griego, latín, francés, inglés y danés, así como la geometría, el álgebra y el cálculo. A la edad de 19 años empezó a llenar las páginas de sus apuntes con nuevas matemáticas, propias, nuevos teoremas en la abstrusa región de la teoría de los números, y esquemas radicales para generalizar los métodos de la geometría. Dejó muchas de sus creaciones medio desarrolladas y nunca se preocupó de publicarlas. Como resultado, el alcance total de sus exploraciones mentales no fue comprendido hasta que se publicaron sus papeles después de su muerte. Pero su influencia fue tal, que a otros matemáticos les irritaba la sensación de que cualquier cosa que hicieran él lo habría hecho anteriormente.
La sagacidad con que Gauss acaparaba sus tesoros se explica en parte por su pasión por la perfección. «Poco, pero selecto», era su lema, con lo que quería significar que no quería complicar las matemáticas con nada que diera lugar a un callejón sin salida o emplear su energía en algo que no fueran las ideas más prometedoras que corrían por su cabeza. Cuando la Academia de París ofreció un premio a quien pudiera demostrar un famoso teorema propuesto por Fermat, Gauss rehusó entrar en el concurso con brusquedad característica. «Confieso -escribió- que el último teorema de Fermat como proposición aislada tiene muy poco interés para mí, puesto que yo fácilmente pudiera hacer una multitud de tales proposiciones que nadie podría probar ni utilizar.» Si hubiera procedido de otro, la observación hubiera parecido jactancia. En Gauss fue simplemente una afirmación que causó la admiración y desesperación de sus colegas.
Se cree que Gauss retuvo algunas de sus ideas por miedo de que parecieran demasiado poco ortodoxas. Él no podía ver una razón a priori para que el espacio tuviera que trazarse, como si dijéramos, por medio de líneas rectas, la forma en que todo el mundo, desde Euclides, había supuesto que era. ¿Por qué, en verdad, el espacio no podía ser curvo? Después de todo, una línea medida en una sola dimensión, longitud, puede ser curva. Y una superficie medida en dos dimensiones, longitud y anchura, puede ser curva. ¿Por qué no podía ser curvo el espacio medido en las tres dimensiones: altura, anchura y profundidad? Era fácil tomar en consideración la posibilidad como una abstracción, pero era imposible visualizar el espacio resultante. Por lo tanto, Gauss se guardó su propio parecer e incluso puede que dudara acerca de la sensatez de la idea.
Gauss contribuyó a pavimentar el camino del álgebra abstracta superior por sus pensamientos en torno a una clase de números conocidos por «números complejos»: un número compuesto de un número ordinario más algún múltiplo de la unidad imaginaria, la raíz cuadrada de menos uno. Empezó a ocuparse por primera vez en estas extrañas creaciones de la mente humana en su tesis doctoral de 1799, en donde se demostró el teorema fundamental del álgebra, que toda ecuación tiene tantas soluciones como su grado, hecho que habían tratado de comprobar los matemáticos durante más de un siglo. Al demostrar el teorema, Gauss mostró que todas las soluciones de toda ecuación algebraica son, de hecho, números complejos o bien números tales como 7 + 4√ -1 o como 3 + 0√-1, que se reduce simplemente a 3. Los matemáticos habitualmente escriben la √-1 en dichos números por i y cualquier número complejo por a + bi.
Posteriormente, al desarrollar los números complejos, Gauss propuso una forma geométrica de representación que iba a resultar extremadamente provechosa. Los números ordinarios pueden considerarse todos como si estuvieran a lo largo de una sola línea recta, una corriente continua sin separaciones, lo que los matemáticos llaman una «continuidad». Pero a un número complejo típico, a + bino le corresponde ningún lugar en la línea de los números ordinarios. Gauss comprobó, no obstante, que podía considerarse como si identificara un punto en un plano bidimensional; que la a en este número podía considerarse como una distancia horizontal, y la b como una distancia vertical, y que, de hecho, la expresión total a + bi podría determinar la posición de un punto en un plano exactamente de la misma forma que x e y como par de coordenadas cartesianas determinan un punto en un gráfico. Cuando dos números ordinarios se multiplican, el resultado es un salto a lo largo de la línea recta. Cuando se multiplican dos números complejos, no obstante, el resultado es un espectacular movimiento en forma de trapecio dentro de un plano bidimensional.
El comportamiento excéntrico de los números complejos es importante debido a que concuerda perfectamente y, por lo tanto, sirve como traducción literal del comportamiento de muchas cantidades en la naturaleza, tales como fuerzas, velocidades o aceleraciones que actúan en direcciones definidas. Cuando se ejercen dos fuerzas de direcciones opuestas sobre el mismo punto, por ejemplo, su efecto neto es una tercera fuerza con una nueva dirección. Diagramáticamente, como se muestra en la figura, la fuerza y la dirección de cada una de las dos fuerzas puede ser representada como la longitud y la dirección de un segmento lineal. Cada uno de estos dos segmentos lineales, a su vez, puede ser representado por un número complejo, y los dos números complejos al sumarse conjuntamente representan, por lo tanto, la tercera fuerza que se origina.
Los segmentos lineales que simbolizan las fuerzas, las velocidades y cosas análogas se denominan «vectores» y constituyen un instrumento esencial para la física. El hecho que éstos y los números complejos se comporten de una forma matemática análoga hace posible analizar complicadas situaciones en las que un conjunto de fuerzas están actuando a la vez, en la brújula giroscópica de un barco, por ejemplo.
Después de haber cooperado en la fundación del análisis vectorial en dos dimensiones, Gauss prosiguió, alrededor de 1819, hasta inventar un tipo de números que servirían finalmente para representar las fuerzas, las velocidades y las aceleraciones que actúan en más de dos dimensiones. Estos son los «números hipercomplejos», expresiones tales como
a + bi + cj + dk
en las que cualquiera de las unidades i, j y k, cuando se elevan al cuadrado, dan lugar a menos uno. La cosa más sorprendente acerca de estos números hipercomplejos es que prescinden de una regla básica de la aritmética que se consideró previamente inviolable.

Al multiplicarse conjuntamente, dos números hipercomplejos pueden dar lugar a resultados distintos dependiendo del orden en que se tomen, el número hipercomplejo a multiplicado por el b no es siempre igual al número hipercomplejo b multiplicado por el a.
3. Lo exótico y lo herético
Alrededor del año 1840, Hermann Grassmann, un compatriota de Gauss, afrontó honradamente estas trascendentales implicaciones y elaboró un álgebra hipercompleja, un álgebra para la que inventó distintos procedimientos nuevos para la multiplicación y en la que los vectores son tratados con independencia del número de dimensiones. En las décadas que siguieron a la obra revolucionaria de Grassmann en el análisis vectorial, que todavía constituye un arduo terreno para la vanguardia matemática de la actualidad, se descubrieron otros tipos de números exóticos que desobedecían a otras sacrosantas leyes de la aritmética, la de, por ejemplo, (a x b) x c debe ser igual a x (b x c). Poco después las distintas álgebras, cada una con sus propias reglas, símbolos y ecuaciones, fueron tan abundantes como las setas.
Antes de la época de Gauss, los matemáticos habían tratado i, la raíz cuadrada de menos uno, con un escrupuloso respeto y una cierta y sincera incredulidad. Una vez se hubieron aplicado los números complejos a las fuerzas y cosas parecidas, ise transformó en un auxiliar matemático. Los números complejos e hipercomplejos se incorporaron progresivamente a las ecuaciones del álgebra y del cálculo. Los matemáticos empezaron a hablar de «funciones de variables complejas» queriendo significar relaciones entre variables con valores de números complejos. Éstas se utilizan hoy día para escudriñar, a partir de determinadas y complicadas ecuaciones diferenciales, las respuestas a algunos problemas de la física.
A partir de la época en que Newton las utilizó por primera vez, las ecuaciones diferenciales han sido una gran fuente de quebraderos de cabeza matemáticos y de creación matemática. Nuevas ecuaciones que requieren nuevas soluciones están constantemente apareciendo en las investigaciones científicas. Surgen de muchas clases de problemas, pero una categoría ha sido especialmente significativa en el desarrollo del pensamiento relativo a los problemas cósmicos o atómicos. Estos son los denominados problemas de máximos y de mínimos, y derivan a partir de lo que pudiera describirse como una tendencia de la naturaleza a trabajar con la mayor sencillez posible o con el mínimo de esfuerzo posible. Un rayo de luz que llega al ojo desde un objeto visto en un espejo ha minimizado su trayectoria al incidir y alejarse del espejo formando ángulos iguales. Dos burbujas de jabón que van unidas se ajustan en forma tal que tengan la menor área posible consistente con su contenido. Como expresó un fisiólogo italiano del siglo XVIII, Giovanni Borelli : «La perpetua ley de la naturaleza es actuar con un mínimo de esfuerzo... evitar, en la medida que sea posible, los inconvenientes y las proliferaciones». La indolencia de la naturaleza o «principio del esfuerzo mínimo», como se le denomina, hace referencia tanto al equilibrio estático como al dinámico: el estado de calma sigue al bullicio o la gravedad.


El cálculo se refiere a todos los problemas de equilibrio, y a los de maximizar y minimizar a través de la misma técnica. Considérese una fuente de ensalada, por ejemplo. El punto más profundo de la fuente es el punto de altitud mínima o de máxima profundidad. Éste es también la posición de equilibrio, el punto de energía mínima al que tenderá finalmente una bola lanzada en la fuente cuando deje de dar vueltas arriba, abajo y alrededor. En este punto los lados de la fuente dejan de tener pendiente: la tasa de variación de la altitud es cero.
Al hacer las tasas de variación igual a cero, los matemáticos tratan de hallar las trayectorias mínimas o máximas que utiliza la naturaleza para alcanzar sus fines. Las ecuaciones diferenciales que resultan son las ecuaciones más importantes de la ciencia práctica. Al integrarse se transforman en fórmulas analíticas ordinarias revelando los caracteres que se encuentran detrás de la máscara del cambio, variables tales como la posición, la temperatura, el peso o la carga eléctrica.
En las manos de un ingeniero, el principio de maximizar y minimizar a través de las ecuaciones diferenciales puede aplicarse a situaciones específicas incluso antes de que ocurran. Al diseñar un puente, por ejemplo, puede imaginarse el puente ya construido y después buscar el estado de equilibrio que alcanzará cuando los vientos soplen a la velocidad de 300 kilómetros. Si el equivalente matemático de «supóngase que la tasa de variación es igual a cero» resulta ser una ecuación sin solución, significa que el puente no encontrará ningún punto de apoyo sino que se romperá ante la presión del viento. Después de poner más vigas y cables en el puente el ingeniero puede probar de nuevo, experimentando mentalmente, con el viento y el acero a través de la maravillosa agencia de las ecuaciones diferenciales.

Nadie pregonó o practicó el ideal de ser versátil y general en las matemáticas de forma más persuasiva que Gauss. Primero se hizo famoso, no obstante, por medio de un hecho de computación puramente práctico. En 1801 el astrónomo italiano Joseph Piazzi accidentalmente vio el primero de los planetas menores o asteroides. Conocido en la actualidad por Ceres, este «conjunto de cosas sucias», como Gauss lo denominó, rápidamente se evadió de su descubridor y desapareció en las brillantes secciones del cielo cerca del sol. El descubrimiento del supuesto nuevo planeta había causado agitación en casi toda Europa. El haberlo «perdido» tan pronto sólo contribuyó a la emoción. Los desdichados astrónomos se enfrentaron con la gigantesca tarea de calcular sus posiciones a partir de unos pocos puntos de referencia. Los cálculos parecían enormemente difíciles para todo el mundo, a excepción de Gauss. Sumergiéndose en las tablas logarítmicas que había memorizado, apareció unas pocas semanas después con una predicción teórica de la órbita completa de Ceres. Cuando apareció el pequeño planeta por el otro lado del sol, los astrónomos lo encontraron cuando y donde les había dicho Gauss.
Después de este triunfo, las sociedades cultas cubrieron de honores a Gauss. En 1807 aceptó la dirección del observatorio en su propia alma mater, la Universidad de Göttingen, Alemania. Allí presidió la comunidad matemática de Europa hasta su muerte unos cincuenta años después. Mientras tanto, no obstante, no publicó jamás nada acerca de una extraña idea geométrica que le había fascinado desde su juventud precoz. Ésta e a un pensamiento afín al concepto de un espacio curvo. Gauss creía que las nuevas formas de geometría bidimensional podían desarrollarse a partir de un extraño axioma nuevo, el de que por un punto exterior a una línea dada se puede trazar más de una línea paralela a dicha línea. Dicho axioma iba totalmente en contra de Euclides y del sentido común, a la proposición que, por un punto exterior a una recta una y tan sólo una línea, puede trazarse paralela a aquélla. No obstante, en sus últimos años Gauss vio aplicar su idea de las reglas no-euclidianas del paralelismo a sectores del espacio curvo.
Mientras que Gauss anticipó el cataclismo de la geometría, otros lo llevaron a cabo. En 1832 recibió una carta de un viejo amigo de colegio, Farkas Bolyai, que quería la opinión de Gauss sobre las ideas poco ortodoxas de su hijo Janos. Al abandonar el postulado de Euclides relativo al paralelismo, Janos había construido un tipo de geometría no-euclidiana que denominamos en la actualidad «hiperbólica», una geometría que puede utilizarse para describir las propiedades de las figuras en una superficie en forma de trompeta, en oposición a la superficie plana de Euclides.
A la pregunta del señor Bolyai, Gauss contestó que el joven Janos tenía una excelente idea, pero, por haberla ponderado durante muchos años, no podía elogiarla sin vanagloriarse.

Janos Bolyai se descorazonó comprensiblemente ante esta respuesta y, cuando se enteró inmediatamente después que el matemático ruso Nikolai Lobachevsky había tenido también la idea de la geometría no-euclidiana, abandonó las matemáticas.
4. Dimensiones de la cuarta a la enésima
El siguiente joven innovador no-euclidiano que llegó hasta Gauss lo pasó mucho mejor. Éste fue Bernhard Riemann, quien estudió bajo la dirección de Gauss en Góttingen. Cuando estuvo a punto de dar su conferencia de iniciación como profesor, sometió, según la tradición, tres posibles temas. En el caso especial de Riemann, Gauss pasó por alto los dos primeros y pidió que Riemann conferenciara sobre su tercer tema. Este tema era nuevo, repleto de controversias y de peligros y sin euclidianismos. Pero después de un trabajo intensivo Riemann dio una conferencia en la facultad de Filosofía de Góttingen en la que sin utilizar ni una sola figura o fórmula, propugnó un concepto radicalmente nuevo de la estructura del espacio geométrico. Probablemente nadie lo comprendió, pero, para Gauss, Riemann iba encaminado a los mundos de la cuarta, quinta, sexta y enésima dimensiones.
La geometría de Riemann de muchas dimensiones, así como es difícil de apreciar en términos visuales, es bastante fácil de concebir cómo una posibilidad abstracta: como una simple progresión a partir de una línea en el espacio unitario de la longitud, a un plano en el espacio «bidimensional» de anchura y longitud, a un sólido en el espacio «tridimensional» de altura, anchura y profundidad, y de aquí a espacios de más dimensiones, por ejemplo, de altura, anchura, profundidad y tiempo.
Para poner su idea multidimensional en órbita, Riemann, apoyándose en parte en conceptos desarrollados por Gauss, generalizó las propiedades de las curvas y superficies de forma tal que pudieron aplicarse a los espacios. Puede obtenerse una apreciación del noble vuelo mental de Riemann a partir de un solo ejemplo detallado referente a la muy importante propiedad geométrica de la «curvatura». La curvatura de una curva es la proporción en que curva. Una medida de esta proporción es la medida del círculo oscilador en un punto. Si el círculo que más se acerca a la curva en este punto es muy pequeño, entonces la curva se cierra poco a poco y tiene una pequeña curvatura.
La curvatura de una superficie se define casi de la misma forma que la curvatura de una curva. En cualquier punto de una superficie la curvatura no tiene por qué ser la misma en todas direcciones. Una montaña, por ejemplo, tiende a disminuir su pendiente en proporciones distintas. La cúspide, no obstante, puede interpretarse como el punto de intersección de un número infinito de curvas que ascienden por un lado y descienden por el otro. En la cúspide una de estas curvas tendrá una curvatura superior que las demás y otra tendrá una curvatura inferior a las otras. Gauss había averiguado que la curvatura en un punto cualquiera de la superficie puede definirse útilmente como el producto de las curvaturas mayor y menor de todas las líneas que constituyen la superficie en aquel punto. Este producto se llama en la actualidad «la curvatura gaussiana».
Si un punto en una superficie está situado en el equivalente a un puerto de montaña en donde el terreno, hacia el este y oeste se inclina hacia arriba, y el terreno al norte y al sur se inclina hacia abajo, entonces el mínimo de curvatura hacia abajo es una curvatura hacia arriba, en otras palabras, una curvatura negativa hacia abajo. Por la definición de Gauss, la superficie de curvatura en un punto del puerto debe ser el producto de una negativa y una positiva - por lo tanto negativa -. Un ejemplo de una superficie con curvatura negativa es la silla de montar del Oeste de los Estados Unidos. Una superficie de curvatura positiva es una que siempre da vueltas para encontrarse a sí misma, como la cáscara de un huevo.

Gauss había encontrado también que la curvatura de una superficie puede definirse no sólo en términos de una persona que mira a la superficie desde el exterior sino equivalente en términos de mediciones realizadas dentro de la delgada superficie propiamente. Riemann amplió esta última idea acerca de la curvatura de la superficie hasta dar una descripción matemática exacta de la curvatura del espacio. Al realizar este aterrador pensamiento abstracto, se apoyó en gran parte en un análisis exhaustivo que realizó utilizando la red de referencias de los sistemas coordinados. En el sistema cartesiano, las líneas de referencia son líneas rectas en un plano. En la esfera de la tierra las líneas de referencia son las de la latitud y longitud. En un huevo pudieran ser círculos, en una dirección, y óvalos en la otra. En el reflector de un faro de carretera de un coche, pudieran ser círculos en una dirección y parábolas en la otra.
Riemann se dio cuenta de que toda superficie o espacio de su geometría superior podía trazarse por medio de distintas redes de curvas de referencia. Y halló que las ecuaciones escritas en términos de un sistema de coordenadas a menudo podían ser ampliamente simplificadas al escribirse en términos de un conjunto distinto de curvas de referencia. Uno de los más prácticos conjuntos de curvas de referencia está formado por las llamadas «geodésicas». Una geodésica es simplemente el camino de la distancia más corta entre dos puntos. En un espacio plano una geodésica es un segmento de línea recta. En una esfera es un arco de un círculo máximo análogo al que siguen los jets intercontinentales. En una superficie irregular en forma de lámpara o en un espacio curvo, prácticamente puede ser cualquier tipo de curva. Al manipular ecuaciones diferenciales elaboradas para minimizar las distancias, Riemann halló que podía trazar redes geodésicas de líneas de referencia y seguir la curvatura de cualquier espacio desde tres dimensiones hasta n dimensiones.
En esta atrevida geometría, Riemann pareció prescindir del sentido común, pero el arte del análisis ganó mucho en destreza. Al igual que en el enlace entre el álgebra y la geometría plana realizado por Descartes, las ecuaciones con muchas variables encuentran ahora sus correspondientes geométricos, y los nuevos símbolos de la geometría superior se convirtieron en útiles colaboradores de las ecuaciones. Y en todo momento las ideas en la parte inferior de todo el marco de elaboración eran simples como las de curvatura: definiciones realistas que demostraron tener validez en el mundo tangible de reducida dimensionalidad.
Gauss murió en 1855, poco después que naciera la geometría multidimensional. Pero las ideas que se habían incubado en su mente durante 50 años fueron desarrolladas por Riemann y sus sucesores, para convertirse en los métodos prácticos que manejara Einstein 50 años después al dar al hombre moderno orientaciones sobre la estructura del universo.


domingo, 12 de marzo de 2017

El cálculo de las posibilidades en un mundo inseguro

Además de la certeza de la muerte y del pago de los impuestos, pocos aspectos de nuestra vida eluden la influencia de la probabilidad. Un agrupamiento imprescindible de genes determina nuestra constitución física. Un encuentro imprevisto puede decidir la persona que se elija para el matrimonio o un empleo. Un paso en falso inadvertido puede llevarnos a un hospital. Para todos los hombres, desde la época en que se anotó en el Eclesiastés, «el tiempo y la probabilidad ocurren».
Incapaces de controlar la probabilidad hacemos lo mejor posible: tratamos de evaluar la probabilidad de que ocurra un suceso particular. Nuestra charla la sazonamos con los adverbios de contingencia: «normalmente..., probablemente..., tal vez». Cada vez que contemplamos un suceso que todavía no se ha convertido en hecho, automáticamente realizamos una estimación de la probabilidad.
El cálculo de probabilidades ha sido una preocupación humana desde tiempo inmemorial. Desde la mitad del siglo XVII ha sido también una seria pretensión del matemático. De sus investigaciones en la materia ha surgido toda una especialidad de su profesión -las matemáticas de la probabilidad- y una forma de calcular las posibilidades que es más aguda que las adivinanzas de los legos. Para el matemático, la probabilidad es un porcentaje. Al combinarse, las probabilidades de los sucesos particulares pueden utilizarse para valorar las posibilidades de cadenas de sucesos. Para tratar estas combinaciones, se han formulado ciertas reglas básicas; son las conocidas por el nombre de leyes de probabilidad.
Muchas de las manifestaciones más evidentes de la moderna ciencia son, en efecto, apuestas repetidas basadas en las leyes de la probabilidad. Los teóricos matemáticos de los siglos XVIII y XIX razonaron que el cálculo de Newton, debido a que analizaba en forma tan satisfactoria el cambio y el movimiento podía finalmente servir para revelar el futuro de uno o de todos los sucesos con absoluta precisión. Y de esta forma en su mayor parte avanzaron rápidamente hacia una filosofía de «determinismo mecánico». El matemático francés del siglo XVIII Pierre Simon de Laplace - que perfeccionó el análisis newtoniano del sistema solar en una gran obra titulada Mécanique Céleste («Mecánica de los cielos») - escribió: «Dada por un instante una inteligencia que pudiera comprender todas las fuerzas por las que la naturaleza está animada y... suficientemente vasta para someter estos datos al análisis, abarcaría en la misma fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más pequeño: para ella, nada sería incierto y tanto el futuro como el pasado, estarían presentes a sus ojos».
Los científicos en la actualidad no esperan alcanzar el conocimiento inmediato que soñó Laplace. La pequeñez inefable de las partículas reveladas por los desintegradores del átomo y la inefable grandeza del universo revelada por los telescopios del siglo XX les han convencido de que nunca comprenderán al dedillo «todas las fuerzas por las que la naturaleza está animada» y, lo que es una gran tranquilidad, que nunca estarán obligados «a someter estos datos al análisis».

Individualmente, las unidades más pequeñas de la naturaleza se mueven en una forma de azar que aparentemente no es predecible. Pero actúan en cantidades tan grandes que su comportamiento colectivo es totalmente predecible y con una exactitud conocida, una posibilidad de error conocida, que se valora por medio de probabilidad. Una población de trillones de moléculas de gas en un jarro y una población de millones de americanos detrás de los volantes pueden predecirse de la misma forma. Es imposible predecir que la molécula A hará una colisión con la molécula B o que el conductor X chocará con el conductor Y. No obstante, es posible decir aproximadamente el número de moléculas que entrarán en colisión en un segundo y aproximadamente cuántos conductores en un mes. Y la previsión permitirá que el científico alcance una conclusión, permitirá que una empresa de seguros establezca sus primas.
2. Un comienzo por el peor de los lados
Al servir a la ciencia y a los negocios, las matemáticas de la probabilidad han alcanzado un estado muy superior al de sus orígenes, que estaban ligeramente en el peor de los lados. La teoría de la probabilidad se inspiró en las preguntas de los jugadores que buscaban alguna información interna para ganar en las cartas o en los dados. Tartaglia y Cardano, ambos presentaron sagaces análisis de los problemas del juego. Pero su trabajo - tal vez demasiado relacionado con el juego para los matemáticos y demasiado matemático para los jugadores - fue olvidado en gran parte. La probabilidad en la forma que la conocemos en la actualidad, en lugar de ello, fue propugnada por un trío de franceses a mediados del siglo XVII un noble de elevada posición, el caballero De Méré y dos matemáticos esporádicos, Blaise Pascal y Pierre de Fermat.
Las principales preocupaciones de Pascal eran la filosofía y la religión. Le entusiasmaba también la geometría «proyectiva» - una geometría que se refiere a los problemas de perspectiva del dibujo y a las formas de las sombras a que darán lugar las figuras geométricas. Fermat era un jurista de profesión. Como se mencionó anteriormente, creó partes de la geometría analítica independiente de Descartes, pero se le recuerda principalmente como uno de los principales teóricos del número de todos los tiempos, una reputación que ganó al quedarse en casa hasta muy tarde, a la luz de la luna, después de las sesiones en el parlamento local.
En 1651 ó 1652 De Méré y Pascal coincidieron en un viaje a una ciudad de Poitou. Al tratar de encontrar un tópico de conversación mutuamente interesante con el que distraerse en el viaje, el mundano De Méré presentó al espiritual Pascal un problema matemático que había producido grandes controversias desde la Edad Media: cómo dividir el pote en un juego de dados que tiene que interrumpirse. Pascal ponderó el problema durante un par de años y finalmente, en 1654, lo comunicó a Fermat.
En la célebre correspondencia que siguió al problema e puesto por De Méré, Pascal y Fermat empezaron por estar de acuerdo en que, en un juego de dados no acabado, las apuestas sobre la mesa deberían dividirse según las perspectivas de ganar que tiene cada jugador. Cada jugador ha apostado 32 doblones de oro (el equivalente hoy en día a unos 176 dólares de oro actual) de que el número elegido saldrá tres veces en un dado antes que lo haga el número de otro jugador. Después de que el juego haya seguido durante un rato, el número 6 de De Méré ha salido dos veces, el cuatro de su oponente ha salido una sola vez. En este instante De Méré recibe una repentina citación, ¿cómo dividir los 64 doblones de oro de la mesa? El amigo de De Méré, podría sostener que dado que sus posibilidades de conseguir dos tiradas afortunadas son doblemente probables que las posibilidades de De Méré de obtener una tirada afortunada, tiene derecho a la mitad de lo que corresponde a De Méré, es decir, 21 1/3 frente 42 2/3 de De Méré. De Méré, por otro lado, podría sostener que en la tirada siguiente del dado lo peor que pudiera sucederle sería perder su ventaja, en cuyo caso el juego estaría nivelado, y en este supuesto tendría derecho a la división exacta que corresponde a 32 doblones de oro. Si, no obstante, en su próxima tirada tuviera suerte ganaría la apuesta original y recogería la totalidad de los 64 doblones. De Méré arguye, por lo tanto, que incluso antes de la tirada tiene derecho a 32 doblones, más 16 de los que sólo tiene la mitad de la certeza. Y está en lo cierto: Pascal y Fermat lo decidieron así.
De las investigaciones de Pascal y Fermat en torno a distintas situaciones del juego ha surgido la teoría moderna de la probabilidad -las leyes de la posibilidad -. La idea de que la posibilidad está regida por leyes puede parece poco convincente. Pero en verdad las leyes de la probabilidad no impiden la posibilidad de que un individuo tenga una racha de suerte, ni niegan el valor de los presentimientos en el juego. Empiezan a actuar como leyes sólo cuando hay muchas repeticiones - al tirar muchas veces los dados, al dar muchas veces las cartas, cuando ocurren muchas colisiones de coches, al considerar las vidas de muchas personas; este aspecto de la probabilidad se conoce por la ley de los grandes números.
La misma ley da a un individuo sólo una posibilidad remota de tener suerte constantemente - de actuar constantemente mejor de lo que una predicción de probabilidad garantizaría. Por otro lado, una racha de buena suerte no hace disminuir la posibilidad de que un individuo tenga suerte nuevamente en cualquier ocasión determinada; un vendedor que viaja miles de kilómetros al año sin ningún accidente no incurre en un riesgo mayor cada vez que sube a un avión. Las pistas de despegue y el radar no tienen memoria, y las posibilidades de sobrevivir en un vuelo determinado son tan buenas la milésima vez como la primera.
La ley de los grandes números es aplicable hoy a la mayoría de los usos prácticos de la probabilidad. Debido a éstos, la probable exactitud de cualquier previsión aumenta con el número de casos que comprende: el número de moléculas en un recipiente de gas o el número de pólizas de seguro de accidentes suscritas. Esta es una razón por la que las primas son mucho más elevadas en las pólizas individuales hechas a la medida para cubrir un riesgo particular, que las pólizas ordinarias que pueden extenderse a un número elevado de casos distintos. Por ejemplo, un actuario de seguros puede mirar los archivos referentes al tiempo atmosférico y hallar que, por término medio, en un día del mes de abril en la ciudad de Méjico, las posibilidades de que llueva son inferiores al 2 %.

Pero si un millonario mejicano desea asegurar contra el peligro de lluvia la recepción de la boda de su hija realizada al aire libre, la compañía de seguros no le dará cincuenta casos favorables contra uno, sino que sólo aproximadamente 10 a 1. Es decir, tendría que pagar alrededor de la décima parte del coste de la fiesta. Por otro lado, si un conductor hace la apuesta de 100 dólares con una compañía de seguros de que su coche no dará lugar a 300.000 dólares de daños al año, se le dará un trato mejor. Tendrá que pagar sólo un poco más de lo que corresponde a su participación en todos los daños y perjuicios que hagan colectivamente él y muchos miles de conductores como él.
3. Las huellas y los niños
Las matemáticas de la probabilidad influyen sobre muchas otras facetas de la vida moderna. Ayudan al investigador atómico a interpretar las huellas que impresionan en la película las partículas atómicas disparadas desde los ciclotrones. Ayudan al experto en cohetes a decidir qué factores de seguridad deberían construirse en los costosos sistemas de cohetes dirigidos. Ayudan a valorar a nuestros hijos en los testes de inteligencia y hacen posibles las predicciones de votos.
Básicamente, dos leyes son el fundamento de la probabilidad: la ley conjunta para calcular la probabilidad de dos sucesos que se presentan conjuntamente y la ley de exclusividad, para calcular entre dos sucesos la probabilidad de que ocurra uno u el otro. La ley conjunta dice que la posibilidad de dos sucesos independientes que ocurren conjuntamente es igual a la probabilidad de que ocurra uno multiplicado por la probabilidad de que ocurra el otro. Por ejemplo, la posibilidad de sacar al tirar una moneda es ½. La posibilidad de sacar cara tanto en la primera como en la segunda tirada es ½ x ½, o sólo ¼. La ley de exclusividad dice que la posibilidad de que sea cierta una cualquiera de estas dos posibilidades mutuamente exclusivas es igual a la suma - adición - de las posibilidades separadas de que cada una individualmente sea cierta. La posibilidad de sacar cara o cruz al tirar una moneda es igual a la posibilidad de sacar cara más la de sacar cruz: ½ + ½ = 1. El 1 representa la certeza, algo que aparecerá una vez en cada prueba particular.
Dado que los sucesos están a menudo relacionados y generalmente no son independientes o mutuamente exclusivos, las leyes conjunta y de exclusividad son de gran utilidad. La ley de los fenómenos conjuntos se halla modificada si la presentación del primer suceso afecta las posibilidades del segundo. Por ejemplo, la probabilidad de sacar uno de los 13 corazones en un juego de 52 cartas es 13/52 o simplemente ¼. Pero la posibilidad de sacar un corazón en la primera y segunda extracción de una baraja no es 13/52 x 13/52. Cuando se ha sacado un corazón y hay sólo 12 corazones y quedan 51 cartas para extraer, la probabilidad de que salga un corazón ha disminuido de 13/52 a 12/51. Como resultado, las posibilidades de los fenómenos conjuntos de sacar dos corazones seguidos han sido reducidas a 13/53 x 12/51. Esta modificación de la ley de los fenómenos conjuntos se denomina la ley de los sucesos condicionados.
Una observación similar es aplicable a la ley de los sucesos independientes. Si dos sucesos no son mutuamente exclusivos, las posibilidades conjuntas de que ocurra uno u el otro son iguales a la suma de sus posibilidades separadas menos la posibilidad de que ambas ocurran conjuntamente. Por ejemplo, las posibilidades del caballero De Méré de sacar o un 2 o un 3 en una tirada de un solo dado de seis caras sería 1/6 + 1/6, ya que los dos resultados son mutuamente exclusivos - no es posible que sacara ambos números en una sola tirada. En contraste, sus posibilidades de sacar un 2 en una cualquiera de las dos tiradas no sería mutuamente exclusivo; podría sacar un 2 en ambas tiradas. Como resultado, la posibilidad de los sucesos independientes de que salga un dos en una u otra tirada sería 1/6 + 1/6 modificado por la sustracción de 1/36 para representar la probabilidad de los sucesos conjuntos o dos 2 seguidos.

Una importante dificultad al aplicar las leyes de la probabilidad está en determinar todas las formas posibles en que puede presentarse un suceso. En los juegos de dados el problema sólo es relativamente difícil.
Cada tirada sucesiva de un dado, o cada nuevo dado añadido a un conjunto de dados que se tiran conjuntamente, multiplica el número de posibilidades por seis. Por ejemplo, si se tiran tres dados el número total de posibilidades es tres veces seis o 216. Todas estas posibilidades son igual de probables, pero muchas son idénticas en los efectos, es decir, el 15 puede salir en forma de 3, 6, 6, o un 6, 6, 3. La única diferencia entre ellos es su orden de aparición, y los distintos órdenes de aparición deben ser considerados al valorar las probabilidades. Utilizando un ejemplo poco agradable, un hombre que acaba en un hospital con una pierna rota no le importa si primero cayó y fue cogido después por un coche o primero fue atropellado y después golpeado.

Como instrumento para ahorrar trabajo, los matemáticos han elaborado reglas que les dirán a golpe de vista cuántos órdenes o colocaciones separadas pueden formarse en cualquier conjunto de posibilidades. Un conjunto de posibilidades, las cinco cartas posibles en una mano de póquer, por ejemplo, se conoce por una «combinación». Cada una de las formas en que pueden colocarse las cartas o cada orden en que pueden sacarse, se conoce por una «permutación».
Las leyes de las permutaciones y combinaciones a través de las que los teóricos de la probabilidad hacen la vida más fácil para ellos mismos, han llegado a obtenerse por medio de ponderar los ordenamientos o colocaciones que pueden salir de una bolsa. Supóngase, por ejemplo, que un soltero es igual de amigo de una pelirroja, de una rubia y de una morena; supóngase, además, que su cuidadosa política antimatrimonial consiste en salir con cada una de las chicas cada tres salidas. ¿Cuántas permutaciones, ordenamientos de las salidas con chicas, puede realizar antes de que se repita el mismo? La primera fecha de una serie cualquiera de tres, tiene tres posibilidades. Al haber salido con una de las chicas, le quedan dos alternativas en la serie para la segunda noche. Después de la segunda salida sólo le queda una alternativa. En total tiene 3 x 2 x 1 formas de colocar la secuencia de sus salidas en un solo grupo, después de seis grupos es probable que empiece a repetirse.
Una forma más común y menos intrigante, a través de la cual el ciudadano medio realiza extracciones de una bolsa, lo constituye la mesa de juego. Cuando se da la primera carta de una baraja de 52, hay 51 posibilidades restantes; cuando se da la segunda carta hay 50 posibilidades. En total el número de alternativas en que pueden distribuirse las cartas es 52 por 51, etc., y así descendiendo hasta 1. Para ahorrar espacio, los matemáticos lo escriben simplemente como un 52 seguido por un signo de admiración llamado «52 factorial». Cinco factorial (5!) significa 5 x 4 x 3 x 2 x 1, o sea, 120. Tres factorial (3!) significa 3 x 2 x 1, o sea 6.
4. El soltero más feliz
El jugador de póquer o de bridge se asemeja a nuestro mencionado soltero, a excepción de que el soltero lleva ahora una vida de complejidad celestial. Conoce a 52 chicas distintas y las escoge en grupos de cinco o 13. Si escoge en grupos de cinco, las posibilidades con que se enfrenta antes de cada elección son sucesivamente 52, 51, 50, 49 y 48 y el número total de ordenamientos de salidas posibles 52 x 51 x 50 x 49 x 48 o 52! / (52-5)!, en total 311.875.200 disposiciones distintas. Si escoge en grupos de 13 las colocaciones posibles se elevan a 52! / (52-13)!, que todavía es un número más monstruoso.
En el bridge o en el póquer un jugador no está interesado tanto en el número de secuencias que pueden darse en una mano como en el número posible de manos que resultan. En el póquer puede dar cinco cartas en 52!/(52-5)! formas, pero sólo 1/5! o 1/120 de estas formas tienen significado para él. Por lo tanto, el número total de manos que puede tener es 52! / ((52-5)! x (5!)), o 2.598.960.
De manera similar el número total de manos de bridge es 52! / ((52-12)! (13!)), en total 635,013,559,600. En general, el número de formas en que r objetos pueden sacarse de una bolsa de n objetos, prescindiendo de su colocación, es n! / r! (n-r)!

Aunque la probabilidad todavía conserva las huellas de sus orígenes deportivos, no todo son juegos de dados, de cartas, tiradas a cara o cruz. En sus formas más prácticas es el ingrediente principal de la ciencia de la estadística. Al aplicarse por medio de la estadística, da al estudiante bachillerato una idea de la realización en su futuro si va a la Universidad en vez de detenerse en el bachillerato; dice al soltero aproximadamente qué posibilidad tiene de vivir tanto como su hermano casado; dice al hermano qué posibilidad tiene de sobrevivir a su esposa. En los negocios, la probabilidad estadística se utiliza para estimar el stock que debería guardar un fabricante en sus almacenes. En las comunicaciones revela el número de conexiones - de combinaciones - que deben de hacerse en cualquier teléfono automático o red telegráfica. En la industria farmacéutica indica si los efectos que se indican de un nuevo producto son estadísticamente significativos o simplemente resultados de la casualidad.
Entre los juegos de azar y la mayor parte de estas aplicaciones más complejas y más útiles, que no tienen nada que ver con el juego, hay una diferencia fundamental. En el juego puede resultar difícil, pero siempre es posible, enumerar todos los resultados posibles de un riesgo: todos los billones de manos que pueden resultar de una baraja de cartas. Al predecir los altibajos de la vida real, no es muy posible conocer por adelantado todas las cartas de la baraja. En la probabilidad del juego, el matemático está considerando las posibilidades de las extracciones de una bolsa en la que la clase de bolas y sus proporciones relativas se conocen con anterioridad. En la probabilidad estadística, el problema es coger una muestra experimental bien seleccionada y después hacerle corresponder la probabilidad que con precisión represente todo el contenido de la bolsa.
Un instrumento básico que los matemáticos utilizan al investigar bolsas desconocidas es la curva que se ilustró más arriba. Ésta es la denominada curva de la «distribución normal», que representa lo que es normal o average en un número grande de casos observados. Una forma fácil de obtener la curva es tirar un número muy grande de veces un dado y después representar el número de veces que salen las combinaciones en relación con sus propios valores. La curva se convierte en una suave curva en forma de campana: la conocida curva C. I. o de clasificación, que se presenta en variedades innumerables en cualquier tipo de análisis estadístico.
La curva de probabilidad se reconoció y utilizó primeramente por el matemático Abraham de Moivre, un hugonote francés que había huido a Inglaterra después de la revocación del Edicto de Nantes en 1685.

Fue más desarrollada por la máxima autoridad matemática del siglo XIX, Carl Friedrich Gauss. Para representar la curva, Gauss escribió una ecuación que es de notoria utilidad al científico, ya que está construida en términos de los factores que intervienen en las situaciones experimentales. Si, por ejemplo, el científico desea saber cuál es la posibilidad de que las mediciones que ha hecho en un experimento sean, por una razón u otra, poco representativas y tal vez de poca confianza, la ecuación de Gauss le dice cuál es la posibilidad de que las mediciones estén mal en un 1 %, o en otro tanto por ciento. Como resultado el científico sabe «el límite de error probable» en su trabajo y puede actuar en consecuencia.
Desde la época de Gauss, los expertos de la probabilidad han elaborado otras ecuaciones y otras curvas para ciertas clases de situaciones no comprendidas por medio de la curva de distribución normal. Dichas situaciones, denominadas anormales, incluirían, por ejemplo, las posibilidades de marcar un número equivocado, o las posibilidades de que su casa resultara dañada durante un raid aéreo. La característica de juego persiste en estas aplicaciones sofisticadas de la posibilidad, pero han sido perfeccionadas para nuevos grados de utilidad y respetabilidad. En la actualidad la teoría de la probabilidad no es desconocida en las asignaturas de bachillerato. Y existe la esperanza de que los jóvenes que la absorben se conviertan, no precisamente en mejores jugadores de cartas, sino en mejores practicantes de los juegos de azar de los negocios, de la tecnología y de la ciencia.




















El dominio de los misterios del movimiento

Nada en el mundo es inmune al cambio. La roca más dura en el más seco de los desiertos se dilata o se contrae con el cambio de la luz solar. Los bloques de acero para medir en el National Bureau of Standards, aunque se encuentren almacenados en bóvedas subterráneas a una temperatura controlada, están sujetos a fluctuaciones estacionales en su longitud que se cree son producidas por la radiación de las paredes circundantes. Todo crece o se contrae, se calienta o se enfría, cambia de posición, de color, de composición, incluso tal vez hasta de lugar.

Aunque el proceso de cambio es inevitable y vital para comprender las leyes de la naturaleza, es difícil de analizar. Por ser continuo no ofrece ningún punto sencillo que la mente pueda aislar y controlar. Durante siglos desconcertó a los matemáticos. Algunos primeros pasos, ciertamente, se dieron hacia una matemática del movimiento. Los griegos lo hicieron así cuando se imaginaron las curvas como trazos realizados por puntos en movimiento, y cuando analizaron las líneas curvas, paso a paso, por medio de la técnica de dividirlas en segmentos infinitamente pequeños. Así lo hizo Descartes cuando pensó en los términos de una ecuación como funciones entre variables y, sobre todo, cuando facilitó una posibilidad para representar figuras gráficas de las situaciones y relaciones fluidas. Pero en su mayor parte el mundo de las matemáticas se pobló de figuras de cera, formas y números que permanecían absolutamente invariables.
Posteriormente, en 1665 y 1666, el incomparable Isaac Newton, de Inglaterra, realizó una prodigiosa creación mental, denominada en la actualidad cálculo, que, por primera vez, permitió el análisis matemático de todo movimiento y cambio. En el cálculo, Newton combinó la técnica de la división en partes pequeñas de los griegos y el sistema gráfico de Descartes para crear un maravilloso y automático instrumento mental con el fin de operar en una ecuación para llegar a los infinitésimos. El cálculo probó su efectividad tan rápidamente que en unos cuantos años su creador lo utilizó para establecer las leyes del movimiento y de la gravitación. Debido a su habilidad en probar los fugaces misterios del movimiento, el cálculo en la actualidad se ha convertido en el nexo principal entre la ciencia práctica y el conjunto de pensamientos matemáticos. Todo avión, todo aparato de televisión, todo puente, toda bomba, toda nave espacial le deben un poco de gratitud.
Las distintas clases de cambio que puede analizar el cálculo son tan diversas como el armario de una reina. Si los factores que comprenden cualquier situación fluida pudieran ponerse en términos de una ecuación, entonces el cálculo puede abarcarlos y descubrir las leyes a que obedecen. La variación en estudio puede ser tan dramática como la velocidad acumulada en un cohete dirigido al dejar su base o tan lenta como la pendiente variable de la carretera de una montaña. Puede ser tan visible como los kilos que se añaden a la que en un tiempo fue una esbelta cintura o tan invisible como los altibajos de la corriente en una línea de potencia.
Puede ser tan sonora como el crescendo de un concierto de Beethoven o tan silenciosa como la supuesta fuerza de la corriente del agua embalsada.
El cálculo analiza todas estas situaciones al invocar dos procesos matemáticos nuevos - son las primeras operaciones fundamentales que hay que añadir a las leyes de la adición, sustracción, multiplicación, división y extracción de raíces. Estas nuevas operaciones son denominadas diferenciación e integración, siendo ésta la inversa de aquélla, casi en la misma forma que la sustracción es la inversa de la suma o la división de la multiplicación. La diferenciación es una forma de calcular la tasa de variación de una variable en una situación en relación a otra en cualquier punto de un proceso.
El método actualmente empleado en la diferenciación es dividir una pequeña variación en una variable por una pequeña variación en otra; dejar que estos cambios vayan disminuyendo hasta acercarse a cero; después - y ésta es la clave - hallar el valor a que tiende la relación entre ellos a medida que las variaciones pasan a ser indefinidamente pequeñas. A este valor es a lo que los matemáticos llaman un «límite», y es la respuesta que buscan, el resultado final de la diferenciación, la tasa de variación en cualquier momento o punto. La integración opera al revés que la diferenciación; considera a una ecuación en términos de tasa de variación y la convierte en una ecuación en términos de las variables que hacen la variación.
Por medio de la diferenciación, un matemático puede profundizar en la situación de un fluido hasta que encuentre algún factor constante que refleje la acción de una ley constante de la naturaleza.

En esta forma, Newton y teóricos posteriores, hicieron un descubrimiento que todavía no es fácil de comprender para los no versados. Este descubrimiento fue que el factor constante en muchos procesos de la naturaleza es la tasa en que varía la tasa de variación. El descifrar esta aparente redundancia puede parecer inútil.

Pero todo el que conduce está familiarizado con la tasa de variación de una tasa de variación. La velocidad del coche es una tasa de variación de la distancia con respecto al tiempo. Al acelerar o disminuir la velocidad, la propia velocidad del coche cambia, y varía en una proporción -aceleración o disminución - que constituye la tasa de variación de la tasa de variación. En la naturaleza, la gravedad actúa de forma tal que hace que un objeto que cae, se mueva en una tasa que aumenta en proporción constante. En los procesos que comprenden verdaderos movimientos físicos, Newton definió esta proporción de una tasa como aceleración. Y denominó a la gravedad que lo causaba una fuerza. Definió la fuerza en general como algo que hace acelerar a un objeto. Al aplicarse por medio del cálculo, esta definición -establecida hace tres siglos- ha permitido a los científicos el poder identificar las tres fuerzas fundamentales del cosmos: la fuerza de gravedad, la fuerza del magnetismo, o carga eléctrica, y la fuerza que une los núcleos atómicos.
En contraste con el papel espectacular que ha desempeñado el cálculo en descubrir los secretos del universo, la nomenclatura en torno a la diferenciación y la integración es tristemente prosaica. El cambio relativo de una y o x, hallada por la diferenciación, se llama una derivada -una derivada de y con respecto a x, que se escribe dy/dx, o de x con respecto a y, que se escribe dx/dy. Lo opuesto a una derivada, hallada por medio de la integración, se denomina una integral y se simboliza por ∫, una S anticuada, que era una abreviación, originalmente, para la «suma» o «adición». Al efectuarse la integración en una ecuación escrita en términos de derivadas, convierte otra vez la ecuación en una en la que x e y se han despojado de sus disfraces de tasa de variación y han recobrado una apariencia algebraica normal.
2. Una definición para los que hacen régimen
Los resortes y jeroglíficos que acompañan a las técnicas del cálculo pueden parecer desquiciados, pero las ideas que hay detrás de ellos pueden reconocerse fácilmente. Por ser una tasa de variación, una derivada significa, simplemente, la velocidad de un proceso: tantas millas por hora o metros por segundo si se refiere a una variación de posición; tantas libras por semana si se refiere al éxito de un régimen; tantos genios por nacimiento si se refiere a las estadísticas del cociente de inteligencia. La integral correspondiente a cada una de estas derivadas serían los kilómetros recorridos, las libras perdidas o los genios que se han producido.
Cuando se la utiliza abstractamente en una ecuación, una derivada puede concebirse más rápidamente en términos de la curva que representa esta ecuación en un gráfico. En cualquier punto, la curva está creciendo o decreciendo en una tasa de tantas unidades de y por cada unidad de x. Esta pendiente hacia arriba o hacia abajo es exactamente el equivalente geométrico de la tasa de variación -la derivada- de y con respecto a x. Los ingenieros a menudo expresan la pendiente de una colina, la inclinación de un tejado o la verticalidad de la ascensión de un avión en términos idénticos: es decir, tanta altitud alcanzada por unidad de distancia horizontal atravesada. Pero en estas aplicaciones la pendiente se concibe como si se midiera en un tramo definido. Con el cálculo, la derivada se concibe como una pendiente instantánea en un punto aislado de la curva.
Que este concepto alusivo a la pendiente instantánea no es una ficción producto de la imaginación matemática puede verse en una granada de artillería a medida que describe un arco hacia el objetivo. En cualquier momento determinado la granada se mueve en una dirección definida. Esta dirección es una pendiente instantánea con respecto al suelo, una tasa de variación en la altitud de la granada con respecto a su posición horizontal. En términos gráficos, la velocidad de la granada moviéndose hacia arriba y hacia abajo, puede considerarse también como una pendiente instantánea en una curva.
Un matemático normalmente escribiría dicha derivada -la velocidad de ascenso o descenso, o la tasa de variación en distancia vertical - como dy/dt, en la que t representa el tiempo. Lo opuesto de una derivada, una integral, puede visualizarse también a través de un gráfico. Supóngase que y es igual a alguna expresión de x y que esta ecuación se representa como una curva. Entonces la integral de y es el área entre la curva y la línea horizontal, o eje, situada debajo de aquélla.
El porqué esto es así puede verse al imaginar que el área bajo la curva está cubierta por una valla de estacas con una parte superior ondulada. A medida que se construye la valla cada nueva estaca se suma al área de la valla.
De hecho, la altura de cada estaca añadida es una medida de la proporción en que crece el área de la valla; una estaca de 1,80 m., por ejemplo, añade un área doble que la de una estaca de 0,90 m. La integral de la tasa de variación, por lo tanto, debe ser el factor real en la situación que varía, es decir, el área de la propia valla. El equivalente geométrico de cada estaca es simplemente la altura de una curva - la vertical, u ordenada y de cada punto de una curva. La integración de y debe dar el área total bajo la curva.

Muchas de las aplicaciones más prácticas del cálculo derivan de la habilidad de la integración para sumar las estacas de longitud y, así como para la determinación de áreas. A través de ésta, un matemático puede determinar el volumen de todas las posibles formas irregulares, tales como el fuselaje de aviones, o tanques para el almacenamiento del aceite; también puede hallar las áreas de superficies curvilíneas - cantidad de plancha para la carrocería de un coche, o superficie de ascensión en las alas de un jet.
Existe una dificultad muy importante en el proceso de integración - una dificultad tan enorme y tan recurrente que la mayor parte de computadores de mayor tamaño en la actualidad han sido construidos especialmente para poder solucionarla -. Este es el problema de las llamadas «condiciones de los límites». Al medir el área de una valla de estacas, las condiciones de los límites se establecen por medio de las dos estacas que señalan los dos extremos de la valla. Pero no existen extremos para muchas de las curvas que representan ecuaciones. El área bajo este tipo de curva puede ser indefinidamente grande. Para limitarla, el matemático elige el equivalente a los postes extremos para señalar la parte determinada de área en la que está interesado. Entonces integra la ecuación representada por la curva entre estos dos vértices. A menudo el sistema adecuado para interpretar dicha ecuación no puede si no es integrándola y las condiciones de límites necesarias para integrarla no pueden hallarse a menos que se sepa cómo interpretarla. Para evitar este callejón sin salida, el científico, en efecto, escoge arbitrariamente lugares para las estacas y deja que un computador imprima docenas de laboriosas soluciones, que le dan una percepción de la naturaleza de la ecuación y del proceso de variación que simboliza.
Para elaborar las reglas del cálculo, Newton visualizó lo que sucedería si un punto en el gráfico de una curva se desplazara hacia un punto cercano.
A medida que empieza el desplazamiento, la pendiente media de la curva entre los dos puntos es el número de unidades de y que les separa verticalmente, dividido por el número de unidades de x que les separa horizontalmente. A medida que el desplazamiento prosigue, ambas distancias en esta fracción disminuyen hacia cero y desaparecen finalmente. Pero esto no quiere decir que la fracción en sí desaparezca. Una relación de 1:2, por ejemplo, no tiene por qué pasar repentinamente a ser cero sólo porque su numerador y denominador se hagan indefinidamente pequeños. La última vez que se supo de ellos, el numerador puede fuera una billonésima y el denominador 2 billonésimas, pero la relación entre ellos todavía continuaba siendo de 1 a 2.
Al hallar el valor a que tiende una fracción a medida que el numerador y el denominador tienden a cero, se le denomina hacer «el paso al límite». Si el numerador es igual a la mitad del denominador, el límite es un medio. Si el numerador es igual 10 veces el denominador, el límite es 10. A medida que se aproximan dos puntos de una curva, las distancias vertical y horizontal entre ellos guardan la misma proporción, por más pequeñas que se hicieran éstas, debido a la relación entre y y x expresada en la ecuación original de la curva. A medida que se aproximan, por lo tanto, la relación de sus distancias tiende hacia un límite definido que puede valorarse en términos de y y x.
Este límite, 1/2 ó 10 o cualquiera que sea, es la pendiente de la curva en el lugar preciso en que ambos puntos coinciden -la tasa de variación de la y con respecto a la x, o dicho de otra forma, la derivada de y con respecto a x-. El sutil mecanismo de razonamiento que permitió a Newton diferenciar ecuaciones y hallar la derivada o valor del límite de la relación -expresado por dy/dx o dy/dt- es el proceso fundamental del cálculo. En forma sucinta puede expresarse así: en una situación en desarrollo, la diferencia entre el estado de cosas en un momento dado y el estado de cosas en el próximo momento es un índice de la tendencia de la situación; y si la relación de las variaciones netas que tienen lugar entre los dos momentos se valora por medio de un límite al que se llega cuando el intervalo entre los dos momentos se supone que tiende a cero, entonces este límite muestra con qué rapidez ocurren los cambios. La lógica del cálculo puede aplicarse a momentos del tiempo, puntos de una curva, temperatura de una situación de gas o en cualquier situación en general que puede relacionarse a través de ecuaciones.
3. El sencillo obsequio de Galileo
La forma en que operan estas reglas, y la justificación de su enorme utilidad, pueden ilustrarse mejor al aplicarlas a la sencilla y clásica ecuación
y = 16 t2
expresada en una forma mucho más sencilla por Galileo Galilei. Esta breve y modesta expresión es una de las más útiles en toda la física, debido a que muestra la forma en que actúa la gravedad sobre cualquier objeto que caiga libremente. Dado que todos los movimientos y cambios en la tierra están muy influenciados por la gravedad, la ecuación del libre descenso tiene indirectamente su importancia en innumerables acciones humanas, desde dar un paso o tirar una pelota de tenis a levantar una jácena o poner un astronauta en órbita.
Calcular el tiempo que emplea un objeto en caer desde una altura determinada es el método más directo para calcular los efectos de la gravedad. Fue esta técnica la que utilizó Galileo, alrededor del año 1585, para llegar a esta ecuación de la caída libre. Según la leyenda, Galileo dejó caer pequeñas balas de cañón desde las columnatas de la torre inclinada de Pisa. Según su propia descripción, utilizó los medios menos imaginativos para cronometrar unas bolas de bronce a medida que descendían por una rampa. Los experimentos de Galileo llevaron a la ecuación de la caída libre, y = 16 tz, en la que y representa la distancia recorrida y t el tiempo transcurrido en segundos después de la iniciación de la caída.
Al diferenciar esta ecuación dos veces -a fin de eliminar sucesivas manifestaciones de cambio e inconstancia- Newton descubrió la naturaleza esencial de la gravedad.
Al diferenciar la ecuación una vez, halló que la velocidad con que cae un saltador en cualquier momento es igual a 9,6 multiplicado por el número de segundos que ha tardado en caer. Al diferenciar la ecuación por segunda vez, halló que la aceleración del saltador -la relación de aumento en su velocidad- es siempre 9,6 m. por segundo, cada segundo. El hecho de que en la ecuación de libre caída la aceleración sea igual a un número constante, 9,6, indica el final de la trayectoria. Este 9,6 no requiere que se diferencie más; no varía, y su proporción de variación es cero. Todo objeto que cae libremente cae a la tierra con una aceleración constante de 9,6 m por segundo, cada segundo.
Al comprobar este hecho por medio del cálculo, Newton fue capaz de fijar sus visiones matemáticas mucho más allá de la tierra y deducir la ley de la gravedad universal -uno de los resultados más importantes que jamás alcanzaran las matemáticas. Es la ley que rige el movimiento de todos los cuerpos celestes- desde los seres humanos en órbita a sistemas enteros de estrellas.
Al contemplar atemorizados lo que una pequeña deducción podía lograr en la mente de Isaac Newton, pensadores de épocas posteriores lo han considerado como el más grande de los físicos y uno de los más grandes matemáticos que jamás haya conocido el mundo. Albert Einstein escribió: «La naturaleza para él era un libro abierto cuyas letras podía leer sin esfuerzo». El propio Newton dijo: «No sé cómo puedo parecer al mundo; pero aparezco ante mis ojos como un muchacho jugando en la playa, y entreteniéndome con un guijarro más liso o una concha más bonita, mientras que el gran océano permanece por descubrir ante mí».
Newton empezó a utilizar su extraordinaria inventiva mientras que todavía era un chiquillo, para hacerse juguetes, incluyendo una clepsidra de madera que, de hecho, registraba el tiempo, y un molino de harina movido por una rata. No obstante, su brillantez no brotó hasta que leyó a Euclides a la tardía edad de 19 años. Dice la historia que se precipitó con impaciencia sobre la relativamente abstrusa Géométrie de Descartes. A partir de entonces su progreso fue meteórico. Cinco años después, había elaborado ya las operaciones básicas del cálculo - las reglas de integración y diferenciación, que denominó las leyes del «cálculo diferencial».
Newton reunió su gran invento y lo aplicó en una forma preliminar a los problemas del movimiento y de la gravitación en un esfuerzo supremo de creatividad durante dos años, que vivió en el campo durante la epidemia de peste que asoló a Inglaterra en 1665 y 1666. En retrospectiva parece como si todo el marco de la ciencia moderna surgiera de su mente tan milagrosamente como un genio de los cuentos árabes de dentro de una botella. Pero como el propio Newton dijo, «él estaba colocado sobre los hombros de gigantes». Muchos hombres se han debatido con los mismos problemas; fue su genio quien fundiera sus inspiraciones separadas. Los procesos gemelos de la diferenciación e integración en el cálculo, por ejemplo, fueron arraigados en dos preguntas clásicas de la antigüedad griega: cómo construir una tangente y cómo calcular un área que está rodeada en uno de sus lados por una curva. El problema de la tangente o línea de «contacto» era equivalente al problema de hallar la pendiente de una curva en cualquier punto y, por lo tanto, al de hallar la derivada de una ecuación. El problema del área era equivalente al problema de integrar la ecuación que da la tasa de crecimiento de un área.
4. Una cubeta de infinitesimales
Al considerar toda curva como una sucesión de infinitos segmentos pequeños, o toda área como una acumulación de infinitas partes pequeñas, los griegos - particularmente Arquímedes - habían solucionado un número de problemas específicos en torno a las tasas de variación. Los matemáticos de los siglos XVI y XVII utilizaron también métodos infinitesimales, aunque raras veces a través de las rigurosas pruebas griegas.
Kepler, por ejemplo, utilizó los infinitesimales para dar a los viñateros una fórmula para calcular el volumen de las cubas. En la época de Descartes, y en los quince años siguientes a su muerte, su compatriota Pierre de Fermat y el inglés John Wallis, habían empezado a utilizar los infinitesimales en los útiles moldes analíticos de ecuaciones. Después, alrededor del año 1663, el profesor de Newton en Cambridge, Isaac Barrow, pasó a ser el primer hombre en darse cuenta de que el problema de la tangente y el problema del área son dos caras de la misma moneda.
Cuando Newton empezó por primera vez a unificar todas estas profundizaciones preliminares en la única y bien articulada estructura del cálculo, mostró a Barrow algunos de sus primeros resultados. Barrow se entusiasmó tanto que generosamente hizo saber en Cambridge que Newton había hecho lo que él fracasara en hacer. Años después, en 1669, cuando se retiró, cooperó para que nombraran a Newton su sucesor en la cátedra de matemáticas en la Universidad.
A partir de entonces llegaron a Newton honores e inspiraciones en un caudal continuo. En las cuatro décadas siguientes formuló la ley de la gravitación y la utilizó para explicar los movimientos de los planetas, la luna y las mareas; analizó el espectro de color de la luz, construyó el primer telescopio (que reflejaba), desarrolló innumerables experimentos de alquimia; trató de reconciliarse con las Escrituras sobre la época, 4004 a. de c., que corrientemente se aceptaba como la fecha de la creación de Adán; actuó como miembro del Parlamento; fue nombrado gobernador de la Casa de la Moneda Británica; caballero por la reina Ana en 1705 y le eligieron presidente del club científico británico, la Royal Society, desde 1703, hasta su muerte en 1727.
Aunque es bastante extraño, Newton reveló sus monumentales descubrimientos a sólo unos cuantos colegas. Se ha dicho que siempre estuvo demasiado ocupado con nuevas ideas para hallar tiempo de escribir las viejas, y que le desagradaban en grado sumo las luchas y las críticas que se originaban inevitablemente en aquellos días en torno a las manifestaciones científicas. Después, también, no era demasiado hablador. Mientras estuvo en el Parlamento su única declaración fue una petición para que abrieran la ventana. En una ocasión, el astrónomo Edmund Halley fue a verle para preguntar si sabía qué camino tomaría un planeta alrededor del sol, en el supuesto de que la única fuerza que le influyera fuese una fuerza que disminuye en relación al cuadrado de su distancia respecto al sol. Newton dio la respuesta inmediatamente: la trayectoria sería elíptica.
Cuando se le preguntó cómo lo sabía, explicó que casualmente había elaborado el problema años antes, siendo un estudiante de grado. En otras palabras, había elaborado una de las leyes fundamentales del universo y no lo había dicho a nadie; alentado por Halley para que volviera a crear sus cálculos originales, siguió hasta producir su obra maestra, la Principia.
La Principia de Newton se reconoce generalmente como la obra científica más influyente, conclusiva y revolucionaria que jamás apareciera impresa. En ésta, no tan sólo explicó por qué el sistema solar opera de la forma en que lo hace, sino que también estableció las leyes de la dinámica que todavía son los ingredientes principales de la física de la ingeniería práctica.
La mayor parte de estas leyes las elaboró Newton por medio del cálculo, pero, al igual que Arquímedes antes que él, prefirió presentar su trabajo como una extensa demostración griega, redactada casi totalmente en términos de la geometría clásica.
Ni siquiera las hábiles instigaciones de Halley pudieron convencer a Newton para que publicara su cálculo, hasta que otro matemático, el alemán Gottfried Wilhelm Leibniz, hubiera vuelto a crear toda la maquinaria mental. Leibniz inventó el cálculo diez años después de Newton, en 1675, y en 1684 publicó su versión veinte años antes de que Newton se decidiera a dar la primera explicación de su propia versión.
Al igual que Newton, Leibniz tuvo tanto éxito y fue tan práctico como las matemáticas que descubrió. Hijo de un acomodado catedrático de universidad, aprendió griego y latín a la edad de 12 años, asistió a la universidad, se graduó en leyes y siguió hasta llegar a ser consejero de reyes y princesas.
Viajó por toda Europa investigando linajes dudosos para establecer los derechos de los pequeños príncipes a los tronos vacantes. Formuló muchos de nuestros modernos principios del poder de la política internacional - incluyendo la frase «equilibrio de poderes» -. En sus viajes a París, estudió álgebra y geometría analítica bajo la dirección del gran físico de óptica Christian Huygens. Y mientras viajaba en misiones diplomáticas, creó nuevas matemáticas simplemente como entretenimiento, incluyendo su propia versión del cálculo.
Aunque Newton consiguió mucho más con el cálculo que Leibniz, éste tuvo una notación superior para aquél - una que pulió tan cuidadosamente que todavía la utilizamos en la actualidad -. Fue Leibniz quien primero escribió las derivadas así: dy/dx o dx/dy , formas que sugieren las mediciones en forma de fracción de la tasa de derivación a las que hacen referencia . Los puntos en el simbolismo de Newton llevaron a los estudiantes del siglo XIX en Cambridge a protestar contra «los puntos» de la notación inglesa y a defender las «d» de la notación continental.)
Desgraciadamente, Newton y Leibniz, en sus últimos años, se embrollaron en una disputa patriotera en torno a quién fue el primer descubridor. El resultado fue que los intelectuales en el continente, apoyados por la notación de Leibniz, prosiguieron hasta desarrollar el cálculo mucho más, mientras que los matemáticos ingleses, con el estorbo de la menos feliz notación ideada por Newton, se encontraron en un atolladero.
5. Saludo a la garra de un león
La supremacía de la aproximación continental no surgió, sin embargo, mientras vivió Newton. Por lo menos dos veces después de haberse desencadenado la rivalidad, Leibniz y sus seguidores expusieron problemas con los que esperaban dejar patidifuso a Newton. Cada vez Newton obtuvo las respuestas en una sola tarde después de regresar a casa de su trabajo en la Casa de la Moneda. Uno de estos problemas era uno particularmente demoníaco: hallar la forma de la curva bajo la cual se deslizara una cuenta bajo la influencia de la gravedad para moverse desde un punto superior a uno inferior en el menor tiempo posible. El problema era importante por ser de los primeros ejemplos de «problemas de máximos y mínimos» que en la actualidad ocupan a los matemáticos - maximizar la productividad industrial o minimizar la cantidad de combustible requerida para alcanzar la luna -. Newton solucionó el problema en una noche y transmitió su solución. Al recibirse, Johann Bernoulli, el discípulo de Leibniz que había expuesto el problema, según se dice, manifestó «Tanquam ex ungue leonem» que traducido libremente significa «reconozco al león por sus garras».
Los lógicos de la siguiente generación criticaron agudamente tanto a Newton como a Leibniz por haber utilizado los equivalentes de infinitesimales - por haber añadido cosas no existentes para crear las partes de las áreas y por haber transformado las tasas de variación en pendientes instantáneas medidas prescindiendo totalmente del tiempo.
El metafísico irlandés George Berkeley, en un ensayo titulado «El analista», examinó la lógica del «cálculo diferencial» de Newton y concluyó: «No son ni cantidades finitas, ni cantidades infinitamente pequeñas, ni siquiera nada: ¿no podemos llamarlas los fantasmas de cantidades difuntas?».
Los matemáticos del siglo XIX iban a satisfacer tales críticas al invocar nuevos estándares de rigor para el cálculo. Pero mientras resistió la prueba del éxito, funcionó. Al utilizar el cálculo, los científicos explicaron todo proceso natural como una secuencia de acciones y reacciones, de causas y efectos. La naturaleza, no obstante, no puede determinarse por medio de este sencillo procedimiento mecánico. Todo el mundo sabe que hay accidentes en las fuerzas que producen el movimiento. Pero las leyes de estos accidentes son también matemáticas y los matemáticos contemporáneos de Newton y Leibniz estaban elaborando las leyes de la probabilidad.