física (ger).doc

30
FÍSICA Introducción Física deriva del griego phisis, naturaleza; en sentido lato es, pues, el estudio de la naturaleza o universo sensible. Sin embargo, en el sentido estricto en que se la entiende actualmente es necesario introducir dos restricciones: en primer lugar, se excluye el punto de vista filosófico, reservado a otra disciplina, la Cosmología, quedando así incluida la Física entre las ciencias empíricas. Pero aún no basta; es necesaria una nueva restricción, por la que se excluye del campo de la Física el estudio de los seres vivos como tales, reservado a otra ciencia empírica, la Biología. Con criterio epistemológico riguroso debería detenerse aquí el análisis, pero por razones más bien pragmáticas, desde tiempo atrás se ha tenido que desgajar del cuerpo de la Física un gran capítulo con el nombre de Química. La verdad es que los criterios que pretenden diferenciar la Física general de la Química no son muy satisfactorios y que cuanto más progresan una y otra disciplina su frontera se hace más imprecisa. Aquí vamos a considerar la Física reducida a su campo más restringido, con lo que podemos dar de ella la siguiente definición: “es la ciencia empírica que estudia las propiedades generales y comunes a todos los cuerpos”, diferenciándose concretamente de la Química en que ésta se ocupa de las propiedades específicas, es decir, no comunes, de los mismos cuerpos, aunque es necesario puntualizar que las propiedades comunes a las que nos referimos no se manifiestan idénticas, por lo menos cuantitativamente, en todos ellos. Desarrollo histórico Antigüedad. Aunque en las antiguas civilizaciones del Oriente Medio empezaron a florecer las ciencias de la naturaleza, sobre todo la Astronomía y tal vez la Medicina, no es posible descubrir ningún antecedente de lo que hoy entendemos por Física. Es necesario llegar a Grecia, cuyos

Upload: josecito1971

Post on 09-Jul-2016

3 views

Category:

Documents


0 download

DESCRIPTION

Interesante artículo.

TRANSCRIPT

Page 1: Física (GER).doc

FÍSICA

Introducción

Física deriva del griego phisis, naturaleza; en sentido lato es, pues, el estudio de la naturaleza o universo sensible. Sin embargo, en el sentido estricto en que se la entiende actualmente es necesario introducir dos restricciones: en primer lugar, se excluye el punto de vista filosófico, reservado a otra disciplina, la Cosmología, quedando así incluida la Física entre las ciencias empíricas. Pero aún no basta; es necesaria una nueva restricción, por la que se excluye del campo de la Física el estudio de los seres vivos como tales, reservado a otra ciencia empírica, la Biología. Con criterio epistemológico riguroso debería detenerse aquí el análisis, pero por razones más bien pragmáticas, desde tiempo atrás se ha tenido que desgajar del cuerpo de la Física un gran capítulo con el nombre de Química. La verdad es que los criterios que pretenden diferenciar la Física general de la Química no son muy satisfactorios y que cuanto más progresan una y otra disciplina su frontera se hace más imprecisa. Aquí vamos a considerar la Física reducida a su campo más restringido, con lo que podemos dar de ella la siguiente definición: “es la ciencia empírica que estudia las propiedades generales y comunes a todos los cuerpos”, diferenciándose concretamente de la Química en que ésta se ocupa de las propiedades específicas, es decir, no comunes, de los mismos cuerpos, aunque es necesario puntualizar que las propiedades comunes a las que nos referimos no se manifiestan idénticas, por lo menos cuantitativamente, en todos ellos.

Desarrollo histórico

Antigüedad. Aunque en las antiguas civilizaciones del Oriente Medio empezaron a florecer las ciencias de la naturaleza, sobre todo la Astronomía y tal vez la Medicina, no es posible descubrir ningún antecedente de lo que hoy entendemos por Física. Es necesario llegar a Grecia, cuyos filósofos trataron de interpretar el funcionamiento del Universo, bien que haciendo uso de métodos que hoy nos parecen demasiado especulativos. En época tan precoz como el siglo V a.C. Demócrito de Abdera concibe su atomismo, apoyado únicamente sobre razonamientos filosóficos falsos, pero que resulta una especie de precedente de teorías físicas modernas. Menos de un siglo después aparece su genial oponente Aristóteles, que fue el primer organizador sistemático de la Física propiamente dicha, a la que dio incluso el nombre que todavía conserva. La Física de Aristóteles dejó una huella tan profunda en el desarrollo del pensamiento científico occidental que no puede prescindirse de ella, pese al descrédito en que ha caído modernamente. Ante todo es preciso reconocerle el mérito de haber visto la importancia de la experiencia en el desarrollo científico, sin despreciar el papel reservado a la razón. Combatió el atomismo imponiendo una interpretación continuista de la naturaleza.

Las directrices de la Física aristotélica, prescindiendo del rasgo citado que le imprime su carácter propio, pueden resumirse en los siguientes términos: las leyes por las que se rige el mundo sublunar no son las mismas que rigen para los astros; el movimiento natural de los astros, que nada puede perturbar, es el movimiento circular uniforme, el movimiento perfecto. El movimiento local es el cambio de lugar en el espacio. Todo cuerpo tiene señalado en el mundo sublunar su lugar propio; si el cuerpo se encuentra en su lugar propio permanece en reposo; si se encuentra fuera, tiende a ocuparlo espontáneamente y adquiere un movimiento natural, para lo cual no se requiere la intervención de ninguna fuerza. Un

Page 2: Física (GER).doc

movimiento que se opone al movimiento natural de un cuerpo es un movimiento forzado y no se produce sin intervención de una fuerza. El lugar propio de los cuerpos pesados está “hacia abajo”, y el de los cuerpos ligeros “hacia arriba”. En cuanto a la estructura de los cuerpos, en el plano físico no pasa de la consideración de los cuatro elementos: tierra, agua, aire y fuego, recibidos de la filosofía anterior. La teoría de la materia prima y la forma sustancial pertenece al plano metafísico (hilemorfismo). Otra particularidad curiosa es la afirmación de que la naturaleza tiene “horror al vacío”. Los fenómenos físicos de orden mecánico se explican con la intervención de fluidos imponderables. La electricidad y el magnetismo son desconocidos; las propiedades del ámbar y de la piedra-imán son simples curiosidades.

El sistema aristotélico siguió vigente en líneas generales durante los siglos siguientes, y si pueden citarse algunas figuras como Arquímedes (siglo III a.C.), a quien se debe la ley de la palanca y, sobre todo, el descubrimiento del empuje hidrostático, que le colocan muy por encima de la ciencia de su tiempo, y a Herón (siglo II a.C.), que realizó estimables progresos en hidráulica, en realidad cambiaron muy poco las ideas generales reinantes.

La Edad Media. Durante la Edad Media la Física de Aristóteles, como su Filosofía, se convirtió en doctrina indiscutible. Pero en Física perdió mientras tanto lo único bueno que había en ella, su apelación a la experiencia, que fue sustituida por la apelación a la autoridad del maestro; ello fue a causa del poco progreso de la ciencia experimental en esta época, que en cambio fue muy brillante para las ciencias del espíritu: el Derecho, la Filosofía y la Teología alcanzaron gran desarrollo y llegaron a verdaderas cimas. Algunas figuras del Prerrenacimiento insinuaron cierto cambio de mentalidad, como San Albert Magno (1193-1280) y sobre todo Roger Bacon (1214-1294), que sentó teóricamente las bases de la ciencia experimental, y a quien se puede considerar como precursor de los nuevos métodos.

El Renacimiento. Tres siglos más tarde, ya en pleno Renacimiento, Francis Bacon (1560-1626), se propuso cancelar con el Novum Organum el antiguo Organum aristotélico, sustituyéndolo por una metodología estrictamente experimental. Un siglo antes se había levantado la figura solitaria de Leonardo da Vinco (1452-1519), genio enciclopédico típico del Renacimiento, que obtuvo resultados positivos en el campo de la verdadera Física, llegando incluso a diseñar aparatos hidráulicos y máquinas voladoras. En la historia de la Física tiene aún mayor interés Simón Stevin (1548-1620), conocedor de cosas tan importantes como la ley del paralelogramo, la de los vasos comunicantes, la paradoja hidrostática, etc. Sin embargo, los verdaderos sistematizadores de la nueva ciencia fueron Galileo Galilei (1564-1642) y Johannes Kepler (1571-1630), sistematización que culminó un siglo más tarde con Isaac Newton. Galileo trató de organizar la Mecánica a partir de la ley de inercia, que supo formular claramente y le situó en abierta oposición con la doctrina física de Aristóteles. Formuló las leyes del péndulo y en parte de la caída de los cuerpos (1590). Kepler, por su parte, ajustándose al más ortodoxo método empírico, enunció sus tres célebres leyes del movimiento planetario (1609).

Siglos XVII al XIX. La Mecánica. Ya hemos indicado que la Física adquirió por primera vez su forma que hoy llamamos “clásica” por obra de Newton y sus contemporáneos, es decir, en el siglo XVII, que fue el siglo de oro de la Mecánica; si bien en la misma época empezaron a elaborarse la óptica y la Electricidad, así como también el

Page 3: Física (GER).doc

estudio del calor. Antes de Newton hay que señalar la obra de René Descartes (1596-1650), para quien la base de la Mecánica es su desacertada ecuación entre la fuerza y la cantidad de movimiento.

Isaac Newton (1643-1727) es una de las figuras culminantes en la historia de la Física: su Mecánica resistió incólume cuatro siglos y todavía hoy sigue siendo válida en el dominio de las pequeñas velocidades y de los sistemas macroscópicos. Descansa sobre los tres postulados: ley de inercia, ecuación fundamental de la Dinámica y principio de acción y reacción, y se desarrolla por vía matemática. Como sustrato para este desarrollo aparecen los conceptos explícitamente formulados del espacio absoluto y del tiempo absoluto. No menos valiosa que la elaboración de la Mecánica racional general es la formulación de la ley de la gravitación universal en 1686. Hay una faceta en la obra de Newton que no se puede pasar por alto: su descubrimiento del cálculo diferencial en la forma de la teoría de las fluxiones, porque se trata del instrumento inventado expresamente para construcción de la Mecánica. Dos siglos más tarde, en 1851, Charles Foucault llevó a cabo un espectacular experimento para poner evidencia el movimiento absoluto de rotación de la Tierra, de acuerdo con las ideas de Newton, haciendo oscilar un largo péndulo bajo la cúpula de los Inválidos de París. Algunos problemas especiales habían sido atacados con anterioridad, como, por ejemplo, el choque elástico, cuya teoría dio Christian Huygens en 1655, o lo fueron después, como las leyes del rozamiento, formulada por Charles Auguste de Coulomb en 1770, o las del giróscopo por H. L. Fizeau en 1852.

La Mecánica de Newton recibió una forma muy elegante en la obra de Jean-Baptiste D’Alambert, autor de un principio que reduce formalmente la Dinámica a la Estática, y principalmente en la de Jean Louis de Lagrange (1736-1813), a quien se debe la formulación de las ecuaciones fundamentales en coordenadas generalizadas, y la más brillante aplicación en la Mecánica celeste de Pierre Simon de Laplace (1749-1827). Esta disciplina alcanzó su máxima perfección, más adelante, con los trabajos de William Hamilton (1805-1865) y Carl Gustav Jacobi (1804-1851), sobre todo con el enunciado de los principios de mínima acción (1834), que viene a ser una generalización del que había sido propuesto en 1747 por P. L. Maupertius, y tal vez antes por Leibniz (1707). Paralelamente al desarrollo de la Mecánica del punto material y de los sistemas rígidos, se iba desenvolviendo la Mecánica que hoy llamamos “de medios continuos”. La ley fundamental de la elasticidad fue encontrada por Robert Hooke hacia 1680, y en el mismo campo trabajaron sucesivamente Thomas Young, S. D. Poisson y G. Lamé, entre otros.

Por otro lado, se iba organizando también el estudio de los gases y líquidos, que pronto iba a desembocar en la Termodinámica. Blaise Pascal (1623-1662) debe ser considerado como el verdadero fundador de la Hidrostática, cuyo principio fundamental le debemos. El experimento de Evangelista Torricelli sobre la presión atmosférica data de 1643; Edmond Mariotte nació en 1620 y Robert Boyle en 1627; John Dalton en 1766 y Jaques Louis de Gay-Lussac en 1778: las leyes que llevan sus nombres respectivos constituyen las bases de estas disciplinas. La Mecánica de los fluidos perfectos encontró su formulación definitiva por obra de Leonhard Euler (1707-1783) y Lagrange, y sobre todo con la ecuación de Bernouilli (1738), completada más tarde para fluidos reales, al tener en cuenta la viscosidad, por H. Navier (1827), S. D. Poisson (1831) y G. G. Stokes (1845). La Hidrodinámica física ha progresado después por obra de C. A. Reynolds (1842-1912), L. Prandlt (1877-1953), O. W. Richardson (1879-1959) y T. von Karman (1881-1963), sobre todo en lo que se refiere al difícil problema de la capa límite.

Page 4: Física (GER).doc

Daniel Bernouilli (1700-1782), que había iniciado el cálculo de probabilidades, inició también la teoría cinética de los gases en 1738, la cual tuvo un rápido desarrollo en manos de James Clerk Maxwell (1831-1879), Ludwig Boltzmann (1844-1906) y otros. La teoría cinética abandona el punto de vista del medio continuo y se inscribe decididamente del lado del atomismo, revalorizado por Dalton (1766-1844) en el campo de la Química, y sobre el cual se habían apoyado también J. D. Van der Waals, al proponer su ecuación del estado para gases reales (1738), y Amadeo Avogadro (1776-1856), con su atrevida hipótesis acerca del número de moléculas gaseosas contenidas en un recinto. Esto no obsta para que los investigadores siguiesen usando la técnica de la continuidad como recurso metodológico muy eficaz.

La teoría del calor. El estudio del calor y de la Termología al principio iba más atrasado; se seguía considerando el calor como un fluido imponderable e indestructible, al que se llamaba calórico, capaz de acumularse en los cuerpos y de pasar de unos a otros. El mismo Saadi Carnot, que publicó su famosa ley de rendimiento térmico en 1824, lo hizo sin abandonar ese punto de vista. Abundaron las investigaciones experimentales, empezando por el fenómeno de la dilatación y la definición de la temperatura (A. Celsius, 1742). Siguieron después los trabajos sobre cambios de estado físico, con el descubrimiento del punto crítico por Charles Cagniart de la Tour en 1882, la regla de las fases (J. W. Gibbs, 1876) y las leyes de F. M. Raoult (1886). Los calores específicos y los calores latentes fueron objeto al mismo tiempo de cuidadosas medidas por parte de distintos experimentadores, y P. L. Dulong y J. L. Petit publicaron su ley sobre los calores molares en 1818. El problema de la propagación del calor fue estudiado por J. B. Fourier (1778-1830).

La Termodinámica, siguiendo la pauta de la Mecánica de fluidos, empezó a desenvolverse siguiendo dos direcciones independientes. La Termodinámica analítica se proponía formular algunos principios apoyados directamente sobre la experiencia y deducir de ellos todas sus consecuencias. El principal organizador de la nueva disciplina fue Rudolf Clausius (1822-1888), que la estableció hacia 1850 sentando como primer principio el de la equivalencia entre calor y trabajo, que había sido propuesto por R. Mayer en 1842 y comprobado experimentalmente por J. P. Joule en 1850. El segundo principio es una interpretación muy amplia de la ley de Carnot sobre el rendimiento térmico, establecida sobre el concepto de entropía, introducido por Clausius. Más tarde, en 1898, Wihelm Nernst introdujo el llamado tercer principio, al que posteriormente dio Max Planck (1912) una nueva formulación. Dentro de este orden de ideas había que renunciar a la interpretación sustancial del calor y considerarlo como una forma de la energía, punto de vista reconocido explícitamente por Hans Helmholtz en 1847. Otras aportaciones valiosas de la Termodinámica analítica fueron las de B. Clapeyron (1799-1864), cuya ecuación para los cambios de fases data de 1834, y de lord Kelvin (William Thomson, 1824-1907) a quien se debe el concepto de temperatura absoluta.

La Termodinámica estadística fue sistematizada vigorosamente por Maxwell (1831-1879) y Boltzmann, que interpretaron de acuerdo con la teoría cinética los conceptos de presión y temperatura y establecieron la ley de equipartición de la energía. De esta forma proporcionaron una explicación del movimiento browniano, descubierto en 1827, que resultaba incompatible con el segundo principio en su forma analítica. A Boltzmann se debe, además, la expresión de la entropía en términos de probabilidad. Muchos de los investigadores citados como cultivadores de la Termodinámica analítica se distinguieron al mismo tiempo en el campo de la Termodinámica estadística, pues una y otra no son

Page 5: Física (GER).doc

incompatibles. Poco después, Gibbs (1839-1903) estructuró la Termodinámica estadística, definitivamente incorporada a la Mecánica como un cuerpo de doctrina perfecto: introdujo por primera vez en la Física el uso de espacios abstractos y abrió el camino a la futura Mecánica cuántica. La consideración del espacio de las fases ha sido una de las ideas más fecundas y revolucionarias.

La Acústica. Otra rama de la Física también absorbida por la Mecánica fue la Acústica. Una vez reconocido que la causa de los sonidos reside en el movimiento vibratorio de los medios elásticos, no hubo razón física para reservar un dominio especia a la acústica musical, sino que las vibraciones supersónicas (ultrasonido) y subsónicas deben alinearse con las vibraciones sonoras en pie de igualdad. Ernst Mach (1838-1916) reconoció la importancia que la velocidad del sonido juega en Aerodinámica y describió las ondas de choque.

El análisis de las características del sonido, en particular del timbre, fue iniciado por Helnibritz, quien demostró en 1859 que todos los sonidos resultan de una vibración fundamental a la que se superponen varios armónicos, idea inspirada en el análisis armónico de J. B. Fourier. El registro gráfico de las vibraciones sonoras fue llevado a cabo por F. Kónig (1770-1833), y la reproducción fue lograda por primera vez de modo puramente mecánico por Thomas Alba Edison (fonógrafo, 1877). Las medidas de la velocidad del sonido se llevaron a cabo con métodos acústicos, es decir, empleando el oído humano como detector; dicha velocidad, característica para cada medio, se ha convertido en un parámetro elástico y termodinámico de gran importancia. El efecto Doppler fue descubierto en 1842 para las ondas sonoras, aunque después ha podido generalizarse a todo movimiento ondulatorio.

La óptica. La eclosión de la óptica y el estudio de la luz se manifestó con una serie de descubrimientos de orden experimental: las leyes de la reflexión de la luz eran conocidas desde tiempo inmemorial; las de la refracción fueron presentadas por René Descartes, cuyo nombre muchas veces llevan, aunque habían sido descubiertas por W. Snell en 1621. Las relaciones existentes entre el índice de refracción y la longitud de onda no fueron investigadas hasta mucho más tarde. En Descartes se encuentra también el fenómeno de la reflexión total. Todos estos conocimientos se sintetizan en el principio de Fermat, enunciado por ese físico en 1658. Los fenómenos de polarización por reflexión fueron estudiados por E. L. Malus en 1808 y por D. Brewster en 1812 y la doble refracción del espato de Islandia, descubierta por E. Bartholinus (1625-1698), fue estudiada por W. H. Wollaston y W. Nicol con vistas a la polarización por refracción y a la óptica cristalina. La refracción cónica fue dada a conocer por H. Lloyd en 1833, y la polarización rotatoria fue estudiada por J. Tyndall (1820-1893) y perfeccionada por lord Rayleigh (1842-1919), que dio la ley de la cuarta potencia en 1881.

Newton había descubierto los anillos de interferencia que llevan su nombre, pero fueron Thomas Young (1773-1829) Agustin de Fresenl (1778-1827) quienes experimentaron de modo completo sobre los efectos de difracción y de las interferencias. Por otra parte, Olaf Römer había medido la velocidad de luz en 1675 por la observación de los eclipses de los satélites de Júpiter, y J. Bradley lo hizo en 1728, utilizando el fenómeno astronómico de la aberración, y A. H. Fizeau en 1849 y J. B. Foucault en 1854, por medio de ingeniosos dispositivos de laboratorio.

Como se ve, todos los descubrimientos citados se refieren a la propagación de la luz en el vacío o a través de la materia. El fenómeno de la emisión de la luz, es decir, de su producción, merece consideración aparte. En 1666 Newton había llevado a cabo el

Page 6: Física (GER).doc

experimento de la descomposición de la luz solar por medio del prisma, pero hasta 1802 no se descubrió la mejora esencial de hacer pasar la luz incidente a través de una estrecha rendija, dispositivo ideado por W. H. Wollaston y con el cual J. Fraunhofer descubrió en 1815 las famosas rayas oscuras que llevan su nombre. Estos trabajos fueron completados por A. J. Angström (1814-1854), que dedicó casi toda su actividad investigadora a la exploración del espectro solar y ha dado nombre a la unidad que se usa para la medida de longitudes de onda. Más tarde, hacia 1861 R. W. Bunsen y G. R. Kirchhoff iniciaron el análisis espectral, y el último publicó la ley de la absorción que lleva su nombre. El espectroscopio de prisma fue sustituido, con gran ventaja, por el de rejilla de difracción hacia 1880 por el mismo Fraunhofer, y llevado a la perfección por H. A. Rowland.

El espectro luminoso fue ampliado en ambos sentidos, el de los longitudes de onda largas y el de las cortas (rayos ultravioletas e infrarrojos, respectivamente). F. W. Herschel encontró las radiaciones infrarrojas en 1800 y J. W. Ritter las ultravioletas en 1801, aunque al principio no se reconoció su identidad de naturaleza con las radiaciones luminosas y fueron calificadas de ondas caloríficas y de ondas actímicas o químicas, respectivamente. La exploración del espectro infrarrojo se hizo principalmente con el bolómetro de S. P. Langley (1857) y el radiómetro de J. A. D’Arsonval (1886), mientras que para la del ultravioleta bastaba con la placa fotográfica.

Los espectros de rayas habían sido considerados al principio como signos útiles para la identificación de los elementos químicos, pero su distribución, tan desordenada a primera vista, era un enigma. J. J. Balmer, en 1885, encontró la primera regularidad en el espectro del hidrógeno con la serie que lleva su nombre, a la que siguieron las de F. Paschen y J. Lyman. El problema de la distribución de la energía en función de la longitud de onda y de la temperatura para un espectro continuo empezó a preocupar a los investigadores. Gustav R. Kirchhoff había dado una solución en 1860 que sólo se ajustaba bien con la observación para grandes longitudes de onda, y Ludwig Boltzmann, en 1884, otra válida para las ondas cortas. J. Stefan publicó su ley de la cuarta potencia de la temperatura para la radiación total en 1879 y Wilhelm Wien la suya del corrimiento del máximo en 1893.

El problema de la velocidad de la luz también fue objeto de nuevas investigaciones. A. H. Fizeau, en 1851, trató de estimar la influencia del movimiento del medio transmisor (agua) y comprobó un arrastre parcial del éter, que quedó sin explicación satisfactoria. Finalmente, el estudio de los fenómenos de fluorescencia y fosforescencia, que tanta importancia han adquirido posteriormente, fue iniciado por P. Lenard en 1851 y por Henri Becquerel (1852-1908).

Paralelamente a este brillante desarrollo experimental aparecía la óptica teórica con dos orientaciones antagónicas: Newton patrocinó la teoría corpuscular de la luz, o de la emisión, mientras su contemporáneo Christian Huygens (1629-1695) defendió la teoría ondulatoria y enunció el famoso principio que lleva su nombre. Pese a las serias dificultades con las que tropezaba la teoría corpuscular para dar explicación de muchos de los fenómenos observados, la gran autoridad de Newton hizo que se impusiera durante bastante tiempo. Sin embargo, cuando Fresnel logró presentar una teoría ondulatoria completa y coherente, que explicaba todos los fenómenos entonces conocidos, y llegó a la audacia de medir longitudes de onda, la evidencia se impuso. La pieza esencial de la teoría de Fresnel es el éter inmóvil, que llena los espacios cósmicos. El éter, dotado de propiedades contradictorias, era una sustancia difícil de concebir. El panorama cambió cuando James Clerk Maxwell en 1864 publicó la teoría electromagnética de la luz; el éter elástico de Fresnel fue sustituido simplemente por el éter electromagnético, también

Page 7: Física (GER).doc

inmóvil. La teoría de Maxwell era satisfactoria para la óptica del vacío, pero presentaba dificultades cuando se intentaba aplicar a la propagación en los medios materiales. En 1895 Hendrik A. Lorentz decidió completar la teoría de Maxwell con la conspiración de los electrones, que por aquel entonces iban siendo conocidos, y obtuvo un éxito completo. Con todo esto la óptica pasó a ser un simple capítulo de la Electricidad.

El electromagnetismo. La historia de la electricidad se remonta todo lo más a mediados del siglo XV, cuando esta palabra empezó a usarse. Los primeros fenómenos conocidos se refieren a la electrización por frotamiento, y pronto se reconoció la existencia de dos clases de electricidad, que fueron bautizadas con los calificativos de vítrea y resinosa y más tarde con los de positiva y negativa, asignándole los signos + y -. Benjamín Franklin (1709-1790) fue uno de los primeros investigadores en este campo; reconoció que el rayo y el trueno son fenómenos eléctricos e inventó el primer pararrayos. Se sabía que las electricidades del mismo nombre se repelen, y las de nombre contrario se atraen, y se conocían los fenómenos de influencia (electrostática). Otto de Guericke construyó la primera máquina electrostática en 1671, a la que siguieron otras hasta llegar a la de Wimshurst (1883). La ley fundamental de la electrostática en forma cuantitativa fue propuesta por Charles Auguste de Coulomb en 1785, mientras Michael Faraday (1791-1867) daba una interpretación intuitiva del campo electrostático con sus líneas de fuerza, y S. D. Poisson construía la teoría matemática del potencial en 1811.

Casi al mismo tiempo que se trataba de explorar el campo eléctrico empezaron los trabajos sobre la corriente eléctrica. L. Galvani realizó su experimento con ranas y un arco biometálico en 1786 y Alessandro Volta (1745-1827) encontró el efecto de la electrización por contacto en 1791 y construyó la primera pila en 1800. Durante cierto tiempo se tendía a explicar los fenómenos eléctricos mediante la teoría de los dos fluidos; después se pensó que bastaba con uno solo. La corriente eléctrica sería el paso del polo positivo (cobre en la pila de Volta) al negativo (cinc). Más tarde hubo de reconocerse que las cosas no son tan sencillas.

La corriente eléctrica, aunque invisible en sí misma, produce tres tipos de efectos perfectamente perceptibles: en primer lugar, Henry Davy en 1795 había descompuesto el agua haciendo pasar una corriente eléctrica a través de una disolución diluida de ácido sulfúrico, comprobándose luego que descomposiciones químicas más o menos complicadas se producen siempre al paso de una corriente por una disolución de un ácido, una base o una sal (electrólisis). En segundo lugar, una aguja magnética se desvía cuando pasa una corriente eléctrica por un conductor cercano, hecho descubierto por Hans Christian Oersted en 1820, de donde se puede deducir el sentido de la corriente. Por último, los conductores metálicos se calientan al ser atravesados por una corriente eléctrica, de acuerdo con la ley formulada por James Prescott Joule en 1840. A estos efectos generales hay que añadir otros especiales, que se fueron conociendo poco a poco, y que tienen como característica común el ser reversibles: el efecto Seebeck fue encontrado por este físico en 1826 y sirve de fundamento a las pilas termoeléctricas; el efecto Peltier, en 1834 (es el inverso del efecto Volta antes citado); el efecto Thomson, en 1854.

En 1826 fue descubierta la ley de Ohm y en 1831 Faraday descubrió la inducción electromagnética y la autoinducción, formulando las leyes que rigen estos fenómenos, así como las leyes de la electrólisis (1833). André Marie Ampère (1775-1836) sistematizó todos los conocimientos de la época y muy especialmente las relaciones entre la electricidad y el magnetismo, formulando el teorema fundamental que lleva su nombre, del que se deduce la ley de Biot y Savart, conocida desde 1820.

Page 8: Física (GER).doc

La teoría matemática completa del campo electromagnético fue establecida en 1861 por James Clerk Maxwell, quien introdujo la noción de “corriente de desplazamiento” y anunció la existencia de las ondas electromagnéticas, encontradas por Heinrich Hertz en 1887. La obra de Maxwell en electromagnetismo es comparable con la de Newton en Mecánica.

El descubrimiento del electrón constituye uno de los hitos principales en la historia de la Física. Estudiando la descarga eléctrica a través de tubos llenos de gas enrarecido, J. Plücker descubrió los rayos catódicos en 1858. Pronto se reconoció que están constituidos por partículas diminutas cargadas negativamente e idénticas, cualquiera que sea la naturaleza química del gas que llena el tubo y del cátodo empleado. En 1887 Hertz descubrió el efecto fotoeléctrico y poco después se encontraba el efecto termoiónico, ambos con desprendimiento de electrones. Poco antes, en 1883, Svante Arrhenius propuso una ingeniosa explicación del paso de la corriente a través de los electrólitos (ionización), y llamó iones a los restos moleculares cargados. Por último, en 1898 J. J. Thomson consiguió medir con exactitud la masa y la carga del electrón y formuló una teoría completa. A partir de este momento muchos investigadores dedicaron sus esfuerzos al estudio del comportamiento de los electrones bajo distintas circunstancias.

En 1886 E. Goldstein descubrió los rayos canales formados por iones gaseosos en movimiento. En 1895 fueron descubiertos los rayos X por W. K. Roentgen, de gran poder penetrante, que nacen al chocar los rayos catódicos contra un obstáculo, aunque no pudo comprobarse su naturaleza ondulatoria hasta mucho más adelante. Ya hemos señalado más arriba el éxito obtenido por H. A. Lorentz al aplicar la teoría de los electrones a la óptica.

Otro descubrimiento fundamental se produjo en 1896: la radioactividad, cuando el físico Henri Becquerel estaba trabajando sobre la fluorescencia. En seguida se vio que en la radiación compleja emitida espontáneamente por el uranio hay tres clases de rayos: los rayos , formados por partículas cargadas positivamente; los rayos , por partículas cargadas negativamente, y los rayos , cuya naturaleza ondulatoria no fue reconocida hasta 1912. Los rayos se identificaron con los rayos catódicos (electrones libres), y las partículas con átomos de helio doblemente ionizados. En el campo de la radiactividad trabajaron muchos físicos, distinguiéndose el matrimonio Curie, que descubrieron el radio en 1898.

J. J. Thomson esbozó el primer modelo atómico como partícula compuesta, en cuya constitución entran siempre los electrones, dando una base racional a la clasificación periódica de los elementos químicos propuesta por D. I. Mendeleiev en 1861. Por esta misma época (1898) Riecke presentó la primera explicación de la conductibilidad eléctrica de los metales del que posteriormente se llamó gas electrónico.

El experimento de Oersted, completado con los de Faraday citados más arriba, pusieron en evidencia el íntimo enlace entre la electricidad y el magnetismo. El campo magnético creado por imanes permanentes había sido estudiado siguiendo la pauta del campo electrostático e interpretado de acuerdo con la teoría de Karl Friederich Gauss (1777-1855) de los imanes elementales, pero una vez reconocida la identidad entre el campo creado por un imán y el creado por una corriente, se pensó que los imanes elementales son sencillamente corrientes eléctricas moleculares (Ampère, 1820) y, más tarde, que estas corrientes se deben al giro orbital de los electrones en el seno del átomo, de acuerdo con el modelo atómico de Ruthrford-Bohr.

Refundidos los dominios de la óptica y del Magnetismo en el de la Electricidad, se empezaron a investigar las múltiples relaciones que deben surgir entre fenómenos de uno y

Page 9: Física (GER).doc

otro tipo. El mecanismo de la emisión y de la absorción de la luz a nivel atómico permanecía todavía ignorado. En 1875 fue descubierto por J. Kerr el efecto electro-óptico, y en 1876 el efecto magneto-óptico. El efecto Zeeman fue descubierto por el físico de este nombre en 1896 y ha sido posteriormente objeto de numerosos trabajos.

Al finalizar el siglo XIX la Física aparece, pues, dividida en dos dominios: por un lado la Mecánica, que había absorbido a la Acústica y más tarde a la Termología gracias a la incorporación de los métodos estadísticos, y por otro la Electricidad, que había absorbido por completo a la óptica. La tendencia a la unidad es evidente, pero los esfuerzos realizados para conseguir una interpretación puramente mecánica de los fenómenos eléctricos fracasaron. Sin embargo, se había conseguido un lazo de unión general con el principio de la conservación de la energía, cuyo dominio de validez se fue ensanchando a partir de su primitivo campo de aplicación a la Mecánica pura hasta convertirse en denominador común de la Física entera.

Aplicaciones a la técnica. Paralelamente a los avances de la ciencia pura durante estos dos fecundos siglos, se descubre un no menos espectacular despliegue de sus aplicaciones técnicas. Espigando entre las que mayores consecuencias han tenido para la humanidad, mencionaremos a continuación las principales, siendo de advertir que todas han experimentado tantos perfeccionamientos y mejoras que hoy en día no se parecen mucho a sus primitivas versiones. Es necesario puntualizar también que muchos de estos grandes inventos tuvieron precursores, a veces anónimos, que no alcanzaron éxito completo.

Christian Huygens inventó el reloj de péndulo en 1656; la máquina de vapor fue construida por James Watt hacia 1769, y perfeccionada luego durante varios años. Las primeras fotografías fueron logradas por Daguerre en 1789, y B. Franklin construyó su pararrayos hacia 1790.

El telégrafo eléctrico fue realizado por S. F. Morse en 1837. La lámpara de incandescencia fue presentada por Thomas Alva Edison hacia 1860. El anillo de Gramme data de 1864, y la construcción de la primera dínamo práctica por E. W. Siemens, de 1866. A. G. Bell inventó el teléfono en 1872; C. P. Linde licuó el aire en 1876 y G. Marconi estableció la primera comunicación por telegrafía sin hilos en 1896.

El siglo XX. Coincidiendo con la entrada del nuevo siglo se produce en el ámbito de la Física un profundo cambio de mentalidad. Terminada la que hoy se llama Física clásica, a la Física moderna le sigue rápidamente la Física nueva. Este cambio se caracteriza por la aparición de dos teorías revolucionarias e independientes: la teoría de los quanta (o de los cuantos) iniciada por Max Planck en 1900, y la de la relatividad, iniciada por Albert Einstein en 1905. Sin embargo, esta última se desarrolló y difundió más pronto que la de los quanta y conviene empezar por ella.

La teoría de la relatividad. Desde la base de la supuesta inmovilidad del éter, varios físicos se habían propuesto determinar la velocidad absoluta de la Tierra en el espacio. En particular, Albert Michelson en 1881 trató de encontrar la variación de la velocidad de la luz según la dirección, y Trouton y A. Noble, en 1903, buscaron también el llamado “viento de éter” por sus efectos sobre un condensador cargado. Los resultados fueron totalmente negativos, pese a la extraordinaria sensibilidad de los aparatos. Para explicar el fracaso Hendrik A. Lorentz (1853-1929) introdujo la noción de tiempo local y de contracción longitudinal, como efectos físicos del movimiento absoluto, y dio las fórmulas que permiten calcular uno y otra. La solución parecía demasiado forzada y así fue como Einstein (1879-1955) en 1905 propuso la llamada teoría de la relatividad restringida. Las

Page 10: Física (GER).doc

fórmulas que resultan para el cambio de coordenadas son idénticas a las de Lorentz. La nueva teoría obliga a renunciar a muchas ideas intuitivas vigentes en la Física clásica, en particular al espacio y tiempo absolutos de Newton, y a la noción de simultaneidad absoluta. Poco después, Heinrich Minkowki (que había sido profesor de Einstein) propuso una interpretación geométrica de la teoría relativista, sirviéndose de un espacio abstracto de cuatro dimensiones pseudoeuclidiano. En 1916 el mismo Einstein presentó una nueva teoría, más radical, que denominó de relatividad generalizada. Para la debida formulación matemática hay que servirse de un espacio convencional de cuatro dimensiones y apoyarse en el cálculo diferencial absoluto, que pocos años antes había sido puesto a punto por los matemáticos T. Levi-Civitta y E. B. Christoffel. En la ley fundamental de la Mecánica del punto se funden la ley de inercia y la de la gravitación de la Física clásica. Consecuencia de ella es la equivalencia entre la masa de inercia y la masa gravitatoria de cualquier partícula, hecho puramente empírico pero rigurosamente comprobado por R. von Eötovos en 1900, y sin justificación en la Mecánica clásica. El espacio-tiempo relativista no es euclidiano; la curvatura local en cada uno de sus puntos depende de las masas que lo rodean, de modo que al cambiar éstas de posición el espacio-tiempo se deforma y estas deformaciones se propagan con la velocidad de la luz. Respecto de la curvatura media, referida a todo el universo, el propio Einstein pensó que es constante y positiva, lo mismo que su componente espacial pura. Sin embargo, Arthur Eddington (1882-1944) demostró que el universo estático de Einstein sería inestable. Pero hay otras soluciones: una de ellas, la de Auguste G. de Lamaitre, supone que la hiperesfera de Einstein experimenta una expansión indefinida, y cuenta con el decisivo apoyo de la observación aportando el hecho, previamente conocido, de la fuga de las galaxias.

Con la teoría de la relatividad el espacio cósmico, el vacío, adquiere una estructura geométrica definida que suele llamarse campo métrico. En la Mecánica de Galileo/Newton el campo métrico es euclidiano; en la Mecánica relativista su estructura está condicionada por el campo gravitatorio. En la Mecánica clásica, el campo métrico y el campo gravitatorio eran independientes y ahora aparecen identificados, pero quedan otros dos campos de fuerza todavía independientes: el campo electromagnético y el campo nuclear. Einstein dedicó los últimos años de su vida a la búsqueda de una nueva generalización que permitiese reducir a uno solo todos los campos, al que llamada campo unificado (1929). En el mismo sentido siguen trabajando muchos investigadores, entre ellos Werner Heisenberg. La tendencia es a introducir una quinta dimensión (T. Kaluza, 1921) o a interpretar el campo electromagnético como una “torsión” del espacio-tiempo.

La Teoría cuántica. La teoría de los quanta empezó modestamente con la pretensión de resolver un problema concreto. Ya hemos indicado los esfuerzos que hacían los físicos buscando una fórmula que diese la estructura del espectro de emisión de un cuerpo incandescente en función de la longitud de onda para cada temperatura.

Pues bien, en 1900 Max Planck (1858-1947) encontró una fórmula asombrosamente exacta, pero con el defecto de basarse en una hipótesis incompatible con todos los postulados de la Física clásica: la discontinuidad de la energía. Los “átomos” de energía fueron denominados quanta; los quanta son proporcionales a la frecuencia de radiación, y la constante de proporcionalidad, que fue designada por la letra h y se llama hoy constante de Planck, tiene las dimensiones físicas de la acción hamiltoniana –[trabajo][tiempo]–. Inicialmente, la teoría de los quanta sólo se aplicaba a los fenómenos de absorción y emisión de la energía radiante (al principio sólo a la absorción), pero Einstein en 1905, para

Page 11: Física (GER).doc

explicar el efecto fotoeléctrico, emitió la hipótesis de los fotones, que equivale a la atomización de la luz, o a la vuelta, en cierto modo, a la teoría corpuscular de Newton.

La Electrónica. Mientras tanto, la Electrónica hizo grandes progresos. En 1901 O. W. Richardson dio la verdadera explicación del fenómeno termoiónico, que encontró pronto aplicación práctica en la lámpara de dos electrodos, llamada también válvula en electrotecnia. Lee de Forest añadió el tercer electrodo (triodo) y de él se han derivado una multitud de tubos electrónicos de muy variados usos. En 1909, Robert A. Millikan había logrado medir la carga eléctrica de un electrón, y, en 1912, Ch. T. Wilson inventó la cámara de niebla, uno de los más eficaces instrumentos de investigación, no sólo en el campo de la Electrónica sino para toda clase de partículas cargadas. El tubo de rayos X de cátodo incandescente fue diseñado por W. D. Coolidge en 1913. El antiguo tubo de Braun (1897) encontró vastísimas aplicaciones, empezando por los oscilógrafos y convirtiéndose en la pieza principal en televisión. Finalmente, J. Bardeen y W. H. Brattain inventaron los transistores en 1948. El contado de partículas de Geiger-Müller data de 1928.

La Física atómica. Por esta misma época los físicos se interesaron por la estructura del átomo, y dieron vida a una nueva disciplina, la Física atómica. En 1911 Ernest Rutherford (1871-1937) propuso el primer modelo planetario, completado y mejorado por Niels Bohr (1885-1962) en 1913. Con este modelo se daba entrada a la hipótesis de los quanta en un dominio, el atómico, hasta entonces inexplorado. Lo extraordinario del caso es que las condiciones de cuantificación postuladas por Bohr estaban en contradicción formal con la teoría electromagnética de Maxwell, y, sin embargo, el éxito en la explicación del espectro del hidrógeno fue completo. Más aún, Arnold Sommerfeld (1868-1951) en 1916 introdujo en el modelo de Rutherford-Bohr la corrección relativista y con ello pudo explicar la estructura fina descubierta por W. E. Lamb en 1947.

Las primeras investigaciones sobre el átomo no disponían más que del análisis espectral, por medio del cual y sirviéndose, sobre todo, de las alteraciones que en el espectro producen los agentes exteriores (sobre todo el campo magnético y el campo eléctrico) pudo llegarse a una descripción bastante satisfactoria de la estructura de la corteza. Además del efecto Zeeman, ya citado, en 1913 se descubrió el efecto Stark, en 1923 el efecto Compton y en 1928 en efecto Raman. En el aspecto teórico, W. Ritz en 1908 enunció el principio de combinación, Bohr en 1923 el de correspondencia y Wolfgang Pauli en 1925 el de exclusión, merced a los cuales la teoría de los niveles energéticos del átomo llegó a gran perfección.

Ahora bien, el estudio de los espectros ópticos sólo permite explorar la parte más externa de la corteza atómica. En cambio, los espectros de rayos X descubren las capas más profundas de esta corteza. Pero la técnica tiene que ser distinta, ya que los rayos X sólo se excitan bombardeando el átomo con electrones. La espectroscopia de rayos X nació en 1912 cuando a Max von Laue (1879-1960) se le ocurrió utilizar un cristal natural como red de difracción. Al año siguiente, W. H. Bragg perfeccionaba el método y, en 1923, Paul Debye, Scherrer y A. H. Compton lo mejoraron todavía más usando polvo cristalino; en 1925 se consiguió construir redes artificiales capaces de difractar los rayos X. En 1913 H. G. Moseley formuló la ley que lleva su nombre, que relaciona la frecuencia de las rayas del espectro característico de un cuerpo con su masa atómica.

Ya hemos indicado que el modelo atómico de Bohr, pese a sus aciertos, no parecía satisfactorio por su carácter híbrido, pues, mientras por un lado se aplicaban en él las leyes del electromagnetismo, por otro se introducían las condiciones cuánticas que las contradecían. Por otra parte, éste no era más que un aspecto de la antinomia que se iba

Page 12: Física (GER).doc

enseñoreando de todos los dominios de la microfísica, y, muy especialmente, de la óptica: unas veces parece que la luz es un fenómeno ondulatorio, otras se muestra como un fenómeno corpuscular. En 1924 el príncipe Louis de Broglie tuvo la idea de invertir en cierto modo el problema, y formuló la hipótesis de las ondas de materia (ondas piloto las llamó al principio), estableciendo de este modo las bases de la Mecánica ondulatoria y vaticinando la existencia de fenómenos de difracción e interferencia con los electrones. La comprobación experimental fue llevada a cabo en 1927 por C. J. Davisson y L. H. Germer, seguida del espectacular éxito del microscopio electrónico a partir de 1931. La idea básica fue recogida por Erwin Schrödinger (1887-1961), a quien se debe la formulación matemática completa (1926). Pero en la ecuación de Schrödinger figura una función cuya significación quedó indeterminada hasta que Max Born (1882-1970), en 1927, propuso una interpretación estadística que ha prevalecido.

Independientemente de ciertos trabajos, W. Heisenberg venía desarrollando desde 1925 una mecánica de matrices llamada también Mecánica cuántica que demostró ser equivalente a la Mecánica ondulatoria. Tanto la Mecánica ondulatoria como la cuántica introducen en el campo de la Física teórica recursos matemáticos no utilizados anteriormente, pues ni los operadores diferenciales de Schrödinger ni las matrices de Heisenberg son números en el sentido tradicional de la palabra. Además, las ondas de probabilidad de que se habla no se propagan en el espacio físico, sino en el espacio fásico, de muchas dimensiones, y los resultados obtenidos por la Física teórica necesitan pasar por una fase de interpretación antes de poder ser contrastados con la experiencia.

El mismo Heisenberg, en 1927, examinando el proceso de la investigación en microfísica, enunció el principio de incertidumbre (mal llamado de indeterminación) que pone un límite esencial al conocimiento simultáneo de la posición y de la velocidad de las partículas elementales. Esta restricción impide resolver la antinomia onda o partícula, a la que hemos aludido más arriba a propósito del fotón, pero que afecta a todos los entes microfísicos, y a la cual se suele aludir con el nombre de principio de complementariedad o dualismo (Bohr 1930).

La Física nuclear. Hasta aquí la Física atómica se había limitado al estudio de la corteza electrónica, pero pronto los físicos se sintieron insatisfechos y quisieron investigar la estructura del núcleo, y al hacerlo provocaron la aparición de un gran número de partículas subatómicas para cuya investigación hubieron de recurrir a nuevas técnicas, dando nacimiento a la Física nuclear. La primera vía de penetración, por decirlo así, la ofrecía la radiactividad natural. La isotopía entre elementos radiactivos fue descubierta por F. Soddy en 1909. Diez años después F. Aston (1877-1945) ponía a punto el espectrógrafo de masas, de enorme poder separador, con el que demostró que la isotopía es un fenómeno general, aunque J. J. Thomson en 1913 había ya señalado que el neón (no radiactivo) tiene un isótopo.

El paso siguiente consistió en utilizar las partículas emitidas por los cuerpos radiactivos para bombardear otros núcleos atómicos. Rutherford en 1919 consiguió la primera transmutación nuclear artificial. Hasta mucho más tarde (1932) no se introdujo por J. D. Cockroft y E. T. Walton la técnica de acelerar artificialmente los proyectiles subatómicos por medio de un campo eléctrico. Éste es el antecedente de todos los aceleradores de partículas que se han construido después, cada vez más potentes y gigantescos; el ciclotrón, el sincrotón y el betatrón y el acelerador vertical de Van der Graaff. Durante mucho tiempo la radiactividad fue considerada como un fenómeno excepcional, ya que fracasaban todos los intentos de imitarla artificialmente, hasta que

Page 13: Física (GER).doc

Irene Joliot Curie (1897-1956), bombardeando el aluminio con partículas , comprobó que se volvía radiactivo. Hoy en día se sabe que todos los elementos tienen algún isótopo radiactivo, que se obtiene artificialmente. Más aún, también se obtienen átomos más pesados que el de uranio, casi siempre radiactivos (transuranianos), que no se encuentran en la Naturaleza: el primero descubierto lo fue por E. M. Mac Millan en 1940 y se llamó neptunio.

Hasta 1932 las únicas partículas subatómicas reconocidas eran las partículas (núcleos de helio), los protones y los electrones, pero en dicho año J. Chadwick descubrió el neutrón y en seguida se vio que junto con el protón constituyen los dos únicos componentes esenciales de todos los núcleos. Pronto fueron utilizados los neutrones como excelentes proyectiles atómicos. Así fue como Otto Hahn en 1938 logró escindir el átomo de uranio en dos fragmentos aproximadamente iguales con enorme desprendimiento de energía y liberación de nuevos neutrones. Este hecho fue aprovechado por Enrico Fermi (1901-1954) para provocar reacciones en cadena y construir el primer reactor nuclear con moderador (1942). La primera bomba atómica de fisión basada en el mismo fenómeno, pero utilizando neutrones rápidos, fue probada en el desierto de Álamo Gordo (EE.UU.) en 1944. La bomba de fusión o termonuclear, llamada también bomba de hidrógeno o bomba H, fundada en la fusión de cuatro núcleos de hidrógeno para constituir un núcleo de helio, tal como había supuesto el astrónomo H. A. Bethe para explicar el origen de la radiación solar en 1938, lo fue también en los EE.UU. en 1951.

Cuando parecía que la Física atómica y nuclear se estaban completando y que la materia estaba constituida a base de sólo tres partículas elementales (quizá sólo de dos), apareció, ante el asombro de los físicos, una avalancha de nuevas partículas elementales, que, sin embargo, no son componentes normales de la materia. Por un lado en 1928 Paul A. M. Dirac había elaborado una teoría del electrón y vaticinó la posibilidad del electrón positivo o positrón que fue encontrado experimentalmente por C. D. Anderson (1932). En 1930 Pauli había señalado la necesidad de admitir la existencia del neutrino, que fue confirmada por Fermi en 1934. Por otro lado, en 1913 había sido descubierta por V. F. Hess y Kolhórster la radiación cósmica y en ella encontró H. Yukawa el primer mesón en 1935. A. Duperier (1896-1959) y otros investigadores han escudriñado la complejísima composición de esta radiación y han descubierto en ella una gran cantidad de nuevas partículas, de vida efímera. Finalmente, los grandes aceleradores que hemos citado antes permiten arrancar de los átomos estas mismas partículas, no existiendo en ellos previamente, pero que nacen y se destruyen con increíble celeridad. Actualmente se sigue trabajando en la investigación de las múltiples interacciones entre las numerosas partículas elementales (cuyo número aumenta de día en día) y los fotones, y se sabe que no sólo el electrón tiene su antipartícula (el positrón), sino que lo mismo ocurre con todas; el antiprotón fue reconocido en 1955 y el antineutrón en 1956. Otro descubrimiento que abre grandes perspectivas teóricas y de aplicación es el láser, puesto a punto por A. L. Schawlow y C. H. Townes en 1958.

Entre los años 1924 y 1926 los físicos Dirac, Fermi, Einstein y Bose, inspirándose en el principio de exclusión de Pauli, trataron de extenderlo a todas las partículas, cualquiera que sea la situación en que se encuentren, y crearon dos nuevas estadísticas llamadas cuánticas, distintas de la estadística clásica (la de Maxwell-Boltzmann) que llevaron los nombres de Einstein-Bose y de Fermi-Dirac. Como es natural, la investigación sigue abierta en múltiples direcciones.

Page 14: Física (GER).doc

Metodología

El objeto de la Física es doble: especulativo y práctico. Como ciencia especulativa, se propone elaborar una imagen mental del universo material; como ciencia práctica se encarga de preparar para la técnica un esquema útil. El método empleado para alcanzar estos objetivos es el propio de toda ciencia empírica: empieza con la observación y la experimentación y termina con la elaboración de un cuerpo de doctrina. Este proceso descansa sobre algunos postulados que no suelen formularse explícitamente, pero sin los cuales no hay ciencia posible. Sin pretender agotar su elenco, conviene resaltar los siguientes: objetividad del mundo exterior (es decir, el Universo existe fuera del sujeto); trascendencia de la verdad (la verdad es absoluta); posibilidad del conocimiento empírico; racionalidad de la Creación; mensurabilidad (en virtud de la cual sólo tienen entrada en la Física las entidades medibles).

La investigación sigue entonces una marcha perfectamente definida: la primera operación consiste en medir magnitudes; el resultado de cada medida es un número referido a una unidad determinada, y el conjunto de medidas efectuadas sobre un sistema representa el estado en que el sistema se encuentra en aquel momento. Se admite que el estado de un sistema es reproducible, es decir, que la operación puede repetirse exactamente en las mismas condiciones que antes y que entonces los resultados de las nuevas medidas coincidirán con las primeras (principio de causalidad). En rigor esto no es exacto; ningún sistema puede pasar dos veces por el mismo estado, pues el Universo en conjunto habrá cambiado mientras tanto; en todo suceso se puede reconocer un elemento repetible y otro irrepetible; en Física lo repetible prevalece mientras que en Biología prevalece lo irrepetible; mejor dicho, a la Física sólo le corresponde estudiar la parte repetible. En la Física clásica se suponía que los errores cometidos en la operación de medir son corregibles y que todo consiste en perfeccionar los aparatos. En la Física moderna el principio de incertidumbre pone limitaciones a esta posibilidad, afirmando que la intervención del observador o de sus aparatos de medida alteran en forma incontrolable el estado del sistema; las magnitudes físicas están conjugadas por pares, de tal manera que si se quiere mejorar la precisión de la medida de una de ellas, empeora necesariamente la de la otra. La limitación viene impuesta por el tamaño del cuanto de acción h, de donde resulta una distinción objetiva entre macrofísica, cuando las dimensiones del sistema son grandes en comparación con h, y microfísica, cuando se está dentro del orden de magnitud de esta constante.

Por sus relaciones con el problema de la medida, las magnitudes físicas se comportan de distinta manera: hay magnitudes escalares, como la carga eléctrica, que pueden representarse con un solo número real; magnitudes vectoriales (la fuerza) que requieren el uso de tres números coordenados, y magnitudes tensoriales, como la constante dieléctrica, cuya representación tiene que hacerse con ayuda de nueves números, y hay magnitudes todavía más complicadas que sólo se dejan representar por matrices.

La segunda fase de la investigación consiste en la formulación de leyes empíricas. Se trata de organizar la masa de datos numéricos reunidos en la fase anterior, por medio de una fórmula matemática en términos finitos. Este trabajo se lleva a cabo muchas veces con ayuda de representaciones gráficas, y entonces se reduce al problema del ajuste de curvas. El tipo de curva a ajustar se deja a la intuición del investigador, sin excluir la conveniencia de dejarse guiar por ciertas ideas más o menos teóricas. Aunque en realidad cada variable puede depender de otras varias, se procura simplificar el procedimiento buscando el enlace

Page 15: Física (GER).doc

con cada una de ellas por separado, para luego sistematizar todas las fórmulas por vía matemática. Ejemplo típico de esta manera de proceder es la formulación de la ecuación de estado de los gases. Con esto el investigador experimental ha terminado su cometido.

A continuación entra en juego el teórico, y su primer intento consiste en reproducir las leyes empíricas deduciéndolas matemáticamente de ciertas premisas. Aquí es donde las hipótesis desempeñan un papel primordial. Por ejemplo, la obtención de la ecuación de estado de los gases partiendo de la teoría cinética. Una hipótesis consiste en un conjunto de afirmaciones que se refieren a entes no accesibles directamente a la observación. De ellas se derivan no sólo las leyes empíricas que se trataba de racionalizar, sino también otras consecuencias, algunas de las cuales pueden ser también accesibles a la experiencia. Entonces el problema vuelve al laboratorio y la hipótesis se mantiene mientras la observación no contradiga alguna de dichas consecuencias. Muchas veces, las mismas leyes se pueden deducir de hipótesis distintas, como ocurre con las leyes de la reflexión de la luz, compatibles tanto con la teoría ondulatoria como con la teoría corpuscular. En Física clásicas se admitía la posibilidad de montar un experimento decisivo (experimentum crucis); así se pensó que el descubrimiento de los fenómenos de interferencia resolvía el dilema en favor de la teoría ondulatoria. En Física moderna, de acuerdo con el principio de dualidad, se admite que dos teorías contradictorias pueden ser válidas, mientras no se refieran al mismo fenómeno bajo el mismo punto de vista, con tal de atribuir a ambas un valor simbólico y no un valor descriptivo, desterrando del campo de la ciencia toda hipótesis en el sentido clásico de la palabra, es decir, que apele a entes ocultos.

Muchas veces las hipótesis toman la forma de modelos, es decir, de sistemas ideales simplificados, porque se considera que la realidad es demasiado compleja para ser abordaba matemáticamente. Entonces, naturalmente, no se pretende que las consecuencias de la teoría concuerden exactamente con la observación, pero las desviaciones pueden ser consideradas como perturbaciones y ser tratadas como tales. La Física entera está llena de entes ideales de este tipo, tales como el sólido rígido, los gases perfectos, el punto material, etc. Nadie discute la enorme utilidad y el valor de los modelos.

Un paso más lleva a la sistematización de un haz de leyes ya racionalizadas más o menos, por medio de un conjunto de principios, constituyendo un cuerpo de doctrina de estructura matemática. La formulación de estos principios está a la libre inspiración del investigador, y lo único que se les exige es que no se opongan a ningún hecho comprobado. No se demuestran directamente y sólo se valoran por la validez de sus consecuencias. Normalmente se enuncian en lenguaje ordinario, pero desembocan en una formulación matemática. La primera disciplina que llegó a este grado de perfección fue la Mecánica clásica, asentada por Newton sobre tres únicos postulados independientes. Los principios de mínimo poseen todavía mayor poder de síntesis. La misma estructura adquirió la Termodinámica en manos de Clausius, la óptica geométrica de Fermat, el Electromagnetismo en las de Maxwell, etc. La Física moderna se ajusta a la misma línea de conducta: la teoría de la relatividad se apoya sólo en dos principios, la Mecánica ondulatoria en una sola ecuación, etc. Y ya hemos repetido que el ideal de los científicos es llegar a derivar la Física entera de un principio único.

A propósito de los principios fundamentales, es muy interesante observar que su formulación matemática adopta siempre la forma de ecuaciones diferenciales ordinarias o en derivadas parciales, mientras que las leyes comprobables experimentalmente deben estar formuladas en términos finitos.

Page 16: Física (GER).doc

Problemática actual y futura

Cuando se plantea el problema de la Física en toda su amplitud: “dar del mundo físico una imagen cabal”, se tropieza con una serie de dilemas que han sido siempre la máxima preocupación de los hombres de ciencia, quizá, sobre todo, por sus implicaciones filosóficas. El primero se refiere a la misma naturaleza de la imagen: ¿es real o es simbólica? Por real entendemos que representa «la cosa en sí», el universo «tal como es». El punto de vista ingenuo se pronuncia en favor de la interpretación real: si las cosas tal vez no son tales como las vemos, sí son tales como las concebimos. La Física clásica andaba muy cerca de esta interpretación. La Física moderna tropieza con el principio de complementariedad y tiene que pronunciarse por el simbolismo: sólo bajo este enfoque las dos imágenes contradictorias pueden ser compatibles, como lo son un círculo y un rectángulo, proyecciones de un mismo cilindro, precisamente porque un cilindro no se puede representar sobre un plano «tal como es», con una imposibilidad esencial.

El segundo dilema es el de la continuidad o discontinuidad. De acuerdo con el punto de vista clásico, el espacio y el tiempo son continuos; la materia y la electricidad, discontinuos. Sin embargo, la cosa no es tan sencilla: si un átomo, en el sentido etimológico de la palabra, tiene extensión, ¿por qué no ha de poder dividirse? Y si puede dividirse indefinidamente, la materia no es discontinua. Por otra parte, ¿cómo asegurar que el tiempo es continuo? Si contemplamos la sucesión de las escenas de una proyección cinematográfica no nos parece menos continua que si la contemplamos en el teatro, y, sin embargo, sabemos que en el cine la evolución es realmente discontinua. La Física moderna rechaza el dilema e invocando otra vez el principio de dualidad asegura que el Universo admite las dos imágenes: bajo el punto de vista ondulatorio, las partículas son sólo singularidades geométricas del campo continuo donde las ondas se propagan; bajo el punto de vista corpuscular, las partículas (conjunto discreto) crean a su alrededor el campo ondulatorio.

El tercer dilema es seguramente el que ha dado lugar a más discusiones: es el problema del determinismo. Una vez más los puntos de vista clásico y moderno son opuestos. Entre los cultivadores de la Física clásica ha sido muy frecuente confundir el determinismo con la causalidad, olvidando que existen causas libres. La discusión rebasa evidentemente la competencia de la Física. El principio clásico del determinismo se solía formular en términos parecidos a éstos: «la evolución de un sistema es consecuencia de su estado inicial», y fue ilustrado por Laplace con la imagen de un diablillo que tuviese conocimiento exacto de la situación y velocidad de todas las partículas del universo en un momento determinado, el cual podría predecir con exactitud la posición y la velocidad que tendrían en otro momento futuro cualquiera. La Física moderna no niega el determinismo en sí y menos el principio de causalidad; pero asegura que no tiene aplicación porque no hay posibilidad de conocer con toda exactitud la situación y la velocidad de una partícula en un momento determinado; tal es el significado del principio de incertidumbre. Entonces no queda más posibilidad que la de trabajar con probabilidades estadísticas. Ciertos autores han pretendido deducir del principio de incertidumbre que en Microfísica no es válido el determinismo ni rige el principio de causalidad. A este modo de ver se puede oponer un razonamiento que procede de Henri Poincaré y es el siguiente: el cálculo de probabilidades tiene éxito cuando se aplica a una población cuyos individuos obedecen en su conducta al más riguroso determinismo, como es caso de la extracción de bolas de una urna o en el de la teoría de los gases; por consiguiente, del hecho de que sea aplicable el cálculo de

Page 17: Física (GER).doc

probabilidades y de que no tengamos otra posibilidad práctica de atacar el problema no se deduce que los movimientos de las partículas elementales se verifiquen «objetivamente» al azar.

Un nuevo dilema se plantea con los términos: ¿limitado o ilimitado? La formulación de la pregunta sugiere el espacio y el tiempo, pero en realidad afecta a todas las entidades del mundo físico. Si la materia y la electricidad son entidades discretas, serán necesariamente finitas, pues un número infinito actual es sencillamente impensable. El astrónomo inglés Arthur Eddington incluso se atrevió a afirmar que el número de partículas existentes es exactamente de 2,4 x 109. Por lo que al espacio se refiere, la Física clásica encontraba grandes dificultades, pues no es posible imaginar en qué podría consistir un «límite del espacio vacío». La teoría de la relatividad abre una posibilidad ofreciendo como solución el espacio esférico de tres dimensiones, a la vez finito e ilimitado. En cuanto al tiempo, la Física clásica introdujo con la ley de entropía una limitación potencial para el futuro con la llamada «muerte térmica» del universo y otra para el pasado cuando la entropía total era nula. La Física moderna reconoce con mayor vigor la existencia de un origen de los tiempos cuando empezó la fuga de las galaxias, e incluso es capaz de señalar su valor numérico, del orden de los tres billones de años, según George Gamow.

Íntimamente relacionado con el anterior se plantea el dilema evolución-estado estacionario. La hipótesis del estado estacionario puede tomar la forma especial del «eterno retorno», pero de por sí no es incompatible con el supuesto de la finitud del tiempo. La verdad es que la ley de la entropía imprime necesariamente a la evolución un sentido irreversible. Todo lo que pueda decirse y se ha dicho en contrario (inversión de la ley de la entropía en un anti-universo) es pura especulación o puro disparate. La única idea que no contradice el concepto de evolución irreversible y que al mismo tiempo es compatible con el de universo estacionario es la de creación continua sugerida en 1951 por el astrónomo inglés F. Hoyle.

A finales del siglo XIX hubo un científico que compadecía a los investigadores futuros, porque, según él, ya no quedaba nada por descubrir. No es fácil predecir el rumbo que pueda tomar la ciencia en un futuro más o menos próximo, pero a juzgar por las tendencias actuales, los problemas que más urgen son: la investigación exhaustiva del campo nuclear o mesónico, la del campo unificado, la Física del plasma y de las temperaturas desmesuradamente elevadas, la Física de los corpúsculos de vida efímera, el enigma de la llamada «antimateria», la eliminación completa de parámetros ocultos, la atomización del espacio y del tiempo, la relativización de la Mecánica cuántica, etc.

Lo que sí puede asegurarse es que la era de la investigación unipersonal ha pasado: las herramientas necesarias para la experimentación son cada vez más caras, pero, además, los investigadores teóricos ya no pueden trabajar sólo con una cuartilla y un lápiz, como todavía trabajaba Einstein; se necesita la ayuda de potentes computadores electrónicos; la labor de equipo se impone y toda investigación prometedora debe ser previamente programada.

Por J. M. Jansá Guardiola, en Gran Enciclopedia Rialp, 1991.