EDUCyT.
Año 6 - Nro. 203 - 2da. Sección
20 de septiembre de 2002
 Volver a la Página principal
Volver al Indice de EDUCyT 


**********************************************************************
                              E D U C Y T
**********************************************************************

				Noticias de
		 Educacion, Universidad, Ciencia y Tecnica
______________________________________________________________________

20 de septiembre de 2002	     	           	Año 6 Nro. 203		
			   Segunda sección
_______________________________________________________________________

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%  INDICE  %%%%%%%%%%%%%%%%%%%%%%%%%%%%%

---------------------------  CIENCIA Y TECNICA  -----------------------

	¿QUÉ ES LA TEORÍA DE CUERDAS?
	ESTRÓGENOS NO TAN BUENOS
	BREVES DE CIENCIA Y TECNOLOGIA
	EFEMÉRIDES: Edwin Hubble, uno de los padres de la cosmología moderna.
	
------------------------  TODOS DICEN LO SUYO  ------------------------

-----------------  CURSOS, BECAS, SEMINARIOS, CONCURSOS   ---------------

	CURSOS, BECAS, SEMINARIOS
	Generales, Educación,  Ciencias Sociales, Ciencias Exactas
	e Ingeniería, Ciencias  Naturales,  Ciencias  de la Salud.
	
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

--------------------------- CIENCIA Y TECNICA -----------------------------

[]	¿QUÉ ES LA TEORÍA DE CUERDAS?

	En el  marco  del  ciclo  "Ciencia  para  Todos", organizado por el
	Instituto de Astronomía  y  Física  del  Espacio  (IAFE),  el 31 de
	agosto del año pasado, la doctora Carmen Núñez brindó una charla de
	divulgación científica mediante la cual  se  abordó  el  tema de la
	Teoría de Cuerdas.  La que  sigue  es  una  transcripción  de dicha
	charla.

	En los últimos quince años, gran parte  de  los físicos teóricos de
altas energías fueron atraídos por las propiedades de la teoría de cuerdas.
El motivo de esta atracción es que la teoría  de  cuerdas o supercuerdas es
el primer candidato posible para una teoría final.  Por eso ha sido llamada
Teoría del Todo o Teoría Final.

	¿Qué  significa  una  teoría  final?    La  física  busca  verdades
universales sobre la  naturaleza.   Cuando estas verdades se encuentran, se
trata de explicarlas en  base  a  principios  más profundos, a verdades más
fundamentales, a partir de las  cuales  poder  deducir  las anteriores.  El
punto inicial de todas las explicaciones  es  lo que se entiende por teoría
final.  Esta reducción a principios cada  vez más elementales, más básicos,
se ha dado en la física históricamente a través de unificaciones de teorías
previas.    Esta  tendencia  a  la  descripción  unificada  de    fenómenos
considerados  previamente  independientes,    la   búsqueda  de  principios
aglutinadores,  permitió  persistentemente  explicar  más  hechos  que  los
contenidos originalmente en las partes que se intentaba amalgamar.

	Este sueño de encontrar un principio básico a partir del cual poder
explicar el universo no comienza en  el siglo XX.  La Humanidad ha buscado,
desde  épocas  muy  remotas, explicar las diversas  manifestaciones  de  la
naturaleza  como diferentes aspectos de un mismo fenómeno  (o  conjunto  de
fenómenos).    En  Occidente  el origen de estas ideas  se  remonta  a  los
presocráticos (los elementos fundamentales eran para ellos agua, aire).  La
primera  teoría  final  fue  el  atomismo  griego, construido por Leucipo y
Demócrito en el siglo V a.C.  Pero hay una diferencia muy  importante entre
estas teorías antiguas  y  las  modernas  teorías  científicas:   la actual
exigencia de verificación experimental.  Una explicación científica moderna
debe  contener  una comprensión cuantitativa  de  los  fenómenos.    En  la
actualidad la búsqueda de la teoría  final  se realiza en el contexto de la
física de altas energías.

	Todavía  no tenemos esta teoría, y ni  siquiera  estamos  cerca  de
descubrirla.    Sólo  tenemos  algunos  indicios  que  vamos  a  tratar  de
describir.

¿QUÉ SON LAS CUERDAS?
	Las cuerdas son objetos unidimensionales.  En esto, constituyen una
importante  ruptura con las teorías previas que, invariablemente, modelaban
la materia  en  términos de partículas puntuales.  El tamaño de las cuerdas
fundamentales es extremadamente  pequeño  (de  la  escala de Planck:  10-33
cm), pero lo importante es que no son puntuales, tienen una dimensión.

	Pueden ser abiertas, con  extremos  o  cerradas.   Por supuesto las
cuerdas ordinarias (las que uno usa para sujetar cosas) están compuestas de
partículas como protones, neutrones y electrones, pero estas nuevas cuerdas
fundamentales son diferentes;  ellas son las  cosas de las que están hechas
los protones y neutrones. 

	A medida que viajan en el espacio y  el  tiempo las cuerdas vibran.
Cada  cuerda  se puede encontrar en cualquier estado posible  de  infinitos
estados de vibración, como los tonos de una cuerda de violín.

	Las cuerdas se supone que son muy pequeñas, entonces cuando  se las
mira  de lejos, parecen partículas puntuales.  Como una cuerda puede  estar
en  cualquiera  de  infinitos  modos de vibración es como una partícula que
puede  pertenecer  a    cualquiera   de  un  número  infinito  de  especies
correspondiente al modo en  que  la  cuerda  está  vibrando.  Los distintos
armónicos de una cuerda de violín son esenciales para la riqueza del sonido
y  corresponden  a  diferentes  sonidos.     En  el  caso  de  las  cuerdas
fundamentales  que  nos  ocupan,  los  distintos armónicos  corresponden  a
diferentes partículas elementales:  el electrón, el gravitón,  el  fotón  y
todas las demás, de la misma manera que los distintos tonos de la cuerda de
violín. 

	Por  esta  propiedad,  la  de  contener todas las partículas de  la
naturaleza  de  manera  consistente con la mecánica cuántica, incluyendo el
gravitón, la teoría de cuerdas fue denominada "teoría de todo".

	Las teorías  previas  que modelaban la materia en base a partículas
puntuales se llaman  teorías  cuánticas  de  campos.   El lenguaje de estas
teorías son unos dibujos,  llamados diagramas de Feynman, que describen las
interacciones de partículas.

	Los diagramas de Feynman pueden  pensarse  como la historia real de
partículas puntuales que se propagan en  el  espacio  y  el tiempo y que se
unen y se separan en los puntos  de  interacción.  Uno de los problemas más
serios de la física de partículas es el de los infinitos que se originan en
estos puntos de interacción (las masas y las cargas  de  las partículas que
interactúan resultan infinitos).

	Consideremos  por  ejemplo  un  electrón.    El  electrón es fuente
(origen) de  campos eléctrico, magnético y gravitatorio.  La energía de sus
campos eléctrico y  gravitatorio  es  infinita.   Las teorías de campos que
describen partículas puntuales están  plagadas  de  cantidades  de magnitud
infinita  (divergencias).    Estos  infinitos   son  molestos  pero  pueden
"absorberse"  en  algunas  teorías  cuánticas  mediante   redefiniciones  y
finalmente,  los  objetos  físicos  (carga, masa, energía),  resultan  bien
definidos.    Sin  embargo,  esta  "renormalización" (como se  denomina  el
proceso  de sustracción de infinitos) no se puede realizar  para  el  campo
gravitatorio del electrón, si éste se considera una partícula puntual.  Las
teorías cuánticas  de  campos  son  inconsistentes  (no renormalizables) en
presencia de la gravedad.  En particular la teoría de campos cuántica de la
gravedad es no renormalizable  (o  no  es  renormalizable).  Las teorías de
partículas  puntuales  también  presentan  otras    enfermedades   llamadas
"anomalías" (de las que no vamos a hablar).
 
	La diferencia crucial con las teorías  de  cuerdas es que, mientras
en el caso de las partículas hay  un  punto bien definido, en el que ocurre
la división, cuando una cuerda se separa en  dos  no  hay  una  noción bien
definida  de  cuándo  y dónde esto sucede.  Esta  diferencia  tiene  muchas
consecuencias.  En primer lugar, en la teoría de cuerdas  el electrón ya no
es  puntual,  sino una pequeña cuerda vibrante.  La dimensión extra  de  la
cuerda  permite  darle  sentido  al  campo gravitatorio del electrón.  Y lo
mismo sucede  con  todas  las  partículas  elementales, que en la teoría de
cuerdas  son pequeñas  cuerdas  vibrantes.    Tampoco  las  cuerdas  tienen
"anomalías", como aparecen en las teorías de campos de partículas.

	El entusiasmo creció cuando  se  mostró que el límite de partículas
de una de esas teorías  tenía un parecido notable con el Modelo Estándar de
las interacciones fundamentales y reproducía la Relatividad General.  Estas
son  las  teorías  aceptadas actualmente para describir  las  interacciones
fundamentales, en el sentido que han pasado todos  los tests experimentales
a que han sido sometidas.  Estas propiedades fueron  establecidas  en 1985,
año en que se produjo la llamada Primera Revolución de las Cuerdas.

	Aunque  se  puede  pensar  en  muchas  posibles  teorías de cuerdas
resulta que hasta el año 1995 sólo cinco tipos específicos pasaban  el test
de consistencia matemática.  En ese año comenzaron a descubrirse relaciones
entre estas cinco  teorías  (simetrías  de  dualidad)  que permiten suponer
actualmente la existencia de  una única teoría, la teoría M, de la cual las
cinco  teorías  de  supercuerdas  se   obtienen  bajo  ciertas  condiciones
particulares.  Esto es otra mejora  sustancial  respecto  de las teorías de
partículas anteriores, que son muchísimas.  Es  una  mejora  con respecto a
las predicciones que puede hacer la teoría, porque al estar muy acotada por
cuestiones  de  consistencia  matemática,  la  verificación experimental de
estas predicciones  se transforma en un test decisivo para la viabilidad de
la teoría.   No es posible hacerle modificaciones sin violar los principios
básicos que sustentan la  teoría.   Tan importante fue el descubrimiento de
estas simetrías de dualidad que  1995  se  considera  el  año de la Segunda
Revolución de las Cuerdas.

	Pero no todo es tan bonito.    Hay  algunos  importantes problemas.
Las 5 teorías son consistentes en un  espacio  de  9  dimensiones  (más  el
tiempo, es decir 10 dimensiones espacio-temporales) y la  teoría  M  parece
vivir en un espacio de 10 dimensiones (11 dimensiones espacio-temporales).

	Cualquier  análisis  de  viabilidad  u  obtención  de  predicciones
experimentales requiere  comprender  cómo  se  relaciona  la  física  en  3
dimensiones, las 3  dimensiones  cotidianas,  las que percibimos en nuestro
universo (más el tiempo),  con la física en 9 o 10 dimensiones.  Para poder
extraer conclusiones realistas es necesario  suponer  que  6 (o 7) de estas
dimensiones son invisibles y sólo se  manifiestan  4  (3  espaciales  y  el
tiempo).   La aparición de un número  mayor  de  dimensiones  que  las  que
podemos apreciar cotidianamente, no es nueva.  Vamos a ver más adelante que
el primer intento de unificación realizado en el siglo  XX,  que  pretendía
describir la gravedad y el electromagnetismo en un marco común,  unificado,
requería  un  espacio  de  4  dimensiones  (además  del tiempo, es decir  5
dimensiones  espacio-temporales).  La idea es que la dimensión extra es muy
pequeña y  está enrollada:  como si miráramos un caño de lejos:  parece ser
una línea.   Pero  si  nos  acercamos  se  ve  que  en  realidad  tiene una
estructura en otra dimensión.

	Pero el problema en  la  teoría  de cuerdas es que las predicciones
experimentales dependen de cómo sean las 6 (o 7) dimensiones extra, de cómo
se  realice  esta  "compactificación"  (nombre técnico  que  describe  este
proceso de enrollar las dimensiones).  Y aquí está uno de los problemas más
importantes que todavía deben ser resueltos:  existen  muchas,  demasiadas,
posibilidades de realizar esta transición de 10 (u 11)  a 4 dimensiones.  Y
muchas    de    ellas  son  consistentes  con  la  fenomenología  observada
experimentalmente.   En  su estado actual la teoría no permite elegir entre
distintas soluciones de  otra  manera  que  no  sea  el  contraste  con  el
experimento, cual es la  versión que ajusta mejor a la naturaleza;  pero no
hay un criterio, un principio,  para decidir si una es mejor que la otra en
4 dimensiones.  Esto lleva a pensar que, en realidad, todavía no existe una
buena formulación de la teoría.  En particular, los cálculos pueden hacerse
sólo de manera aproximada, de una forma llamada "perturbativa".  Es posible
que una formulación que produzca resultados exactos elimine muchas de estas
soluciones aproximadas.  La esperanza es que elimine todas excepto una:  la
que  corresponde  a  la  naturaleza.  A partir de 1995 se  han  descubierto
varias  propiedades  de  esta  supuesta  teoría,  llamada  teoría  M.    Se
encontraron  ciertas  relaciones   entre  las  5  teorías  consistentes  de
supercuerdas en 9 dimensiones  y  los miles de teorías de partículas que se
derivan de ellas en 3 dimensiones.

	Además de cuerdas, la teoría M contiene otros objetos extendidos de
mayor  dimensionalidad (membranas de 2 dimensiones,  objetos  de  3  o  más
dimensiones espaciales), igualmente fundamentales.  Todos ellos viviendo en
11 dimensiones.

	La idea que existe actualmente entre los físicos  de cuerdas es que
no  se  conocen  todavía  los  principios  fundamentales que sustentan  las
ecuaciones.

LA FÍSICA Y SU HISTORIA
	Para  aclarar algunos conceptos que hemos usado sin explicar parece
conveniente hacer una breve historia de la física, con especial atención en
la  situación  existente  en  el momento de la formulación de la teoría  de
cuerdas.

	La  mecánica  de  Newton, en el siglo XVII, marca el comienzo de la
ciencia moderna.   Newton comenzó el sueño moderno de una teoría final.  La
mecánica  newtoniana  postula  la  unicidad  de  las  leyes  que  rigen  el
movimiento de los cuerpos  celestes  y el de los terrestres, la unicidad de
las leyes del movimiento y  de  la gravitación universal.  No es casual que
la gravedad marque el comienzo.   Es  la  más  familiar  de las fuerzas, la
única fuerza universal, es decir que actúa  entre  todas las partículas sin
excepción  (todos  sabemos  que  si soltamos cualquier objeto  que  estamos
sosteniendo, este cae por la fuerza de la gravedad).   Su fuente (el origen
de esta fuerza) es la masa de la partícula (de  la Tierra en el caso de los
objetos que caen) y su intensidad es proporcional a ella.   La  gravedad es
atractiva  y  de  "largo  alcance" pues actúa a grandes distancias (incluso
intergalácticas, cosmológicas).
 
	Newton concebía la gravedad como una "acción a distancia", es decir
una partícula actúa  sobre  otra  directa  e  instantáneamente a través del
espacio, con una fuerza  proporcional  al  producto  de  las  masas  de las
partículas y que disminuye como el cuadrado de la distancia que las separa.  

	La  concepción  moderna  postula  en  cambio  que  la  gravedad  es
geometría.  En efecto, la teoría  de  la relatividad de Einstein concibe al
campo gravitatorio como un campo de distorsión  geométrica  o una curvatura
del  espacio-tiempo.    En  la  Teoría Especial de  la  Relatividad  (1905)
Einstein modificó las nociones de espacio y de tiempo  absolutos de Newton,
introduciendo el concepto de espacio-tiempo, en que el tiempo aparece  como
una dimensión más, en un pie de igualdad con las dimensiones espaciales.  Y
en su Teoría de Relatividad General (1915) trató de encajar la teoría de la
gravedad en  esta  nueva  visión.    Tenía  para ello algunos indicios, por
ejemplo el notable  descubrimiento  de Galileo que el movimiento de cuerpos
pequeños debido a la  gravedad  es  independiente  de  la naturaleza de los
cuerpos.  Esto le sugirió  que  la  gravedad  podría  ser una propiedad del
propio espacio-tiempo.  Muy brevemente, en lugar de la imagen newtoniana de
la gravitación como una atracción entre todos  los  cuerpos  masivos, la RG
describe la gravitación como un efecto de la  curvatura  del espacio-tiempo
producida  por  la  materia  y  la  energía.  El  concepto  de  campo,  muy
importante en la descripción de todas las fuerzas, se basa  en la noción de
que  toda  partícula  es  la  fuente  de  un campo tal que  cualquier  otra
partícula  que  se  encuentre  dentro de su rango de acción experimenta una
fuerza  proporcional  a  la  intensidad  del campo en ese punto.  Todas las
partículas originan  un  campo gravitatorio.  Así por ejemplo, el Sol curva
el espacio-tiempo a  su  alrededor y la órbita terrestre es consecuencia de
este efecto geométrico.

	La RG resolvió un  antiguo  conflicto  de  la teoría de Newton:  la
precesión del perihelio de Mercurio.  Y predijo nuevos fenómenos que fueron
observados con posterioridad a la formulación  de  la teoría:  la curvatura
en la trayectoria de los rayos de luz producida por el Sol, predicha por la
teoría,  fue  medida  por  primera vez en 1919.    Desde  entonces  se  han
acumulado más pruebas y hoy podemos afirmar que la  RG  es  la  teoría  que
describe satisfactoriamente el campo gravitatorio. 

	Es  interesante  analizar  en  más  detalle estas dos teorías.   La
física  de  Newton explica virtualmente todos los movimientos observados en
el  sistema  solar,  pero  al  costo  de  introducir  algunas  suposiciones
arbitrarias.  Por  ejemplo  volvamos  a la ley del cuadrado inverso.  En la
teoría de Newton no  hay  nada  que  obligue  particularmente  a  esta ley.
Newton desarrolló esta idea para explicar hechos conocidos sobre el sistema
solar, como por ejemplo la ley  de  Kepler  entre  el tamaño de las órbitas
planetarias  y  el tiempo que les lleva  a  los  planetas  dar  una  vuelta
alrededor del Sol.  Si se reemplazara el  dos  por  un  tres  o un 5.8 nada
cambiaría en el marco conceptual de la teoría (aunque  las observaciones no
podrían  explicarse).    En la teoría de Einstein en cambio  no  hay  tanta
arbitrariedad.   Para cuerpos en movimiento lento en campos gravitacionales
débiles, para los  cuales  se  puede  hablar  de  una  fuerza gravitacional
newtoniana, la RG requiere  que  esta  fuerza vaya como el cuadrado inverso
(RG=>Newton).  No es posible  en  la RG ajustar la teoría para obtener otra
cosa que no sea la ley  del  cuadrado  inverso  sin  violar  alguno  de los
principios básicos de la teoría.  También  enfatizó  el propio Einstein que
el hecho que la fuerza de gravedad sobre  objetos pequeños sea proporcional
a  su  masa  y  no dependa de ninguna otra  propiedad  del  objeto  es  muy
arbitrario  en la teoría de Newton.  La fuerza gravitacional  podría  haber
dependido  de la composición química, el tamaño o la forma del  objeto  sin
afectar  la  base  conceptual  de  la  teoría newtoniana.  En la teoría  de
Einstein  la  fuerza que la gravedad ejerce sobre cualquier objeto debe ser
proporcional a  su masa e independiente de cualquier otra propiedad.  Si no
fuera así no se podría interpretar la gravitación como un efecto geométrico
de la curvatura del espacio-tiempo.  La teoría de Einstein es más rígida.

	Las  siguientes  fuerzas  estudiadas   cronológicamente  fueron  la
electricidad y el magnetismo.  Si bien estos fenómenos eran conocidos desde
la antigüedad, recién en el siglo  XIX fueron concebidos en el marco de una
teoría  común.   La carga eléctrica es  la  fuente  (el  origen)  de  estas
fuerzas,  y  por  eso  no  es  esta  una   interacción  universal  como  la
gravitatoria, sino que sólo actúa entre partículas cargadas.  Su intensidad
es  enorme  comparada con la gravitatoria (la fuerza gravitatoria entre  un
electrón  y  un protón, por ejemplo, es unas 1040 veces más  débil  que  la
fuerza  eléctrica  entre  ellos),  pero  como  las  cargas  son positivas y
negativas hay  una tendencia a la cancelación, y por eso la gravedad domina
el universo a grandes escalas.

	El electromagnetismo fue  formulado por Maxwell (alrededor de 1850)
al descubrir que la  electricidad y el magnetismo son en realidad distintos
aspectos del campo electromagnético.  Un cuerpo cargado eléctricamente crea
un campo electromagnético que ejerce fuerzas  eléctrica  y  magnética sobre
otros cuerpos cargados.  Maxwell calculó que la velocidad de propagación de
un campo electromagnético es la de la luz  y propuso entonces que la luz es
un fenómeno electromagnético.  Como las cargas pueden oscilar con cualquier
frecuencia Maxwell concluyó que la luz visible forma sólo una pequeña parte
de  todo  el  espectro  de  radiación electromagnética (que hoy sabemos que
incluye ondas de radio, luz UV, infrarroja, rayos X, etc.).

	Con  esta  teoría se alcanzó una sensación de completitud.  A fines
del siglo  XIX  se  pensaba  que  sólo había que calcular más precisamente,
aproximar con más  cifras  decimales,  pero  que no había más principios ni
leyes por descubrir.   La gravedad y el electromagnetismo son efectivamente
las más familiares de las  interacciones  fundamentales  y  con estas leyes
podían explicarse todos los fenómenos cotidianos. 

	Como  ya dijimos, la primera teoría  unificadora  en  el  siglo  XX
involucraba la gravitación de Einstein y el  electromagnetismo  de Maxwell.
Se hizo en el marco de una idea  que  actualmente se retoma en la teoría de
cuerdas:  aumentar el número de dimensiones del espacio-tiempo.

	El  primer  intento de unificación en la física de  este  siglo  se
remonta a 1921 cuando Kaluza, poco después que Einstein publicara su teoría
de la  relatividad,  propuso  unificar  las  interacciones  gravitatorias y
electromagnéticas agregando una  dimensión extra al espacio-tiempo.  Kaluza
escribió las ecuaciones del  campo gravitatorio en 5 dimensiones, agregando
simplemente  una  dimensión espacial imaginaria.    El  resultado  fue  muy
interesante:  vistas en 4 dimensiones  (compactificando una dimensión, como
explicamos  antes)  las  ecuaciones de Einstein reproducen  las  ecuaciones
gravitatorias  y  además  otro  conjunto  de  ecuaciones que  resultan  ser
precisamente  las  ecuaciones  de  Maxwell  para el campo electromagnético.
Así, formulando la RG en 5 dimensiones se pueden obtener  la  gravedad y el
electromagnetismo  en  una  única  teoría.    Sin  embargo,  nosotros  sólo
percibimos 4 dimensiones.    La  interpretación  de  esta  dimensión extra,
propuesta por Klein en  1926,  es  que  la dimensión extra es muy pequeña y
está enrollada, pero no dentro  del  espacio del 4D, sino de manera tal que
lo extiende.  Klein calculó la  circunferencia  de esta dimensión enrollada
alrededor de la quinta dimensión y resultó  ser  de  10-33  cm  (la long de
Planck), es decir mucho más pequeña que cualquier  estructura  que  se haya
observado, incluso en la física de las partículas subnucleares.

	Con  el  descubrimiento  de  las  interacciones  fuertes  y débiles
alrededor de 1930 la teoría de Kaluza-Klein perdió mucho de  su  atractivo:
una teoría unificada debería contener cuatro fuerzas, no sólo dos.   Las  5
dimensiones eran insuficientes.  En realidad para incluir estas dos fuerzas
adicionales  en una  idea  semejante,  ¡hacen  falta  justamente  10  u  11
dimensiones!  La misma cantidad que requiere la teoría de cuerdas.

	Dijimos que a finales  del  siglo  XIX  había entre los físicos una
sensación de que ya podían explicarse todos los fenómenos conocidos en base
a las leyes de Newton y  el  electromagnetismo de Maxwell.  Pero en 1895 se
descubrieron los rayos X, en 1896 la  radiactividad,  Thompson descubrió el
electrón  en  1897  y  esto indicó que había  nuevas  cosas  por  descubrir
estudiando  radiación  de  distintos tipos.  En 1905 Einstein  presentó  la
teoría especial de la relatividad, pero además sugirió un nuevo método para
demostrar  la  existencia  de los átomos e interpretó resultados anteriores
sobre la  radiación  calórica  en  términos  de una nueva partícula que más
tarde se llamó  fotón.    Se  sucedieron  entonces una serie de importantes
avances:  en 1911  Rutherford  presentó  su  modelo  atómico,  semejante al
sistema solar (pequeños núcleos rodeados  de nubes de electrones);  en 1913
Bohr explicó el espectro del átomo más sencillo, el hidrógeno.  De nuevo se
empezó a pensar en la posibilidad de  una  teoría  unificadora  de  toda la
física.  Y el marco adecuado lo proveyó uno de los hitos más importantes de
la física del siglo XX:  el descubrimiento de la mecánica cuántica en 1900.
La    mecánica  cuántica  introdujo  la  modificación  más  radical  en  el
pensamiento  físico:      las   partículas  y  fuerzas  newtonianas  fueron
reemplazadas por funciones de  onda  y  probabilidades  y esto hizo posible
calcular  las  propiedades,  no sólo  de  los  átomos  individuales  y  sus
interacciones  con  la  radiación, sino también  de  átomos  combinados  en
moléculas.  Se hizo evidente que las reacciones químicas son lo que son por
las  interacciones eléctricas de los electrones y núcleos  atómicos.    Tan
importante es la mecánica cuántica en la física moderna  que toda la física
se divide, a partir de ella, en clásica (o no cuántica) y cuántica.

	Una  de  las  primeras  aplicaciones de la MC fue calcular  que  la
energía de los campos magnéticos y eléctricos en un rayo de  luz  viene  en
paquetes que  se  comportan como partículas.  En consecuencia justifica los
fotones de Einstein. 

	Otro ingrediente de  esta  teoría  es el resultado de Dirac de 1928
según el cual la  descripción de los electrones en términos de funciones de
onda  es  consistente con la  teoría  especial  de  la  relatividad.    Una
consecuencia  de  esta  observación de Dirac  es  que  para  cada  tipo  de
partícula cargada (como el electrón) debe haber otra especie con igual masa
pero carga opuesta:  la antimateria.  En  1932  se  midió  el  positrón (la
antipartícula del electrón). 

	La teoría cuántica de los electrones y los fotones  es  la QED.  La
QED se usó en los años '20 y principios de  los  '30  para  calcular varios
fenómenos  (colisiones  de fotones con electrones, de un electrón con otro,
la  aniquilación  o producción de un electrón y un positrón) con resultados
sorprendentemente de acuerdo con el experimento.

	Pero pronto apareció un  nuevo  problema:    los  primeros cálculos
cuánticos de energías atómicas habían  dado resultados coincidentes con los
experimentos.  Pero cuando la mecánica  cuántica  se  aplicó  no  sólo  los
electrones en los átomos sino a los  campos  eléctricos  y  magnéticos  que
producen,  resultó  que el electrón ¡tenía energía infinita!    Aparecieron
otros infinitos en los cálculos y por cuatro décadas este resultado absurdo
pareció el obstáculo más grande para el progreso de la física. 

	A  mediados  de  los  '30 se consideraba que la QED  era  sólo  una
aproximación a la teoría completa, válida sólo para procesos que involucran
fotones, electrones y  positrones  de  energía suficientemente baja.  Había
problemas de consistencia interna debido a la aparición de los infinitos. 

	La solución al problema  de  los  infinitos apareció a fines de los
'40 y resultó consecuencia de  otra  unificación.    En  1940  fue  posible
unificar la Mecánica Cuántica con la  Relatividad Especial.  Los principios
de estas dos teorías son casi incompatibles  entre  sí  y  pueden coexistir
sólo  en un tipo muy limitado de teorías.    En  la  mecánica  cuántica  no
relativista    podíamos  imaginar  cualquier  tipo  de  fuerzas  entre  los
electrones y los núcleos atómicos, pero esto no es posible  en  una  teoría
relativista.   Las  fuerzas  o  interacciones  entre partículas sólo pueden
aparecer por intercambio  de  otras partículas.  Todas estas partículas son
paquetes de energía o "cuantos" de varios tipos de campos.

	Hay un campo para  cada  especie  de  partícula  elemental.  Hay un
campo  eléctrico  cuyos  cuantos  son    los    electrones,  hay  un  campo
electromagnético cuyos cuantos son los fotones.    No  hay campo del núcleo
atómico o de los protones y neutrones,  pero  sí  hay  de  los  quarks, las
partículas que componen el núcleo.  Las ecuaciones de una teoría de campos,
tratan  con  campos  no  con  partículas.    Las partículas  aparecen  como
manifestaciones de estos campos.

	La  solución  que  encontraron  los  físicos  al  problema  de  los
infinitos  gobernó  desde  entonces el curso de la física.  Los  electrones
libres  y en los átomos están siempre emitiendo y reabsorbiendo fotones que
afectan su masa y su carga y las hacen infinitas.  Para poder  explicar  la
carga  y  masa  observadas  (que son finitas), la masa y carga desnudas que
aparecen en las ecuaciones deben ser infinitas!  La energía total del átomo
es entonces la  suma  de dos términos, ambos infinitos:  la energía desnuda
que  es  infinita porque  depende  de  la  masa  y  carga  desnudas,  y  el
corrimiento calculado por las emisiones  y  reabsorciones de fotones que es
infinito  porque  recibe contribuciones de fotones  de  energía  ilimitada.
Esto permitió preguntarse si es posible que estos dos infinitos se cancelen
dejando un resultado finito, y la respuesta es afirmativa.

	Los  cálculos  de  estos  procesos  en  1948  eran    terriblemente
complicados  porque  daban  el  resultado  como  una suma de  términos  que
individualmente  violaban la relatividad especial, siendo sólo la respuesta
final consistente con la teoría de la relatividad.  Mientras tanto, Richard
Feynman y otros  físicos  estaban  desarrollando independientemente métodos
mucho más simples de cálculo, consistentes en cada paso con la relatividad.
Feynman desarrolló los diagramas que  llevan  su nombre y que ya vimos.  Se
usaron estas técnicas para hacer otros cálculos, algunos de ellos daban una
coincidencia  espectacular con el experimento.  Por  ejemplo,  el  electrón
tiene un pequeño campo magnético, originalmente calculado en 1928 por Dirac
sobre la base de su teoría cuántica relativista del  electrón.    Schwinger
había  realizado  cálculos aproximados del corrimiento en la intensidad del
campo  magnético  del  electrón  causado  por  procesos  en que fotones son
emitidos y reabsorbidos.  Los cálculos fueron continuamente refinados desde
entonces, y el resultado  moderno  es  que  el campo magnético del electrón
aumenta por emisiones y reabsorciones de fotones y efectos similares por un
factor 1.00115965214 (con un error o  incerteza  de  3 en el último dígito)
sobre la vieja predicción de Dirac que  había ignorado estos efectos.  Casi
simultáneamente  con los cálculos de Schwinger, experimentos realizados  en
la Universidad de Columbia indicaban que el campo magnético del electrón es
en realidad un poco mayor que el viejo resultado de  Dirac  y justamente en
la cantidad calculada por Schwinger.  Un experimento reciente da un  factor
1.001159652188,   con  una  incerteza  de  4  en  el  último  dígito.    La
coincidencia  numérica   entre  teoría  y  experimento  es  quizás  la  más
impresionante de toda la ciencia.

	Con  semejante  éxito  no  es  sorprendente  que  la  QED  se  haya
convertido en la teoría correcta de los fotones y electrones.  Sin embargo,
a pesar del éxito experimental  de  la  teoría,  y  aunque los infinitos se
cancelan  cuando se los trata adecuadamente,  el  hecho  de  que  aparezcan
produce  cierta  desconfianza.    Dirac  en  particular  se  refería  a  la
renormalización como si se estuviera barriendo los infinitos  debajo  de la
alfombra.  El requerimiento de una teoría completamente finita  es parecido
a  otros  varios juicios estéticos que los físicos teóricos siempre  tienen
que hacer.  Entonces, encontrar teorías que no tengan infinitos parece  ser
un  camino  apropiado  para  avanzar  en  la  búsqueda  de la teoría final.
Actualmente  la  teoría  de  cuerdas parece ser el único modo de evitar los
infinitos cuando se quiere unificar la mecánica cuántica con la relatividad
general.

	El siguiente gran progreso  realizado  por  la  teoría  cuántica de
campos  fue la unificación del  electromagnetismo  con  la  teoría  nuclear
débil.

	Las   otras  dos  interacciones  fundamentales  (además    de    la
gravitatoria  y  la electromagnética) son la fuerte  y  la  débil.    Estas
fuerzas no son observables directamente en la vida cotidiana, ya que actúan
a escala subatómica.  La primera es responsable de mantener unidos protones
y neutrones (explica por qué no se separan los protones  del núcleo atómico
debido  a  la  fuerza de repulsión eléctrica y no se desintegra  el  núcleo
atómico,  pero  actúa  también  entre  otras  partículas  pesadas  llamadas
hadrones.  Es de  "corto  alcance"  (se extingue más allá de 10-13 cm) y su
fuente es el color, equivalente  de la carga eléctrica, que en este caso es
de 3 tipos:  rojo, verde y azul.  

	La fuerza débil, mucho más débil que la electromagnética pero mucho
más  fuerte  que  la  gravitatoria,  se  manifiesta   especialmente  en  la
transmutación de partículas.  Fue postulada inicialmente para  explicar  el
decaimiento  beta,  un  tipo  de radiactividad de ciertos núcleos  atómicos
inestables.

	En un decaimiento beta típico un neutrón se convierte en un protón,
un electrón y un antineutrino, a través de un cambio de  sabor (equivalente
a  la masa, carga o color en las otras fuerzas) de un  quark.    La  fuerza
nuclear  débil  no  es  tan  importante  en nuestra vida cotidiana como las
fuerzas magnéticas,  eléctricas o gravitatorias, pero juega un rol decisivo
en las cadenas  de  reacciones nucleares que generan energía y producen los
elementos químicos en los  núcleos  de  las  estrellas.    Esto es algo que
ninguna otra fuerza puede permitir  que  suceda.   La fuerza nuclear fuerte
que mantiene los protones y neutrones  juntos  en  el  núcleo  y  la fuerza
electromagnética que trata de separar los protones,  no  pueden cambiar las
identidades  de estas partículas, y la fuerza gravitatoria  ciertamente  no
puede  hacer  nada  de  este  tipo,  entonces la observación  de  neutrones
cambiando a protones y viceversa proveyeron la evidencia de un  nuevo  tipo
de fuerza en la naturaleza.  Como su nombre lo indica,  la  fuerza débil es
más débil que la electromagnética o la nuclear fuerte.

	En 1957  la  teoría de las interacciones débiles estaba establecida
en el contexto  de  la teoría cuántica de campos, pero había un sentimiento
de insatisfacción.  Los  problemas  no  eran  experimentales sino teóricos.
Aunque la teoría funcionaba bien  para el decaimiento beta, al ser aplicada
a otros procesos más exóticos aparecían  nuevamente  infinitos (p.  ej.  la
probabilidad  de  colisión  de  un  neutrino con  un  antineutrino).    Los
experimentos no podían hacerse, pero obviamente los resultados infinitos no
podían  coincidir  con  ningún resultado experimental.  Estos infinitos  ya
habían aparecido en QED, pero en 1940 se había mostrado  que se cancelan en
esta teoría, es decir QED es renormalizable.  Pero la teoría  de  Fermi que
describía las interacciones débiles no lo era.

	Otro problema  con  esta  teoría  era  que  tenía  muchos elementos
arbitrarios.  La  forma  básica  de  la interacción débil se había inferido
básicamente del experimento pero  podría  haber sido muy diferente, aun sin
violar ningún principio físico conocido.

	La solución la encontraron Weinberg  y  Salam y por esto recibieron
el premio nobel de física en  1979.    Así  como la fuerza electromagnética
entre partículas cargadas es causada por el  intercambio  de  fotones,  una
fuerza  débil no podría actuar instantáneamente en un  punto  del  espacio.
Weinberg  y Salam propusieron la existencia de nuevas partículas,  W  y  Z,
nuevas partículas mensajeros que no podían ser no masivas como los fotones,
pero se introducían en la teoría del mismo modo.  Esto  hizo  que la teoría
se hiciera renormalizable como la QED.  Al hacerlo se vio que  no  era sólo
una  teoría  de las interacciones débiles sino una teoría unificada con las
fuerzas electromagnéticas, que se llamó teoría electrodébil. 

	La verificación  experimental  llegó  mucho  después.    En 1983 se
descubrieron las partículas  W  y en 1984 la partícula Z, cuya existencia y
propiedades habían sido predichas  correctamente por la teoría electrodébil
1968.

	Al unificar el electromagnetismo con las interacciones débiles esta
teoría no sólo permitió eliminar inconsistencias de la teoría débil previa,
sino que predijo la existencia de nuevas  partículas  (los gluones W( y Z),
observadas experimentalmente en 1983.   

	En  los  '60  Gell-Mann  y  Zweig  trataban de  reducir  el  enorme
zoológico  de  partículas  conocidas.    Propusieron  que casi todas  estas
partículas  estaban  compuestas  de  unas  pocas  partículas  simples,  más
elementales, llamadas  quarks.    La idea iba en la misma dirección que los
físicos estaban acostumbrados  a  pensar;   era un paso más en la tradición
que comenzaron Leucipo y  Demócrito,  de  tratar  de  explicar  estructuras
complicadas en términos de constituyentes  más simples y más pequeños.  Los
quarks se aplicaron en los '60  a  una  gran  variedad de problemas físicos
relacionados con las propiedades de los neutrones,  protones  y  mesones  y
todas las otras partículas supuestamente hechas de quarks,  y  generalmente
la  teoría  funcionaba  bastante bien.  Pero incluso los  mejores  intentos
experimentales de los '60 y '70 de extraer los quarks de las partículas que
supuestamente los contenían,  fracasaron.    Esto parecía imposible.  Desde
que Thompson sacó los  electrones  de los átomos siempre había sido posible
romper cualquier sistema compuesto como  una molécula en átomos o un núcleo
en las partículas individuales que lo  componen.    Pero  parece  imposible
aislar los quarks.

	La teoría de los quarks empezó a  tener  sentido con la elaboración
de  la cromodinámica cuántica en los '70, nuestra  moderna  teoría  de  las
interacciones  fuertes.   Esta teoría prohíbe cualquier proceso en  que  un
quark  libre  pueda  ser  aislado (confinamiento).  La teoría de  quarks  y
gluones  se llamó cromodinámica cuántica y fue aceptada rápidamente como la
teoría de las interacciones nucleares fuertes.

	La   idea  de  que  los  quarks  y  gluones  no  pueden  observarse
aisladamente es  parte  de  los  principios  aceptados  por  la  física  de
partículas elementales, pero  aún así describimos los neutrones, protones y
mesones como compuestos por quarks.
 
	¿De qué manera comprender  estas  fuerzas nos permite comprender la
naturaleza?  Consideremos para ilustrar  estas ideas un pedazo de tiza.  La
tiza es una sustancia familiar, sobre todo para los docentes.

	La tiza es blanca.  ¿Por  qué?    Todos sabemos que los colores del
arco iris se asocian con luz de  determinada  longitud de onda:  más largas
al rojo, más cortas al violeta y azul.    Cuando  la  luz  choca  contra un
objeto  opaco  como  la  tiza  sólo una parte se  refleja;    el  resto  es
absorbido:  una sustancia de determinado color lo es porque  absorbe  ondas
de  ciertas  longitudes  de  onda:  vemos el color que refleja.    La  tiza
absorbe  en  el  infrarrojo  y el ultravioleta, que son rangos del espectro
invisibles y refleja todos los otros.

	¿Pero  por  qué?    ¿Por qué la tiza absorbe las longitudes de onda
invisibles y  refleja  todas  las visibles?  La respuesta tiene que ver con
las energías de  los átomos y la luz.  Los fotones de la luz no tienen masa
o carga pero tienen cierta energía, inversamente proporcional a la longitud
de onda de la luz.    Los estados de un átomo son discretos, definidos:  no
se pueden cambiar excepto en ciertas  cantidades definidas.  Normalmente un
átomo está en su estado de mínima  energía;   cuando absorbe luz salta a un
estado de mayor energía y de menor energía  cuando  emite.    Entonces sólo
absorbe o emite fotones de esas energías particulares.   La  tiza es blanca
porque  las  moléculas que la componen no tienen un estado  al  que  puedan
saltar absorbiendo fotones de cualquier color de luz visible.

	¿Por  qué?    ¿Por  qué  los  átomos y moléculas vienen en  estados
discretos  con  energía  definida?    ¿Por  qué la luz viene en fotones  de
energía definida?   Estas preguntas se respondieron en 1920 con la Mecánica
Cuántica.  Las partículas de un átomo se describen en Mecánica Cuántica con
funciones de onda.  Es como una onda de luz o sonido pero su magnitud da la
probabilidad de encontrar a las  partículas  en  un determinado lugar.  Las
moléculas de carbonato de calcio que  forman  la  tiza no tienen electrones
que puedan cambiar su energía absorbiendo luz visible.  Los fotones también
sólo pueden existir en determinadas energías.

	¿Y por qué?  ¿Por qué las ecuaciones  de  la MC que gobiernan a las
partículas en los átomos son así?  ¿Por qué  la materia consiste de átomos,
electrones y núcleos?  ¿Por qué hay algo como la  luz?   Las respuestas nos
remontan  al Modelo Estandar y para eso fue necesaria la reconciliación  de
la MC con la Rel.  Especial en 1940.  Los principios  de  estas dos teorías
son casi incompatibles entre sí y pueden coexistir sólo en un tipo limitado
de teorías.   En la mecánica cuántica no relativista podíamos imaginar casi
cualquier tipo de fuerza  entre electrones y núcleos pero esto no es así en
una teoría relativista.  Las  fuerzas entre partículas sólo pueden aparecer
por intercambio de otras partículas.   Todas  estas partículas son paquetes
de energía o "cuantos" de varios tipos  de  campos.   Un campo (eléctrico o
magnético) es una deformación del espacio.  Hay  un tipo de campo para cada
especie de partícula elemental.

	¿Por qué?  ¿Por qué el mundo consiste sólo  de  estos  campos:  los
quarks,  electrones, fotones,...?  ¿Por qué tienen las propiedades que  les
atribuye  el  modelo  estándar?    Y  ¿por  qué  la naturaleza obedece  los
principios de la relatividad y la mecánica cuántica?

	Estas preguntas todavía  no tienen respuesta.  Ahora que entendemos
cómo funciona empezamos a  preguntarnos por qué.  ¿Por qué hay un neutrón y
un protón, uno neutro y  otro  cargado  con  casi la misma masa y mucho más
masivo que el electrón?  Para  eso  debemos  ver  los  detalles  del modelo
estándar.  Los quarks más livianos se  llaman  u  (up)  y d (down) y tienen
cargas +2/3 y -1/3 (en unidades en que  la  carga  del elecrón es -1).  Los
protones consisten de dos u y un d y  entonces  tienen carga 2/3+2/3-1/3=1.
Los neutrones consisten de un u y dos d entonces su carga es 2/3-1/3-1/3=0.
Las masas de los neutrones y protones son casi iguales porque  se  originan
en  fuerzas  fuertes que mantienen a los quarks unidos y estas fuerzas  son
iguales  para  un u y un d.  El electrón es más liviano  porque  no  siente
estas fuerzas fuertes.    Todos  los  quarks  y  electrones son paquetes de
energía de varios campos  y sus propiedades se siguen de las propiedades de
estos campos.

	De  nuevo  llegamos  al  Modelo  Standard.    Cualquier  cadena  de
preguntas sobre la tiza nos lleva  al  Modelo  Standard.   Vayamos ahora en
otra dirección:  ¿Por qué hay suficiente  calcio, carbono y oxígeno aquí en
la  tierra  para  formar  la tiza?  Estos  elementos  existen  en  todo  el
universo, fueron creados en las estrellas.  Usando el modelo del big bang y
el Modelo Standard podemos calcular que la materia se formó en los primeros
minutos del universo y que se formó en la proporción de  3/4  partes de H y
1/4 de He y muy pocos otros elementos livianos.  Este es  el material crudo
del  que  se formaron los elementos más pesados en las estrellas.  Cálculos
de reacciones  nucleares  en  estrellas  muestran  que  los  elementos  más
abundantes son aquellos  cuyos  núcleos están más ligados y estos elementos
incluyen carbono, oxígeno y  calcio.  Las estrellas mandan este material al
medio interestelar de varios modos:    vientos  estelares  y explosiones de
supernovas.  Y en este medio, rico en constituyentes de tiza, se forman las
estrellas  de  segunda  generación  como el Sol,  y  sus  planetas.    Este
escenario depende de que haya habido un big  bang  hace  10 mil millones de
años.

	Siempre que hemos seguido las cadenas de preguntas sobre  fuerzas y
materia  suficientemente  lejos,  las  respuestas  se  han encontrado en el
modelo  standard  de  las  partículas elementales y la relatividad general.
Los físicos  experimentales  y  astrónomos  han  reportado  cada  vez mejor
coincidencia entre sus  resultados  y  observaciones y las predicciones del
modelo estándar y la  RG.    Entonces,  ¿por  qué  hay  esta  sensación  de
pesimismo?

	En  primer  lugar,  el  modelo    standard   describe  las  fuerzas
electromagnética y nucleares fuerte y débil,  pero  no incluye la gravedad.
Hay obstáculos matemáticos muy fuertes para describir  la gravitación en el
mismo lenguaje que las otras fuerzas, en el  lenguaje de la teoría cuántica
de  campos.  En segundo lugar, aunque las interacciones  nucleares  fuertes
están  incluidas  en  el MS, aparecen como algo bastante diferente  de  las
fuerzas  electromagnéticas y nucleares débiles, no como parte de una teoría
unificada.   Finalmente,  el  MS contiene muchas características que no son
dictadas por principios  fundamentales,  sino  que  deben  ser  tomadas del
experimento.  Estas características  aparentemente  arbitrarias incluyen un
menú de partículas, varias constantes  como  cocientes  de masas, e incluso
los propios principios.  Podríamos imaginarnos  que  cualquiera  o todas de
estas  características  podrían  ser distintas.  El  MS  y  la  RG  no  son
claramente la respuesta final.

	¿Por  qué  la  unificación  se da a altas  energías?    Cuanto  más
profunda es la estructura a analizar, mayor es la  energía  necesaria.   La
idea  que  dominó las unificaciones que desembocaron en el MS  es  que  las
fuerzas  intrínsecas    de    las    3    interacciones  (débil,  fuerte  y
electromagnética) son iguales  a alguna energía muy alta y se diferencian a
energías menores.  Las diferentes identidades que manifiestan estas fuerzas
a bajas energías se funden  en  una única interacción a energías más altas.
Pero esta energía de unificación puede  ser  muy  diferente  de  las que se
alcanzan  en  los  experimentos  presentes.    Hay  3  fuerzas  intrínsecas
independientes  en el MS, entonces no es una  condición  trivial  que  haya
alguna energía a la cual estas fuerzas sean iguales.    La energía predicha
es  muy  alta  (1016 GeV)(los aceleradores sólo llegan hasta ~cientos  GeV)
(escala de unificación electrodébil ~ 80 GeV).  (1MeV= 10^6 eV;    1  GeV =
10^9 eV;  1 TeV = 10^12 eV).

	Este  parece  un  número  muy grande, pero en la física teórica hay
otra energía  muy  grande  que aparece naturalmente en cualquier teoría que
intente unificar la  gravedad  con  las  otras  fuerzas.    En  condiciones
ordinarias la fuerza de gravedad es mucho más débil que las otras 3.  Nunca
se  ha observado ningún efecto  de  las  fuerzas  gravitatorias  entre  las
partículas  dentro  de  un único átomo  o  molécula,  y  no  hay  demasiada
esperanza de que alguien podrá.  Pero según la RG, la gravedad se produce y
actúa tanto sobre energía tanto como sobre masa.   Este es el motivo por el
que los fotones que tienen energía pero no masa  se  deflectan por el campo
gravitatorio  del  Sol.    A  energías  suficientemente altas la fuerza  de
gravedad entre dos partículas elementales se hace tan fuerte como cualquier
otra  fuerza  entre ellas.  La energía a la que esto sucede  es  1019  GeV,
llamada energía de Planck, es la que tuvo lugar en el big bang.

	Podemos  aplicar las ecuaciones de la MC a las ecuaciones de la RG,
pero volvemos al  problema  de  los  infinitos.    Cada  infinito  se puede
cancelar agregando nuevos términos,  pero  así  se  llega  a una teoría con
infinitas constantes desconocidas que puede ser útil para calcular procesos
a energías relativamente bajas, a las  que los términos que hay que agregar
son despreciables, pero pierde poder predictivo cuando  se  la  aplica a la
escala de Planck.  Al presente estos procesos son incalculables.

	Por supuesto estas energías no pueden alcanzarse experimentalmente,
pero para poder considerar una teoría como satisfactoria no  sólo tiene que
reproducir  los resultados de los experimentos sino hacer predicciones para
experimentos que en principio sean plausibles.  En este sentido la  RG está
en la misma situación en que estaba la teoría débil antes de la formulación
de  la  teoría  electrodébil  a fines de los '60:  RG funciona bien  cuando
puede ser testeada experimentalmente pero contiene contradicciones internas
que muestran que debe ser modificada.

	El valor de la energía de Planck  nos  pone frente a nuevo problema
formidable.  Esta energía es tremendamente grande aparece  a  un  nivel tan
profundo  que  podemos  suponer  que  la  energía de Planck  es  la  unidad
fundamental de energía que aparecerá en la teoría final.

	Como  el  MS  no  incluye  la  gravedad  pensamos  hoy que  es  una
aproximación  de  bajas  energías  de la teoría unificada fundamental y que
pierde su validez a energías como la de Planck.  Ahora se  piensa  que  las
ecuaciones  del  MS no son del tipo sencillo de las que son renormalizables
sino que en  realidad  contienen  todos  los  términos  compatibles con las
simetrías de la teoría.    El motivo por el que las teorías renormalizables
funcionan tan bien sería que todos los términos en las ecuaciones de campo,
excepto los renormalizables, vienen divididos por  potencias  de la energía
de Planck.  El efecto de estos  términos  sobre  cualquier  proceso  físico
observado  sería  entonces  proporcional  a  potencias del cociente  de  la
energía del proceso por la energía de Planck, una cantidad tan pequeña como
una  parte  en  1015.    Es  decir  que  practicamente  la    condición  de
renormalizabilidad  era  correcta,  aunque se imponía por motivos que ya no
son relevantes.
 
CONCLUSIONES
	La  teoría final puede estar muy lejos y ser muy diferente de  todo
lo  que  hoy  sabemos o podemos imaginar.  Es muy probable que esta  teoría
incorpore  la mecánica cuántica pues nadie ha sido capaz de modificar la MC
de modo  de preservar sus éxitos sin llevar a absurdos lógicos.  También se
supone que la  teoría  final descansará en principios de simetría, como las
actuales MS y RG:   las simetrías espacio tiempo de la RE que requieren que
el MS sea formulado como  una  teoría  de  campos, y simetrías internas que
dictan la existencia del campo em y los otros campos que llevan las fuerzas
del MS.

	Los  últimos  15  años  han  visto  el    desarrollo  de  un  marco
radicalmente nuevo para una teoría cuántica de la  gravedad  y posiblemente
todo lo demás:  la teoría de cuerdas.   Esta  teoría  nos ha dado el primer
candidato posible para una teoría final.

	Desde  este  punto  de  vista  el MS es una aproximación  de  bajas
energías de una teoría fundamental que no es una teoría de  campos, sino de
cuerdas.    Esta  ruptura  radical  marca  el  comienzo  de  una  nueva era
postmoderna en física.

	Como las cuerdas incorporan gravitones y todas las otras partículas
parecen proveer por  primera  vez  la  base  para una posible teoría final.
Como el gravitón parece  ser  una  característica  inevitable  de cualquier
teoría de cuerdas, se puede  decir que la teoría de cuerdas explica por qué
existe la gravitación.

	Las teorías de cuerdas también parecen  haber  resuelto el problema
de los infinitos que habían plagado las  teorías  cuánticas  previas  de la
gravedad.  Las cuerdas parecen estar libres de infinitos.

	Una  diferencia  fundamental  entre  las teorías de cuerdas  y  las
teorías  previas  es  que  los  principios  no  se  ponen   a  mano;    son
consecuencias  matemáticas  del  modo  particular  en que las reglas de  la
mecánica cuántica se satisfacen en cada paso particular.  Hasta ahora  sólo
existe  una  formulación   muy  elegante  matemáticamente,  pero  para  ser
verdaderamente exitosa la teoría  debe tener una única solución a partir de
la cual podamos saber qué tipos de partículas existen a bajas energías, sus
masas, las intensidades de sus interacciones,  probabilidades  de todo tipo
de  procesos.    Sólo  realizando estos cálculos  y  comparándolos  con  el
experimento podremos saber si la teoría es correcta.

	Todavía no hay un test decisivo de la  teoría,  no hay predicciones
cuantitativas.   Pero es la única fuente presente de  candidatos  para  una
teoría final.  Se puede pensar en la teoría de  cuerdas  como  la instancia
inicial  de  un  programa  que  contiene  la primera teoría matemáticamente
satisfactoria de  la gravedad cuántica y que además parece ser un candidato
plausible para describir también las otras fuerzas de la naturaleza.

	Un incentivo para  recorrer  el duro camino de entender las teorías
de  cuerdas  es  que,    si  las  supercuerdas  realmente  constituyen  una
explicación cuantitativa de todas las  partículas  e  interacciones  de  la
naturaleza,  representarán  uno de los mayores  éxitos  científicos  de  la
historia de la Humanidad. 

	Pero  no  todos  los  físicos comparten este  optimismo.    Algunos
piensan, filosófica y científicamente, que estos esfuerzos están  dirigidos
en   la  dirección  equivocada.    Entre  ellos,  Richard  Feynman    dijo,
refiriéndose a las cuerdas:  "...creo que todo esto es un disparate."

Más información  en:   http://www.feyman.physics.lsa.umich.edu/strings2000/
mtheory.html http://www.superstringtheory.comlindex.html 
///


[]	ESTRÓGENOS NO TAN BUENOS

	Desde hace algunos  años  se  ha  tomado  como práctica terapéutica
	habitual,  la  utilización de  parches  de  estrógenos  en  mujeres
	menopáusicas.  Mediante las mismas se intenta compensar la falta de
	hormonas propias del la etapa reproductiva  femenina, con el fin de
	mejorar su calidad de vida sexual y  evitar riesgos de nefermedades
	asociadas  a  la  menopausia  tales  como  la  osteoporosis.    Sin
	embarhgo,    nuevos  estudios  realizados  en  los  Estados  Unidos
	demostrarían que estas terapias hormonales no son tan inocuas. 

	La doctora Emily White, autora principal del estudio y epidemióloga
del  Centro de Investigación en Cáncer Fred Hutchinson de Seattle,  Estados
Unidos,  dijo  que la evidencia acumulada de que las terapias de  reemplazo
hormonal elevan el riesgo de cáncer de mama son "muy fuertes".   La doctora
White  también  dijo  que  la  idea  de  que  estas  terapias  previenen la
enfermedad cardiovascular  -idea  que constituye la causa principal para la
recomendación del uso  de  estrógenos  después  de  la  menopausia- ha sido
cuestionada por estudios recientes. 

	"Creo que la comunidad  científica necesita reevaluar los riesgos y
beneficios  para  contar  con nuevas  sugerencias  y  consensos  sobre  las
terapias de reemplazo hormonal", afirmó. 

	El estudio suma evidencia de que  las  mujeres  que  se  someten  a
terapias de reemplazo hormonal durante cinco años  o  más  tienen un riesgo
mayor  de sufrir cáncer de mama, especialmente de  un  tipo  conocido  como
tumor lobular, que representa entre el 5 y el 10% de todos estos cánceres. 

	El  informe,  publicado  en  el  Journal  de  la Asociación  Médica
Norteamericana  (JAMA),  muestra que las mujeres que toman hormonas durante
cinco años o más tienen -en los siguientes seis años- un aumento del riesgo
que oscila entre el 60 y el 85%, en relación con las  que  no  toman.   Los
hallazgos  se  aplican igualmente a las mujeres que toman estrógenos como a
las que los toman en combinación con otro hormona, la progesterona. 

	Trasladando estos  porcentajes  a  casos,  el estudio revela que de
100.000 mujeres que  no  toman  hormonas, 253 sufrirán un tumor de mama (23
del tipo lobular), mientras  que  entre  las  que  consumen  estrógenos  se
producirán 419 casos (70 lobulares). 

	"Cada vez está más claro  que los beneficios son mucho más pequeños
de lo que esperábamos y que  los  riesgos son considerables -dijo el doctor
Clifford  Hudis,  jefe  del  Servicio  de  Medicina  Mamaria  del  Memorial
Sloan-Kettering Cancer Center, de Nueva York, Estados Unidos-.   Pero antes
de entrar en pánico deberíamos tener una visión más  amplia  de  cuál es su
impacto en la sociedad.  Aun cuando eleven el riesgo  de  sufrir  una forma
rara  de  cáncer,  la  visión más general está mejorando:  los  índices  de
mortalidad por cáncer de mama en los Estados Unidos están cayendo." 

	Por otro  lado,  las  terapias  de  reemplazo hormonal previenen el
adelgazamiento de los  huesos y combaten los sofocos y otros síntomas de la
menopausia.  Hasta que  se  cuente  con estudios más amplios, las mujeres y
sus  médicos  deberán  realizar  elecciones    basadas  en  la  información
disponible que es aún incompleta. 

	"No podemos ser dogmáticos sobre estas terapias -dijo Hudis-.  Para
algunas mujeres, la mejoría en la calidad  de  vida  que aportan la vuelven
claramente útiles.  Pero sus beneficios para la  salud  están hoy mucho más
cuestionados y sus riesgo, mejor definidos." 
///


[]	BREVES DE CIENCIA Y TÉCNICA

>	ROBOTS EN LAS PIRAMIDES.  Un extraño caso en  la  investigación  de
las  pirámides  acabó, increíblemente, en otro descubrimiento.  La National
Geographic  Society    efectuó  días  pasados  reiterados  anuncios  de  la
exploración de un conducto de la pirámide de Keops por medio de una pequeña
cámara robot, cuyo reducido  tamaño le permitiría introducirse por espacios
muy  pequeños.    El  evento  fue  televisado  en  vivo,  con  millones  de
televidentes siguiendo paso a paso el  recorrido del robot.  Pero cuando el
dispositivo llegó al final del recorrido, se topó con un objeto que bloqueó
su paso, posiblemente otra puerta.
	"Lo que hemos visto esta noche es algo  único  en  el  mundo  de la
egiptología.  Nada se le compara, ya que estos  pasajes no existen en otras
pirámides,  con  o  sin  puertas.    La  presencia  de una  segunda  puerta
profundiza  más  aún  el  misterio que rodea a la Gran Pirámide",  dijo  al
respecto Zahi Hawass, jefe del Consejo Superior de Antigüedades de Egipto.
	El hallazgo,  lejos  de  cualquier  exitismo televisivo, no deja de
resultar prometedor.   Los  científicos  que  trabajan  en  el proyecto han
señalado que tienen esperanzas  de  que  del  otro  lado  del  obstáculo se
encuentre una cámara secreta.   Pero  el  misterio no será develado a corto
plazo, ya que para poder acceder  a la misma estiman que necesitarán un año
más  de dura labor.  "Quizás haya  algo  perteneciente  a  Keops  escondido
detrás de la segunda puerta.  O quizá no haya nada.  Lo cierto es que hemos
descubierto  qué  había  detrás  de  la  puerta y revelado  que  el  enigma
continúa.  Ese es el valor de nuestro hallazgo", expresó Hawass. 
	"Pyramid  Rover",  la  cámara  robot  utilizada,  es un instrumento
pequeño del  tamaño  de  un  tren  de  juguete,  pero  con  un costo de U$S
250.000.-.  Fue  especialmente desarrollado por la empresa iRobot para esta
misión, y se comportó  perfectamente,  realizando  un  recorrido de unos 60
metros que le llevó cerca  de dos horas, durante el cual mostró imágenes de
excelente calidad. 
	El programa será transmitido en nuestro  país  por  el  canal de la
National Geographic, este sábado 21/09 a las 22hs.

Más información:
http://crater.nationalgeographic.com/pyramids/pyramids.html
http://www.nationalgeographic.co.uk/egypt_chambers/egyptchambers.shtml
http://www.irobot.com/home/default.asp


      ///////////////// FIN DE LA SEGUNDA SECCION  \\\\\\\\\\\\\\\\\
      \\\\\\\\\\\\\\\\ CONTINUA EN TERCERA SECCION /////////////////

Educyt, semanario de noticias de Educacion, Universidad,  Ciencia y Tecnica
Editores  responsables:    Fernando  Demarco  y  Carlos  Borches

E-mail:  educyt@de.fcen.uba.ar


NOTICIAS | BREVIARIOS | CABLE SEMANAL | EDUCYT | EXACTAMENTE | LISTA EXACTAS
MICROSEMANARIO | OPINION | AGENDA | LIBROS Y REVISTAS | DOCUMENTOS