It is a great pleasure to be here.
As we have already heard about, we are celebrating in 2015 the International Year of Light.
I thought it was a good opportunity to reflect on the revolutions
that lasers have brought about in physics and in chemistry over the last 50 years.
In fact, I have been very lucky to start my research career in the sixties, at the time the laser was invented.
I was also lucky to be accepted in the laboratory of Kastler and Brossel at the École Normale Supérieure in Paris.
Kastler had invented the method of optical pumping.
How you can use polarized light to interact with atoms to bring these atoms into very special states
to manipulate their quantum state, and to achieve states out of equilibrium.
In fact, at that time optical pumping was achieved with classical lamps.
But when the laser came on the stage the optical pumping was refined using lasers.
In fact, the method of optical pumping is still used in cold atom physics, in iron trap physics, in atomic clocks,
and so it's a very, very general method.
I was just a graduate student at that time and this picture was taken in the lab
on the day Kastler got his Nobel Prize for the method of optical pumping.
So, you see, I am sitting between Kastler and Brossel.
I am very happy, and more than happy, very proud to be part of a lab that got such world-wide attention.
You see on the left, Claude Cohen-Tannoudji, who was my thesis advisor.
He was a former student of Kastler and Brossel.
He is here at this meeting, unfortunately in a parallel session.
It's very nice to remind us of these memories.
At that time, we were all aware that the laser was announcing exciting times for atomic physics.
We knew that the laser would be very useful, but we could not imagine the magnitude of the progresses that the lasers would bring.
In fact, I would like to show you today that ten orders of magnitude have been gained in many domains,
leading not only to this kind of quantitative change -
it leads to qualitative changes too, and leading to very unexpected physics.
The story started, of course, a few years earlier when, in 1954, Townes and his student, Gordon,
developed the first coherent emitter of radiation based on atomic physics.
It was the ammonia beam maser.
Maser, of course, stands as an acronym for microwave amplification by stimulated emission of radiation.
It was an atomic beam machine.
I think it's also interesting to remind ourselves that it's not just by chance that this happened at Columbia.
In fact, Rabi developed a school at Columbia University before the war.
He developed the method of molecular beams.
These molecular beams have announced not only the maser and the laser,
but also atomic clocks, nuclear magnetic resonance, MRI, and so on.
All this physics originated from Rabi's molecular beam method.
This is a good example of the fact that blue sky research leads to application in unexpected ways.
Of course, when the maser was developed the question which arose immediately
was to extend it into the optical domain, what was then called the optical maser.
Charles Townes and his brother-in-law, Art Schawlow, wrote the first theoretical paper explaining how an optical laser would work.
In fact, Townes thought that maybe the optical pumping technique would be useful to invert the populations in an atomic medium.
I was told that he came to Paris in 1958 to discuss these ideas with Kastler.
But in fact, the first lasers were according to other processes.
The first laser was the solid state laser, the Ruby laser, which operated in pulses.
It was invented by Theodor Maiman in 1960.
A few months later, the first gas laser operating with a mixture of helium and neon operated continuously
and it was discovered by Ali Javan and Bennett.
So starting from this time, this laser source has been developed into new kinds of lasers
with very interesting and fascinating properties.
I just want to summarize on this slide some of the properties of the laser.
In fact, these properties are somewhat contradictory.
The laser can do one thing, and the opposite.
I think this is an example of Bohr‘s complementarity idea.
Depending upon the way you use it, the development can do one thing or its contrary.
For instance, lasers can bring matter to the highest possible temperature.
They can lead to the fusion of matter, to the evaporation of matter,
and they can also lead to such high temperature, millions, billions of degrees -
temperatures at which nuclear effects could happen.
For example, a nuclear fusion can be triggered by exceedingly high intensities.
At the same time, under other conditions, lasers can achieve the lowest possible temperatures.
They can be used by exchange of momentum with matter to bring atoms almost to become motionless.
And to produce the coldest objects in the universe,
leading to new phases of quantum matter called Bose–Einstein condensates or degenerate quantum gasses.
In another direction, you can think of lasers as being ultra-stable light beams.
You can build lasers who correspond to light waves extending over millions of kilometres without skipping a beat.
These extra stable lasers can be used to build atomic clocks which have an extremely high precision.
At the same time, you can pack the energy of light beams into very, very short pulses, which extend over a few nanometres,
which have only a few cycle of oscillation, and which last a few attoseconds, billionths of a billionth of a second.
These very short pulses can be used to probe, to perform spectroscopic holography of matter at the extreme limit.
So, it's a very flexible tool for fundamental research in physics, in chemistry, in biology of course,
and, as we all know, for applications to metrology, to medicine, to communication and so on.
To come back to history, I think you can more or less arbitrarily divide this half-century in decades.
The first decade, the1960s, was the birth of the laser, the mature years of optical pumping
starting to use lasers to perform more and more refined optical pumping experiments
and getting the first non-linear optics experiments with lasers.
The 1970s saw the burst of tuneable lasers,
lasers which can be adjusted to excite specific energy levels in atoms, and achieve ultra-high resolution spectroscopy.
The 1980s was the decade of laser cooling.
How to use laser light to bring atoms to rest.
It was also the time where atom-photon interaction was studied in details in Cavity QED and the beginning of ion trap physics.
The 1990s was the decade where quantum information came into play, where people understood
that one can use the manipulations of atoms to perform logic operations in which quantum effects were important.
And this was the beginning of quantum information.
It was also the decade where Bose Einstein Condensation was achieved
and where processes to get ultra-fast laser pulses were developed.
In the year 2000 up to now, it has developed into a very broad field of manipulation of real or artificial atoms.
Real atoms have been replaced by artificial circuits, for example Josephson Junctions and Circuits which imitate atoms,
and which are much more practical for quantum information, for example.
It's also the decade where AMO physics meets condensed matter physics because we can simulate with cold matter
phenomena which occur in real material at higher temperature with different orders of magnitude.
And this is very useful to understand the properties of some condensed matter systems.
In term of orders of magnitude, I want to just to show you on this slide what we have gained since then in different directions.
As I said a ten order of magnitude improvement has been achieved in many fields
and a ten order of magnitude improvement means a factor of ten every five years on average.
For instance, in 1960 the precision of clocks, before the atomic clocks, was 10^-8.
That is about one second per year.
And in quartz clocks operating like that were considered as being very, very good.
Now, we can achieve 10^-18, which is one second over the age of the universe, so it's a ten order magnitude of improvement.
If you look at the sensitivity of measurements, when I did my Ph.D., we had cells
which contain ten hundred billions of atoms and we got signals from this macroscopic sample.
It was considered to be very dilute because 10^10 atoms is nothing, is a very small speck of matter of solid media,
but it was huge number of atoms.
Now we can work with one atom or one photon, and operate on them.
Temperatures, I already alluded to that.
In 1960, at spectroscopy we were working at room temperature, or liquid nitrogen temperature
when we wanted to narrow Doppler lines.
And if you're very sophisticated, you were working at helium temperature.
But the range was between 100 and 300 K.
With cold atom physics we're getting in the range of ten minus ten Kelvin, so it's a huge step.
In speed and time resolution in the 1960s, a nanosecond was considered to be very short.
Now we're talking about attoseconds.
Let's look at this in more detail.
This is a log scale of temperatures which shows the difference in the order of magnitude of temperature of physical phenomena.
Inside the stars, you have temperatures of millions of degrees.
At the sun's surface, 6000 degrees.
Room temperature is about 300K, for which the atomic velocities are in the range of 500 meter per second.
You have colder systems in nature, for instance, the cosmologic background,
which is bathing all the universe, corresponds to a temperature of 2.7 Kelvin.
In the lab, it is possible to achieve cryogenic temperature in the range 1 to 10 Millikelvin using liquid helium.
When the lasers have come into play, by laser cooling,
immediately the temperature has been brought down to a few hundred microkelvin by using the technique of Doppler cooling.
I am a little bit embarrassed to talk about that in front of Steve Chu who developed this method in the 1980s.
But the temperature achieved then was in the hundred microkelvin,
corresponding to velocities in the order of one meter per second.
Then a more refined technique, sub-Doppler cooling, in which you play at the same time with the Doppler Effect
and with optical pumping, allowed to bring this temperature even down to the microkelvin range,
with velocities in the range of ten centimetres per second.
Then, by adding to that evaporative cooling, the temperature could be brought down to the nanokelvin range
in which Bose-Einstein Condensates appear.
You see that 11 orders of magnitude have been gained towards low temperature.
Of course, five to six orders of magnitude towards low atomic velocities since the 1960s.
Steve Chu, Bill Phillips, and Claude Cohen-Tannoudji who are here at this Lindau meeting.
A few words about this cooling.
If you put atoms in a structure of counter-propagating light beams, you can arrange a situation
where the atoms moving against the light beam are interacting more than if they move in the same direction.
This provides an imbalance which, by exchange of momentum, tends to cool the atoms as if they were bathing in a viscous medium.
This brings the temperature down to the ranges I was indicating.
Once you have these cold atoms, you can switch off these atomic beams, and switch on a magnetic trap.
These atoms have small magnetic moment attached to the electron or to the nuclei.
By performing gradients of magnetic field you can build the bottle which keeps the atom at a well-defined position within space.
These atoms are moving within the potential well, which you can simplify as a parabolic well.
You can manage, so that the atoms which have the highest energy, which go at the boundary of this well,
are expelled by being put in another magnetic moment, a magnetic moment which is not trapped.
It is a radiofrequency method, which consists of applying an RF field which will make the fastest atoms escape from the trap.
This is called evaporative cooling.
Once the fastest atoms have escaped by collisions, the rest of the atoms renormalize at the lower temperature.
This is exactly what happens when you blow on a cup of coffee, expelling the fastest molecules, and bringing the temperature down.
If you lower the temperature, it means that the wavelength of the matter, the DeBroglie wavelength, increases.
At the point where the DeBroglie wavelengths become of the order of the distance between the particles,
if these particles are bosons, if they lie together in the same quantum state, they should condensate.
Bose and Einstein had predicted this effect in the 1920s.
This kind of experiment has enabled us to observe it.
I show you here a movie which comes from the group of Cornel and Weiman,
realised the first BEC in 1995 and got the Nobel Prize in 2001 for that.
Once these cold atoms are at the bottom of this magnetic trap,
the trick is to switch off the trap, so the atoms fall in the gravitational field of the Earth.
They escape with the velocity which is the velocity they had in the trap just before the trap was switched off.
So if you do that for lower and lower temperature, you see this kind of movie.
As the temperature goes down, you see that the distribution of velocity becomes narrower and narrower,
and at some point, a very narrow peak emerges.
There is a phase transition which brings all the atoms into the ground state of the potential which was applied to the atoms.
You see this here also, in a picture which has been the cover of Science 1995.
A broad distribution above this special temperature which narrows suddenly and leads to this new quantum phase of matter,
which has been studied by hundreds of thousands of groups in the world since then.
If you release the atoms from the trap by, in one way or another, making a hole in the trap, you get a coherent beam of matter.
The equivalent of a laser in which the photons are replaced by atoms.
You have several kinds of this atomic lasers, so to speak, which are very coherent, and with which you can do interferometry.
These are systems which have been used to build interferometer measuring the gravitational field,
gravitometer measuring rotations, gyrometers, and so on.
So there is a whole range of metrology which has been developed with this system.
What I have been talking about are Bose gases, gases which like to go in the same quantum state.
But you have also atoms which belong to Fermi statistics.
If they have an odd number of elementary particles in them, then they cannot go in the same state.
So if you have a parabolic well, you must have one atom per quantum state,
which means that the size of this degenerate quantum gas expands if you get more and more atoms into it.
This can be seen in a very dramatic way when you perform an experiment.
You see lithium has two isotopes, a boson and a fermium isotope.
And if you cool the bosonic isotope, as you can see on the left part,
you see that the gas shrinks and shrinks more and more as you get more and more atoms the ground state of the potential well.
If you try to do that with fermiums, you see there is a limit to the shrinking.
It is the Fermi or the Pauli pressure that is due to the Pauli Exclusion Principle
which forces these atoms to stay in larger systems.
Of course, this was known, and had been indirectly deduced from condensed matter experiments.
But here, with atoms, you can display this effect in a textbook manner.
Another kind of experiment which has been developed in many labs is to study the superfluidity of these quantum gases.
As liquid helium, but in a much cleaner way, these gases exhibit superfluidity,
which means if you send a particle or a small piece of matter in it, it will move without any friction, without viscosity in it.
It means also that if you start to rotate it back at a field with this superfluid material,
it will not rotate as classically with the external part of the system moving faster.
The angular momentums that you try to fit into the system will break up in vortices
in which the velocity will be highest the closest you are to the centre of the vortex.
This has been observed with bosons.
You see here experiments which have been performed by Jean Dalibard in Paris.
It has also been observed with degenerate Fermi gases.
In this case, you have a couple of fermions which associate to make composite bosons,
like what happens in superconductivity in solids, where electrons pair into Cooper pairs.
These pairs behave as bosons, and they give rise to superfluidity and to this kind of situation.
But in condensed matter physics, what you observe, these vortices are not due to rotation.
They are due to the attempt to put a magnetic field into the system.
The magnetic field enters into these materials according to these lines, these vortices of superconducting currents.
So cold atom physicists simulate condensed matter situations.
Rotating a neutral atom condensate is equivalent to applying a magnetic field to an electron gas.
This is a very interesting domain where you can use these kinds of systems that you can manipulate in the lab using laser beams,
to simulate situations which occur with different orders of magnitude in solids.
So, different than in solids, the system is as it is: you cannot change the conductivity,
you cannot change the distance between particles.
Here you manipulate all these parameters.
This has developed into a very important field of AMO physics which is a simulation of many-body problems.
For instance, you can use an array of laser beams to realize periodic structures
in which atoms are confined as eggs in an egg box.
The size of this structure is microns, as compared to the angstrom size in condensed matter physics.
You can also tune the interaction between the particles, tune the distance of the particles.
And you can try to study what happens in real materials by simulating it with this system.
This simulation is very important because as soon as you have more than a few tens of particles,
you cannot simulate it on a classical computer.
The Schrödinger equation explodes, and the only way to do it is to try to realize a system and to look at what happens.
The hope is that by doing these kinds of experiments, we will learn more about phenomena occurring in real materials.
This might help to build artificial materials which would have interesting properties
like superconductivity at high temperatures, and things like that.
Now, I have a few minutes to talk about another domain, which is the precision of measurements.
For that I just record briefly the history of the measurement of time,
just to make you feel the huge progresses which have been made during the last 50 years.
The real measurement of time with man-made machines has started in the 14th century with tower clocks.
You have a thread and you have a kind of lever which oscillates due to the torsion of the thread,
and you count the oscillation with a wheel which has teeth like that.
This system has been greatly improved by the pendulum when you replace this torsion motion by the oscillation of a pendulum.
You have an escape mechanism which counts the periods and transfers it into the motion of a hand.
Then in the 18th century, the pendulum oscillation has been replaced by the oscillation of a spring in the watch.
This watch has been developed in particular by Harrisson to gain a precision such that you can carry the watch
from one part of the world to another one and keep the time, which is essential for measuring the longitudes.
Then in the 20th century, the oscillations of a quartz rod have been used.
Because due to the piezoelectric effect the oscillation can be transferred to an electric current oscillation,
and the method of electronics can be used to count the number of oscillation.
You see that the principle is always the same.
You need an oscillator, and you need to couple it to an escape device
which counts the periods and also restores the energy into the system.
What is the uncertainty?
The tower clock has an uncertainty of one part in a hundred.
If you could keep the time within a quarter of an hour per day, that was good.
The pendulum was about a few seconds per day.
The Harrisson chronometer was about a few seconds per month, which was required for navigation.
And, the quartz was about one second per year.
You see that this improvement comes from the fact that we go to higher and higher frequencies.
Because if you can pack more and more periods during a second, of course, you increase the precision.
But on a log scale, you see that you have had a 10^6 improvement in six centuries.
During the last 50 years, the improvement has been 10 orders of magnitude more.
I don't have time to retell the story, but I'll just give you the latest developments.
Now the clocks are based on the oscillation of an optical transitions in atoms.
These atoms can be either single ions in an ion trap, or an array of cold atoms into a cold atom lattice.
What is the escape mechanism?
What you do is that you send a very, very stable laser which is blocked to the top of this very, very narrow transition.
But then you have to count the period.
And the way to count the period is to compare this laser to what is known as a frequency comb,
which is a laser system which emits a spectrum of light which is made of equally spaced frequencies.
The frequency comb technique has been developed by Haensch and Hall, who are here too.
This is really the escape mechanism which has opened to optical clocks, the atomic clock technology.
The uncertainty now is between one part in 10^17 and one part in 10^18.
This means that the time can be kept within one second in the age of the universe.
What it means is not very clear.
It means if you want to compare two clocks, you have to give the altitude within a few centimetre.
This has been checked experimentally in the group of Dave Wineland.
You see here two clocks which are on two tables and you move one with respect to the other,
and you see that you are able to see the difference in the time given by the clock when they are moved by 33 centimetres.
This was a few years ago.
Now it can be reduced to about one centimetre.
There are many things you can do with that.
I will say a few words about detection sensitivity.
As I said, at the time of optical pumping, you needed about 10^10 atoms
interacting, of course, with zillions of photons, radio-frequency photons or optical photons.
In 1978, when ion traps had been developed and the lasers exciting the trap,
it has become possible to see a single ion, just by the fluorescence of this ion in the centre of the trap.
This is a historical picture which was made in Peter Toschek's group in 1978.
Again, we have ten orders of magnitude in sensitivity.
So what can you do with that?
Of course, you can do single atom physics and quantum information.
A single atom emits non-classical light, for a simple reason.
If you have just one atom, you need to re-excite it before it emits a new photon,
so there is a time window during which a second photon cannot be emitted.
It is called antibunching and it was observed for the first time in 1978, and then in 1985 with a single ion.
You can observe single quantum jumps of a single trapped ion.
If you look at a single ion, and if it leaves a level which is sensitive to light,
you see a sudden drop of the light occurring at a random time.
These quantum jumps were, in fact, very controversial in the 1980s.
Some people decided that quantum jumps would never occur.
They think Schrödinger wrote about this kind of story, and now they are observed.
Not only are they observed, but they are tools which are used in all experiments in quantum information.
If you have many ions, you can entangle them through the common motion in the trap, and you can play a lot of
quantum information games, process ion strings and use these ion strings as kind of abacus for quantum logic operation.
In our lab, we did the opposite.
In this slide I am trying to compare what ion trappers are doing, for example, in Dave Wineland's group
and what we are doing in Paris.
In the ion group in Boulder you trap ions with the configuration of electrodes,
and you use laser beams to cool them down and to interrogate the ion.
In Paris, we do the opposite.
We trap the photons, and we keep them for a long time.
We use a beam of atoms which are excited by lasers, special atoms, Rydberg atoms,
to interrogate the photon field inside the cavity.
So these experiments are two sides of the same coin.
We manipulate non-destructively single atoms with photons or single photons with atoms.
It requires an adjustment of light-matter interaction at the most fundamental level
where a single atom interacts with a single photon.
I just retell on this slide what we have been doing in Paris.
With this technique we have been able to observe not the quantum jumps of matter, but the quantum jumps of light.
How light escapes photon by photon from a cavity.
We have been able to prepare quantum states of light
which are superposition states of fields having different phases or amplitudes.
This is a representation of these fields, what is known as a Wigner function.
It's a kind of radiography of the field in the phase space.
And you see you have two peaks, which correspond to the two states: dead and alive cat.
In between you have fringes, which give the proof that this superposition is quantum coherent.
You see as time goes on, how the quantum coherence vanishes.
I want just to stress, since Roy Glauber talked about the gedankenexperiment of Bohr and Einstein discussion,
that there was a discussion of Bohr and Einstein about this problem.
They imagined a photon box which was able to keep photons for a long time.
To count the photons without destroying them by just weighing the box in the gravitational field of the Earth.
In our case, we don't weigh the box in the field of the Earth.
We weigh it by having it interacting with atoms which do not absorb radiation.
So we can see the quantum jumps which in the photon box experiment
would be sudden jumps of the box in the gravitational field of the Earth.
These experiments were supposed to be "impossible forever", as Schrödinger said.
In fact, the main reason why we did that was to challenge this kind of statement,
that these experiments are ridiculous, have ridiculous consequences, and will never be made.
In fact, they have become possible because of the development of technology.
The last example I want to show is the improvement in the study of ultrafast phenomena.
You see here how the duration of light pulses have evolved.
From about 10 picoseconds in the 1960s, it has gone down to a few femtoseconds in the 1990s.
Then there was a plateau.
Then again an improvement starting in the year 2000 because of the development of a new method called Chirped Pulse Amplification.
Basically what is done is to excite, with a very intense burst of light, a beam of rare gas atoms.
You see here, you have a gas jet crossed by the laser beam.
And by a highly nonlinear process an x-ray beam of XUV radiation is emitted.
What happens is that during the pulse, during the light pulse,
there is a time at the crest of the electric field where the electrons from the atom are ejected.
They are accelerated in the laser beam.
And when the laser beam reverses, they come back at the atom.
There is a re-collision, which is highly nonlinear process akin to a Bremsstrahlung effect,
which emits a very, very intense and very short pulse.
You see the pulse which is emitted then is a few nano-meters long and a few attoseconds long pulse.
In fact, these two pulses, the original pulse and the attosecond pulse, propagate together.
You can scan the time of one with respect to the other and do a kind of stroboscopy.
For instance, here you see how the stroboscopy allows us to reconstruct the optical lightwaves itself
and to get a resolution in the sub-femtosecond range.
I don’t' have time to discuss that.
But attosecond pulses are powerful probes to study ultrafast electronic processes in atoms and molecules.
So, I would like to conclude that just to say that AMO physics has really exploded and made connections with a lot of fields.
With condensed matter physics, with astrophysics because, for instance,
cold Fermi gases simulate situations of nuclei in neutron stars.
Also connections with particle physics.
You can study symmetry variation, you can also see with very precise clocks
whether fundamental constants are evolving in time or not.
Of course with chemistry and biology, with attosecond physics, and of course, with information science.
It's always the same thing.
The permanent dialogue between blue sky research and innovation.
The observation of nature showed that at the turn of the 19th and 20th century, as Roy Glauber showed in his talk,
that light has strange properties which could not be explained, and needed new theoretical models, which was quantum theory.
Quantum theory in turn has predicted new effects related to the atom-photon interactions and the laser.
The laser has led to new technology, laser interferometer very precise clocks.
Which allows us now to probe again nature and to see whether nature obeys or not to these rules.
For example, if we find that fundamental constants are changing,
it will tell us a lot of things about the interplay of quantum physics with cosmology.
Just to conclude, because we are here in Lindau Meeting, I want just to say
that a lot of Nobel Prizes have been given in physics and chemistry for works using lasers in AMO science.
I think this is not complete.
I apologize, I forgot some people.
But I think there will be other prizes in this field in the future.
And for the young audience here, I'm sure you have plenty of areas in which you can work using lasers -
not with the hope to get a Nobel Prize, because this is the kind of hope which is not very constructive in a scientific area,
but to do very exciting physics in the future.
I apologize for having been too long.
Thank you.
Es ist mir eine große Freude heute hier sein zu dürfen.
Wie den meisten von Ihnen bereits bekannt ist, feiern wir in diesem Jahr das Internationale Jahr des Lichts.
Aus gegebenen Anlass dachte ich mir, es wäre eine gute Gelegenheit, über die Revolutionen zu sprechen,
die Laser in der Physik und in der Chemie in den letzten 50 Jahre mit sich gebracht hat.
Ich hatte das Glück, meine wissenschaftliche Laufbahn in den 60er Jahren zu beginnen, zur gleichen Zeit, als der Laser erfunden wurde.
Ich hatte auch das Glück, im Labor von Kastler und Brossel an der École Normale Supérieure in Paris angenommen zu werden.
Kastler hatte die Methode des optischen Pumpens erfunden.
Wie man mittels polarisiertem Licht Atome so anregen kann, dass diese in einen ganz besonderen Zustand gebracht werden können,
um ihren Quantenzustand zu manipulieren und ein Gleichgewicht zu erreichen.
Zu jener Zeit wurde das optische Pumpen mit klassischen Lampen erzielt.
Als aber der Laser seinen Auftritt hatte, wurde das optische Pumpen mit Hilfe von Lasern verfeinert.
Das Verfahren des optischen Pumpens wird immer noch in der kalten Atomphysik verwendet, in der Physik zum Auffangen von Ionen, in Atomuhren;
es handelt sich hier also um eine sehr, sehr allgemeine Methode.
Ich war ein Student zu dieser Zeit und dieses Bild wurde im Labor am Tag gemacht,
an dem Kastler seinen Nobelpreis für die Methode des optischen Pumpen erhielt.
Ich sitze hier zwischen Kastler und Brossel.
Ich bin sehr froh, und sehr stolz darauf, Teil eines Labors zu sein, das solche weltweite Aufmerksamkeit auf sich gezogen hat.
Auf der linken Seite sehen Sie Claude Cohen-Tannoudji, meinen Doktorvater.
Er war ein ehemaliger Student von Kastler und Brossel.
Er ist ebenfalls hier bei dieser Tagung, leider in einem Vortrag, der zum selben Zeitpunkt stattfindet.
Es ist schön, sich diese Erinnerungen ins Gedächtnis zu rufen.
Zu jener Zeit war es uns allen bewusst, dass der Laser aufregende Zeiten für die Atomphysik mit sich bringen würde.
Wir wussten, dass der Laser sehr nützlich wäre,
aber wir konnten uns das Ausmaß dieser Fortschritte, die der Laser mit sich bringen würde, nicht vorstellen.
Ich möchte Ihnen heute zeigen, dass zehn Größenordnungen in vielen Bereichen gewonnen werden konnten,
was nicht nur zu dieser Art der quantitativen Veränderung,
sondern auch zu qualitativen Veränderungen und sehr unerwarteter Physik führte.
Das Ganze begann natürlich ein paar Jahre früher, als 1954 Townes und sein Student Gordon,
den ersten kohärenten Strahlungsemitter auf der Basis der Atomphysik entwickelten.
Es war der Ammoniakstrahlmaser.
Maser steht natürlich als Akronym für
Also eine Atomstrahlmaschine.
Es ist sicher interessant daran zu erinnern, dass dies an der Columbia University entwickelt wurde.
Rabi gründete einen Forschungsbereich an der Columbia University vor dem Krieg.
Er entwickelte die Methode der Molekularstrahlen.
Diese Molekularstrahlen führten nicht nur zum Maser und Laser,
sondern auch zu Atomuhren, magnetische Kernresonanz, MRI, und so weiter.
All diese Bereiche in der Physik stammten aus Rabis Molekularstrahlmethode.
Dies ist ein gutes Beispiel für die Tatsache, dass Grundlagenforschung zu unerwarteten Anwendungen führen kann.
Natürlich, als der Maser entwickelt wurde, führte dies unmittelbar zum
nächsten Schritt, es in den optischen Bereich zu erweitern, was damals dann der optische Maser genannt wurde.
Charles Townes und sein Schwager, Art Schawlow,
schrieben die erste theoretische Arbeit zur Funktion eines optischen Lasers.
Townes dachte, dass vielleicht die optische Pumpen-Technik sinnvoll wäre
um die Zustände in einem atomaren Medium umzukehren.
Mir wurde gesagt, dass er 1958 nach Paris kam, um diese Ideen mit Kastler zu besprechen.
Tatsächlich aber wurden die ersten Laser aus anderen Verfahren generiert.
Beim ersten Laser handelte es sich um einen Festkörperlaser, dem Rubinlaser, der mit Pulsen betrieben wurde.
Es wurde von Theodor Maiman 1960 erfunden.
Einige Monate später wurde der erste Gaslaser, der mit einer Mischung aus Helium und Neon betrieben wurde,
eingesetzt und er wurde von Ali Javan und Bennett entdeckt.
Ab diesem Zeitpunkt wurden aus dieser Laserquelle neue Arten von Lasern entwickelt,
die sehr interessante und faszinierende Eigenschaften hatten.
Ich möchte auf dieser Folie nur einige der Eigenschaften des Lasers zusammenfassen.
Diese Eigenschaften sind etwas widersprüchlich.
Der Laser kann eine Sache, und das Gegenteil davon, tun.
Ich glaube dies ist ein Beispiel für Bohrs Komplementaritätsidee.
Abhängig davon, wie man es verwendet, kann sein Einsatz eine Sache oder genau das Gegenteil davon bewirken.
Beispielsweise können Laser Materie auf die höchstmögliche Temperatur bringen.
Sie können zur Fusion von Materie, zur Verdampfung von Materie,
und auch zu sehr hohen Temperaturen, Millionen, Milliarden von Graden, führen -
Temperaturen, bei denen Kerneffekte auftreten können.
Zum Beispiel kann eine Kernfusion durch außerordentlich hohe Intensitäten ausgelöst werden.
Zur gleichen Zeit, unter anderen Bedingungen, können Laser die geringstmöglichen Temperaturen erreichen.
Sie können durch Impulsaustausch mit Materie verwendet werden, um Atome dazu zu bringen, fast bewegungslos zu werden.
Und um die kältesten Objekte im Universum zu produzieren,
was zu neuen Phasen der Quantenmaterie, siehe Bose-Einstein-Kondensate oder degenerierte Quantengase.
Andererseits kann man sich Laser als ultrastabile Lichtstrahlen vorstellen.
Man kann Laser entwickeln, die Lichtwellen entsprechen, die sich über Millionen von Kilometern ohne Leistungsverlust bewegen.
Diese extra stabilen Laser können verwendet werden, um Atomuhren, die eine extrem hohe Genauigkeit brauchen, zu entwickeln.
Gleichzeitig können Sie die Energie der Lichtstrahlen in sehr, sehr kurze Impulse packen,
die sich über einige wenige Nanometer erstrecken,
die nur aus wenigen Schwingungszyklen bestehen und die nur einige Attosekunden, Milliardstel eines Milliardstel einer Sekunde, andauern.
Diese sehr kurzen Impulse können verwendet werden,
um spektroskopische Holographie der Materie im Grenzbereich durchzuführen.
Es ist also ein sehr flexibles Werkzeug für die Grundlagenforschung in der Physik, der Chemie, der Biologie natürlich,
und soweit wir wissen, auch für Anwendungen in der Metrologie, in der Medizin, um zu kommunizieren, usw.
Kehren wir zurück zur Geschichte; ich denke man kann dieses halbe Jahrhundert mehr oder weniger willkürlich in Jahrzehnte aufteilen.
Das erste Jahrzehnt, die 1960er Jahre, war die Geburtsstunde des Lasers, die reifen Jahre des optischen Pumpens,
während denen man begann, Laser zu verwenden, um mehr und mehr die Experimente mit dem optischen Pumpen zu verfeinern,
und während denen man die ersten nicht-linearen Optik- Experimente mit Lasern machte.
In den 1970er Jahren sah man eine Häufung von einstellbaren Lasern.
Laser, die eingestellt werden konnten, um spezifische Energieniveaus in Atomen zu erregen
und um ultra-hochauflösende Spektroskopie zu erreichen.
Die 1980er Jahre waren das Jahrzehnt der Laserkühlung.
Wie man Laserlicht verwenden kann, um Atome dazu zu bringen, zu ruhen.
Es war auch die Zeit, während der Atom-Photon-Wechselwirkungen mithilfe der Resonator-QED detailliert studiert wurden
und dem Beginn der Physik der Ionenfalle.
Die 1990er Jahre waren das Jahrzehnt, in dem Quanteninformation zur Geltung kamen, in dem man begann zu verstehen,
dass man die Manipulationen von Atomen nutzen kann, um logische Operationen, bei denen Quanteneffekte wichtig waren, durchzuführen.
Und das war der Beginn der Quanteninformation.
Es war auch das Jahrzehnt, in dem das Bose-Einstein-Kondensat erreicht wurde
und in dem Prozesse für ultraschnelle Laserpulse entwickelt wurden.
Zwischen 2000 und jetzt hat es sich zu einem sehr weiten Bereich der Manipulation von echten oder künstlichen Atomen entwickelt.
Echte Atome wurden durch künstliche Schaltungen ersetzt, zum Beispiel durch Josephson-Kontakte und Schaltkreise, die Atome imitieren,
und die beispielsweise viel praktischer für die Quanteninformation waren.
Es ist auch das Jahrzehnt, wo AMO-Physik auf kondensierte Materie trifft, denn wir können Kaltmaterie-Phänomene simulieren,
die in Echtmaterial bei höheren Temperaturen mit unterschiedlichen Größenordnungen auftreten.
Dies ist sehr nützlich, um die Eigenschaften einiger kondensierter Materiesysteme zu verstehen.
In Bezug auf die Größenordnungen,
möchte ich Ihnen auf dieser Folie schnell zeigen, was wir seitdem in verschiedenen Bereichen erreicht haben.
Wie gesagt, Verbesserungen um zehn Größenordnung wurden in vielen Bereichen erreicht,
und Verbesserungen um zehn Größenordnungen entsprechen einem durchschnittlichen Faktor von zehn alle fünf Jahre.
So waren beispielsweise 1960 Uhren – also vor den Atomuhren – im Bereich von 10^-8 präzise.
Das ist etwa eine Sekunde pro Jahr.
Quarzuhren, die so funktionierten, wurden als sehr, sehr gut eingestuft.
Jetzt können wir eine Präzision von 10^-18 erreichen: eine Sekunde seit Entstehung des Universums,
also eine Verbesserung von zehn 10er-Potenzen.
Wenn man sich die Empfindlichkeit der Messungen anschaut: als ich meinen Doktor machte, hatten wir Zellen,
die 1000 Milliarden von Atomen enthielten, und wir haben Signale dieser makroskopischen Menge verarbeitet.
Es galt als sehr verdünnt, weil 10^10 Atome nichts ist, einem sehr kleinen Fleck Materie fester Medien entspricht,
aber es war eine sehr große Anzahl von Atomen.
Jetzt können wir mit einem Atom oder einem Photon arbeiten und diese bearbeiten.
Temperaturen - darauf habe ich bereits angespielt.
wenn wir Doppler-Linien eingrenzen wollten.
Und wenn man sehr fortschrittlich war, arbeitete man bei Heliumtemperaturen.
Aber der Bereich variierte zwischen 100 und 300K.
Bei der kalten Atomphysik erreichen wir einen Bereich von 10^-10 Kelvin, also ein riesiger Schritt.
Im Bereich Geschwindigkeit und Zeitauflösung in den 1960er Jahren wurde eine Nanosekunde als sehr kurz betrachtet.
Jetzt sprechen wir von Attosekunden.
Schauen wir uns dies noch detaillierter an.
Dies ist eine logarithmische Skala von Temperaturen,
die die Differenz in der Größenordnung der Temperatur der physikalischen Phänomene anzeigt.
Innerhalb der Sterne findet man Temperaturen von Millionen Grad.
An der Oberfläche der Sonne, 6000 Grad.
Raumtemperatur ist etwa 300 K, und die Atomgeschwindigkeiten liegen etwa im Bereich von 500 Metern pro Sekunde.
Man hat kältere Systeme in der Natur, zum Beispiel den kosmischen Hintergrund,
was das ganze Universum umgibt und einer Temperatur von -2,7 Kelvin entspricht.
Im Labor ist es möglich, eine kryogene Temperatur im Bereich von 1 bis 10 Millikelvin unter Verwendung von flüssigem Helium zu erzielen.
Als die Laser mithilfe von Laserkühlung an Bedeutung gewannen,
wurde die Temperatur sofort auf bis zu einige hundert Mikrokelvin
durch Verwendung der Technik der Doppler-Kühlung reduziert.
Es ist mir ein wenig peinlich, darüber vor Steve Chu zu sprechen, der dieses Verfahren in den 1980er Jahren entwickelt hat.
Aber die erreichte Temperatur, die man damals erreichte, befand sich im 100-Mikrokelvin-Bereich,
was den Geschwindigkeiten in der Größenordnung von einem Meter pro Sekunde entsprach.
Eine verfeinerte Technik, Sub-Doppler-Kühlung, bei der man zur gleichen Zeit mit dem Doppler-Effekt
und dem optischen Pumpen spielt, erlaubte die Reduzierung sogar bis auf den 1-Mikrokelvin Bereich,
mit Geschwindigkeiten im Bereich von zehn Zentimetern pro Sekunde.
Indem man anschließend die Verdampfungskühlung erhöht, konnte die Temperatur bis in den Nanokelvin-Bereich reduziert werden,
in denen Bose-Einstein-Kondensate auftauchen.
Sie sehen, dass 11 Größenordnungen hin zu niedrigeren Temperaturen gewonnen wurden.
Seit den 1960er Jahren, also fünf bis sechs Größenordnungen gegenüber niedrigen Atomgeschwindigkeiten.
Steve Chu, Bill Phillips und Claude Cohen-Tannoudji, die hier an dieser Tagung in Lindau teilnehmen.
Ein paar Worte über diese Kühlung.
Wenn man Atome in eine Struktur von sich gegenläufig ausbreitenden Lichtstrahlen legt, kann man eine Situation hervorrufen,
wo die Atome, die sich entgegen den Lichtstrahl bewegen, mehr Wechselwirkung erzeugen, als wenn sie sich in die gleiche Richtung bewegen.
Dies erzeugt ein Ungleichgewicht, was, durch den Impulsaustausch,
dazu neigt, die Atome zu kühlen, als ob sie in einem viskosen Medium baden.
So wird die Temperatur auf die Bereiche reduziert, auf die ich zuvor hingewiesen hatte.
Sobald man diese kalten Atome hat, kann man die Atomstrahlen aus-, und eine Magnetfalle einschalten.
Diese Atome haben kleine magnetische Momente, die an das Elektron oder den Kern befestigt sind.
Indem man Gradienten des magnetischen Feldes durchführt, kann man die Flasche bauen,
die das Atom in einer gut definierten Position im Raum festhält.
Diese Atome bewegen sich innerhalb eines Potentialtopfs, den man als Paraboltopf vereinfachen kann.
Man kann sie so lenken, dass die Atome mit der höchsten Energie, die sich am Rand dieses Topfes bewegen,
durch Eintauchen in einen anderes magnetisches Moment herausbefördert werden, ein magnetisches Moment, das nicht eingeschlossen ist.
Es handelt sich um ein Hochfrequenzverfahren, das aus dem Aufbringen eines RF-Felds besteht,
was es den schnellsten Atomen erlaubt, aus der Falle zu entkommen.
Dies nennt man Verdampfungskühlung.
Sobald die schnellsten Atome durch Kollisionen entronnen sind, normalisiert sich der Rest der Atome bei niedrigeren Temperaturen.
Genau das passiert, wenn man auf einen heißen Kaffee pustet - die schnellsten Moleküle werden herausbefördert,
und die Temperatur sinkt.
Wenn man die Temperatur senkt, bedeutet dies, dass die Wellenlänge der Materie, die DeBroglie- Wellenlänge, zunimmt.
An dem Punkt, an dem die DeBroglie-Wellenlängen die Größenordnung des Abstandes zwischen den Partikeln einnehmen,
und wenn diese Teilchen Bosonen sind und im gleichen Quantenzustand beieinander liegen, sollten sie kondensieren.
Bose und Einstein sagten diesen Effekt in den 1920er Jahren voraus.
Diese Art des Experiments hat es uns ermöglicht, dies zu beobachten.
Ich zeige Ihnen hier einen Film, der aus der Gruppe von Cornel und Weiman stammt,
die die ersten Bose-Einstein-Kondensate 1995 entwickelten und dafür einen Nobelpreis im Jahre 2001 erhielten.
Sobald diese kalten Atome an der Unterseite der Magnetfalle angekommen sind,
ist der Trick, die Falle auszuschalten, damit die Atome in das Schwerefeld der Erde fallen.
Sie entrinnen mit der gleichen Geschwindigkeit, die sie zuvor in der Falle hatten, bevor diese abgeschaltet wurde.
Wenn Sie das also bei tiefen und noch tieferen Temperatur tun, dann sieht man diese Art von Film.
Wenn die Temperatur sinkt, dann sehen Sie, dass die Verteilung der Geschwindigkeit immer gestauchter wird,
und irgendwann taucht eine sehr schmale Spitze auf.
Es gibt einen Phasenübergang, der alle Atome in den Grundzustand des Potentials, das den Atomen aufgetragen wurde, bringt.
Sie sehen dies auch hier, in einem Bild, das war das Titelblatt von Science 1995.
Eine weite Verteilung über dieser speziellen Temperatur, die sich plötzlich verengt und zu einer neuen Quantenphase der Materie führt,
die seitdem durch Hunderttausende von Gruppen weltweit untersucht wurde.
Wenn man die Atome aus der Falle entkommen lässt, indem man ein Loch in die Falle macht,
erhält man einen kohärenten Strahl aus Materie.
Das Äquivalent zu einem Laser, bei dem die Photonen durch Atome ersetzt werden.
Sie haben sozusagen mehrere Arten dieser Atomlaser, die sehr kohärent sind,
und mit denen Sie Interferometrie durchführen können.
Dies sind Systeme, die verwendet wurden, um Interferometer zu bauen, die das Gravitationsfeld messen.
Gravitometer, die die Rotationen messen, Gyrometer, und so weiter.
Es gibt also eine ganze Reihe von Messtechniken, die mit diesem System entwickelt wurden.
Ich sprach von Bose-Gasen, die es mögen, sich im gleichen Quantenzustand zu befinden.
Man hat aber auch Atome, die zu der Fermi-Statistik gehören.
Wenn Sie also einen Paraboltopf haben, dann braucht man ein Atom pro Quantenzustand,
was bedeutet, dass die Größe dieses degenerierten Quantengases expandiert, je mehr Atome es enthält.
Dies kann man auf sehr dramatische Art und Weise sehen, wenn man ein Experiment durchführt.
Lithium hat zwei Isotope, ein Boson und ein Fermium Isotop.
Wenn man das bosonische Isotop kühlt, wie Sie auf der linken Seite sehen können,
sehen Sie, dass das Gas schrumpft und immer mehr schrumpft, je mehr Atome sich
im Grundzustand des Potentialtopfes ansammeln.
Wenn man versucht, dies mit Fermium zu tun, sehen Sie, dass es hier eine Grenze beim Schrumpfen gibt.
Es ist der Fermi- oder Pauli-Druck, der aufgrund des Pauli-Prinzips zustande kommt,
was diese Atome dazu zwingt, in den größeren Systemen zu bleiben.
Natürlich war dies bekannt und wurde indirekt aus kondensierten Materie-Experimenten abgeleitet.
Aber hier, mit Atomen, können Sie diesen Effekt lehrbuchmäßig anzeigen.
Eine andere Art von Experiment, das in vielen Labors entwickelt wurde, besteht darin, die Suprafluidität dieser Quantengase zu untersuchen.
Genau wie flüssiges Helium, aber auf eine sehr viel sauberere Weise, weisen diese Gase Suprafluidität auf,
was bedeutet, wenn man ein Teilchen oder ein kleines Stück Materie in die Gase sendet,
bewegt es sich ohne Reibung, ohne Viskosität.
Es bedeutet auch, dass, wenn man beginnt, es zurück zu einem Feld mit diesem superfluiden Material zu drehen,
dass es sich nicht so klassisch mit dem externen Teil des Systems, das sich schneller bewegt, dreht.
Die Drehimpulse, die man versucht, in das System zu integrieren, brechen in Wirbel zusammen,
in denen die Geschwindigkeit am höchsten ist, je näher man am Zentrum des Wirbels ist.
Dies wurde mit Bosonen beobachtet.
Sie sehen hier Experimente, die von Jean Dalibard in Paris durchgeführt wurden.
Es wurde auch mit degenerierten Fermigasen beobachtet.
In diesem Fall haben Sie ein paar Fermionen, die wechselwirken, um Verbund-Bosonen zu produzieren,
ähnlich zu dem, was in der Supraleitung in Festkörpern passiert, bei denen Elektronen sich in Cooper-Paaren koppeln.
Diese Paare verhalten sich wie Bosonen, und sie verursachen Suprafluidität und diese Art der Situation.
Aber was man in der Physik kondensierter Materie beobachtet, ist, dass diese Wirbel nicht aufgrund der Rotation entstehen.
Sie entstehen aufgrund des Versuchs, ein magnetisches Feld in das System zu integrieren.
Das Magnetfeld tritt in diese Materialien mithilfe dieser Linien,
diesen Wirbeln aus supraleitenden Strömen.
Kalt-Atomphysiker simulieren also kondensierte Materie-Situationen.
Ein neutrales Atom-Kondensat zu drehen entspricht dem Anlegen eines Magnetfeldes an ein Elektronengas.
Dies ist eine sehr interessante Domäne, in der Sie diese Arten von Systemen verwenden können,
und die Sie im Labor unter Verwendung von Laserstrahlen manipulieren können,
um Situationen zu simulieren, die mit unterschiedlichen Größenordnungen in Festkörpern auftreten.
Anders als bei Feststoffen ist das System, wie es ist: man kann die Leitfähigkeit nicht ändert,
man kann den Abstand zwischen den Teilchen nicht ändern.
Hier manipuliert man alle diese Parameter.
Dies hat sich zu einem sehr wichtigen Bereich der AMO-Physik entwickelt, die eine Simulation der Vielteilchen-Probleme ist.
Zum Beispiel können Sie ein Mehrzahl von Laserstrahlen verwenden, um periodische Strukturen zu realisieren,
in denen Atome wie Eier im Eierkarton liegenbleiben.
Die Größe dieser Struktur entspricht Mikrometern; im Vergleich dazu sind wir in der Physik kondensierter Materie im Angström-Bereich.
Sie können auch die Wechselwirkung zwischen den Teilchen abstimmen, den Abstand der Partikel abstimmen.
Und Sie können versuchen, zu untersuchen, was in realen Materialien durch Simulation mit diesem System passiert.
Diese Simulation ist sehr wichtig, denn sobald man mehr als ein paar Dutzend Teilchen hat,
kann man es nicht mehr auf einem klassischen Computer simulieren.
Die Schrödinger-Gleichung explodiert,
und der einzige Weg, es zu tun ist, zu versuchen, ein passendes System umzusetzen und zu schauen, was passiert.
Die Hoffnung ist, dass, indem man diese Arten von Experimenten macht, wir mehr über Phänomene in Echt-Materialien lernen.
Dies könnte helfen, künstliche Materialien zu bauen, welche interessante Eigenschaften,
wie die Supraleitung bei hohen Temperaturen, usw. aufweisen würden.
Jetzt habe ich ein paar Minuten, um über einen anderen Bereich zu sprechen, bei dem es um die Genauigkeit von Messungen geht.
Dafür gehe ich nur kurz auf die Geschichte der Zeitmessung ein,
nur damit Sie die großen Fortschritte, die in den letzten 50 Jahren gemacht worden sind, besser nachvollziehen können.
Die eigentliche Messung der Zeit mit künstlichen Maschinen begann im 14. Jahrhundert mit Turmuhren.
Hier hat man ein Gewinde und eine Art Hebel, der durch die Drehung des Gewindes schwingt,
und man zählt die Schwingungen mit einem Rad, das Zähne wie diese hat.
Dieses System wurde stark durch das Pendel verbessert
als man diese Drehbewegung durch die Pendelschwingung ersetzte.
Es gibt eine Hemmung, die die Zeiten zählt und sie in die Bewegung eines Zeigers überträgt.
Dann im 18. Jahrhundert wurden die die Pendelschwingung durch die Schwingung einer Feder in den Uhren ersetzt.
Diese Uhr wurde insbesondere durch Harrisson entwickelt, um eine Präzision zu erzielen, sodass man die Uhr
von einem Teil der Welt zu einem anderen tragen konnte und die Zeit weiter lief, was wesentlich für die Messung der Längengrade war.
Dann im 20. Jahrhundert wurden die Schwingungen eines Quarzstabes verwendet.
Denn aufgrund des piezoelektrischen Effekts können die Schwingung in elektrische Stromschwingung übertragen werden,
und per Elektronik kann die Anzahl der Schwingungen gezählt werden.
Sie sehen, dass das Prinzip immer das Gleiche ist.
Sie benötigen einen Oszillator, und man muss es an eine Zählmechanismus koppeln,
der Perioden zählt und auch wieder die Energie im System herstellt.
Was ist die Messunsicherheit?
Die Turmuhr hat eine Messunsicherheit von einem Hundertstel.
Wenn man die Zeit auf eine Viertelstunde pro Tag genau messen konnte, dann war das gut.
Das Pendel variierte um etwa ein paar Sekunden pro Tag.
Der Harrisson Chronometer ging um etwa ein paar Sekunden pro Monat falsch, was für die Navigation ausreichend genau war.
Und Quarz variierte etwa eine Sekunde pro Jahr.
Sie sehen, dass diese Verbesserung aus der Tatsache stammt, dass wir zu immer höheren Frequenzen gelangen.
Denn wenn man mehr und mehr Zeiträume in eine Sekunde packen kann, dann erhöht man natürlich die Genauigkeit.
Aber auf einer logarithmischen Skala, sehen Sie, dass es eine 10^6 Verbesserung innerhalb von sechs Jahrhunderten gab.
In den letzten 50 Jahren betrug die Verbesserung 10 Größenordnungen mehr.
Ich habe keine Zeit, um darauf detaillierter einzugehen, aber ich nenne Ihnen kurz die neuesten Entwicklungen.
Jetzt basiert die Genauigkeit der Uhren auf der Schwingung optischer Übergänge in Atomen.
Diese Atome sind entweder einzelne Ionen in einer Ionenfalle, oder eine Anordnung von kalten Atomen in einem kalten Atomgitter.
Was ist der Zählmechanismus?
Man sendet einen sehr, sehr stabilen Laser,
der an der Spitze dieses sehr, sehr schmalen Übergangs blockiert wird.
Aber dann muss man die Perioden zählen.
Und die Art und Weise, um die Perioden zu zählen, ist, diesen Laser mit dem, was als Frequenzkamm bekannt ist, zu vergleichen,
was ein Lasersystem ist, das ein Spektrum des Lichts emittiert, das aus Frequenzen mit dem gleichen Abstand besteht.
Die Frequenzkammtechnik wurde von Hänsch und Hall entwickelt, die auch hier sind.
Hierbei handelt es sich wirklich um einen Zählmechanismus, der den optischen Uhren die Atomuhr-Technologie eröffnet hat.
Die Messunsicherheit liegt nun zwischen 10^-17 und einem 10^-18.
Dies bedeutet, dass die Zeit innerhalb des Zeitraums seit der Entstehung des Universums auf eine Sekunde genau gemessen werden kann.
Was dies bedeutet, ist nicht ganz klar.
Es bedeutet, wenn Sie zwei Uhren vergleichen wollen, müssen Sie die Höhe innerhalb von ein paar Zentimetern angeben.
Dies wurde experimentell in der Gruppe von Dave Weinland geprüft.
Sie sehen hier zwei Uhren, die sich auf zwei Tischen befinden und Sie bewegen eine in Bezug auf die andere,
und Sie sehen, dass Sie in der Lage sind, den Unterschied in der Zeit, der von der Uhr angegeben wird, zu sehen,
wenn sie um 33 Zentimeter verschoben werden.
Das war vor ein paar Jahren.
Nun kann es auf etwa einen Zentimeter reduziert werden.
Es gibt viele Dinge, die Sie damit tun können.
Ich werde ein wenig auf die Nachweisempfindlichkeit eingehen.
Wie gesagt, zur Zeit des optischen Pumpen brauchte man etwa 10^10 Atome,
die natürlich mit Abermillionen von Photonen, Hochfrequenz-Photonen oder optische Photonen interagierten.
war es möglich geworden, ein einzelnes Ion nur durch die Fluoreszenz dieses Ions in der Mitte der Falle zu sehen.
Dies ist eine historische Bild, das in der Peter Toschek Gruppe im Jahr 1978 gemacht wurde.
Auch hier haben wir zehn Größenordnungen in der Empfindlichkeit.
Was können wir also damit machen?
Natürlich können Sie einzelne Fälle in der Atomphysik und Quanteninformation damit bearbeiten.
Ein einzelnes Atom emittiert nichtklassisches Licht aus einem einfachen Grund.
Wenn man nur ein Atom hat, muss man es erneut in einen angeregten Zustand versetzen, bevor es ein neues Photon emittiert,
somit gibt es ein Zeitfenster, während dem ein zweites Photon nicht emittiert werden kann.
Dies wird Antibunching genannt und es wurde zum ersten Mal 1978, und dann 1985 mit einem einzelnen Ion beobachtet.
Sie können einzelne Quantensprünge eines einzelnen gefangenen Ions beobachten.
Wenn man sich ein einzelnes Ion anschaut, und wenn es ein Niveau hinterlässt, das lichtempfindlich ist,
dann sehen Sie einen plötzlichen Abfall des Lichts zu einem zufälligen Zeitpunkt.
Diese Quantensprünge waren in der Tat in den 1980er Jahren sehr umstritten.
Einige Leute entschieden, dass Quantensprünge nie auftreten würden.
Schrödinger schrieb darüber, und jetzt werden sie beobachtet.
Sie werden nicht nur beobachtet, sondern sie sind Werkzeuge, die in allen Experimenten in der Quanteninformation verwendet werden.
Wenn man viele Ionen hat, kann man sie durch die gemeinsame Bewegung in der Falle verschränken, und Sie können eine Menge
Quanteninformationsspiele spielen, Ionenketten entwickeln und diese
als eine Art Abakus für Quantenlogikoperationen verwenden.
In unserem Labor taten wir das Gegenteil.
Auf dieser Folie versuche ich, zu vergleichen, was Ionenfallen tun, zum Beispiel in Dave Weinlands Gruppe
mit dem, was wir in Paris taten.
In der Ionengruppe in Boulder fing man Ionen mit der Konfiguration von Elektroden auf,
und man verwendete Laserstrahlen, um sie abzukühlen und um die Ionen zu untersuchen.
In Paris, tun wir das Gegenteil.
Wir fangen die Photonen ein, und wir halten sie für eine lange Zeit.
Wir verwenden einen Strahl von Atomen, der durch Laser, spezielle Atome und Rydberg-Atome angeregt wird,
um das Photonenfeld im Inneren des Hohlraums zu untersuchen.
Diese Experimente sind also zwei Seiten derselben Medaille.
Wir manipulieren nicht zerstörbare einzelne Atomen mit Photonen oder einzelne Photonen mit Atomen.
Es erfordert eine Anpassung der Wechselwirkung von Licht und Materie auf der grundlegendsten Ebene,
wobei ein einzelnes Atom in Wechselwirkung mit einem einzelnen Photon steht.
Auf dieser Folie zeige ich, was wir in Paris getan haben.
Mit dieser Technik ist es uns gelungen, nicht die Quantensprünge von Materie,
sondern die Quantensprünge des Lichts zu beobachten.
Wie Licht Photon nach Photon aus einem Hohlraum entweicht.
Es ist uns gelungen, die Quantenzustände des Lichts vorzubereiten,
die Überlagerungszuständen von Feldern mit unterschiedlichen Phasen oder Amplituden entsprechen.
Hier haben wir eine Darstellung dieser Felder, was wir als Wignerfunktion kennen.
Es ist eine Art von Röntgenaufnahme des Feldes im Phasenraum.
Und Sie sehen zwei Spitzen, die den beiden Zuständen entsprechen: tote und lebendige Katze.
Dazwischen gibt es Fransen, die den Beweis liefern, dass diese Überlagerung quantenkohärent ist.
Sie sehen, wie die Quantenkohärenz verschwindet je mehr Zeit vergeht.
Ich will einfach nur betonen, da Roy Glauber über das Gedankenexperiment von Bohr und Einstein sprach,
dass es eine Diskussion zu diesem Problem zwischen Bohr und Einstein gab.
Sie stellten sich eine Photon-Box vor, die in der Lage war, Photonen, für eine lange Zeit zu halten.
Sie stellten sich vor die Photonen zählen zu können, ohne sie zu zerstören, indem die Box im Gravitationsfeld gewogen wird.
In unserem Fall haben wir die Box nicht im Gravitationsfeld der Erde gewogen.
Wir wogen sie, indem es mit Atomen wechselwirkte, die keine Strahlung absorbieren.
So können wir also die Quantensprünge sehen, die beim Photon-Box-Experiment
plötzliche Sprünge der Box im Schwerefeld der Erde verursachen würden.
Diese Experimente wären laut Schrödinger „für immer unmöglich" gewesen.
Tatsächlich lag der Hauptgrund, warum wir das gemacht haben, darin, die Aussage anzufechten,
dass diese Experimente lächerlich seien und lächerliche Ergebnisse brächten und nie durchgeführt würden.
Tatsächlich wurden sie aber aufgrund der Entwicklung der Technik möglich.
Das letzte Beispiel, was ich Ihnen zeigen möchte, ist die Verbesserung bei der Forschung der ultraschnellen Phänomene.
Sie sehen hier, wie die Dauer der Lichtimpulse sich weiterentwickelt hat.
Von etwa 10 Pikosekunden in den 1960er Jahren wurde es bis auf wenige Femtosekunden in den 1990er Jahren reduziert.
Dann gab es eine Pause.
aufgrund der Entwicklung einer neuen Methode namens Chirped Pulse Amplification.
Was man im Grunde gemacht hat,
ist einen Strahl von seltenen Edelgasatomen mit einem sehr intensiven Lichtblitz in den angeregten Zustand zu versetzen.
Hier sehen sie wie ein Gasstrahl von einem Laserstrahl durchquert wird.
Durch einen hoch-nonlinearen Prozess wird ein Röntgenstrahl aus XUV Strahlung emittiert.
Während des Impulses, während des Lichtimpulses,
gibt es einen Zeitpunkt am Kamm des elektrischen Feldes, wenn die Elektronen aus dem Atom heraus befördert werden.
Sie werden im Laserstrahl beschleunigt.
Und wenn der Laserstrahl sich dreht, kommt er wieder zurück zum Atom.
Es kommt zu einer erneuten Kollision, die stark einem nichtlinearen Prozess ähnelt, ähnlich eines Bremsstrahlungseffekts,
der sehr, sehr intensive und sehr kurze Impulse emittiert.
Sie sehen den Impuls, der emittiert wird: ein wenige Nanometer und wenige Attosekunden langer Impuls.
In der Tat propagieren diese beiden Impulse, der ursprüngliche Impuls und der Attosekundenimpuls, zusammen.
Sie können die Zeit von einem Impuls in Bezug auf den anderen Impuls scannen und eine Art Stroboskopie durchführen.
Zum Beispiel, hier sehen Sie, wie die Stroboskopie es uns ermöglicht, die optischen Lichtwellen selbst zu rekonstruieren
und eine Auflösung im Sub-Femtosekundenbereich zu bekommen.
Ich habe keine Zeit darauf näher einzugehen.
Aber Attosekunden-Impulse sind leistungsfähige Sonden, um ultraschnelle elektronische Prozesse in Atomen und Molekülen zu untersuchen.
Ich würde gerne mit den Worten zum Abschluss kommen, dass AMO-Physik einen wirklichen Boom erlebt hat
und in eine Menge Bereiche beeinflusst hat.
Etwa die Bereiche der Physik kondensierter Materie oder die Astrophysik,
wo beispielsweise kalte Fermigase die Situationen der Atomkerne in Neutronensternen simulieren.
Auch Verbindungen mit Teilchenphysik gibt es.
Sie können Symmetrievariation studieren, man kann auch anhand von sehr präzisen Uhren sehen,
ob Fundamentalkonstanten sich im Laufe der Zeit ändern oder nicht.
Natürlich mit der Chemie und Biologie, mit Attosekunden-Physik und natürlich mit der Informatik.
Es ist immer dasselbe.
Der permanente Dialog zwischen der Grundlagenforschung und der Innovation.
Die Beobachtung der Natur zeigte, dass an der Wende vom 19. zum 20. Jahrhundert, wie Roy Glauber in seinem Vortrag darstellt,
Licht seltsame Eigenschaften hat, die nicht erklärt werden konnten,
und daher neue theoretische Modelle, wie die Quantentheorie, benötigt wurden.
Die Quantentheorie hatte wiederum bisher unbekannte Effekte der Atom-Photon-Wechselwirkung und den Laser vorhergesagt.
Der Laser führte zu einer neuen Technologie: Laserinterferometrie und sehr genauen Uhren.
Was uns jetzt erlaubt, die Natur erneut auf die Probe zu stellen und zu sehen, ob die Natur sich an diese Regeln hält oder nicht.
Zum Beispiel, wenn wir feststellen, dass sich Naturkonstanten ändern,
sagt uns das viel über das Zusammenspiel der Quantenphysik mit der Kosmologie.
Zum Schluss möchte ich noch sagen, weil wir uns hier bei der Tagung in Lindau befinden,
dass viele Nobelpreise in der Physik und Chemie für die Arbeiten mit Hilfe von Lasern in der AMO- Wissenschaft vergeben wurden.
Ich denke, die Liste ist hier noch nicht vollständig.
Entschuldigen Sie, ich habe ein paar Leute vergessen.
Ich denke, es wird weitere Preise in diesem Bereich in der Zukunft geben.
Ich bin mir sicher, dass das junge Publikum hier viele Bereiche hat, in denen Sie mit Hilfe von Lasern arbeiten können -
nicht mit der Hoffnung, einen Nobelpreis zu bekommen,
denn dies Art der Hoffnung, ist in einem wissenschaftlichen Bereich nicht sehr konstruktiv,
aber um sehr spannende Physik in der Zukunft zu betreiben.
Entschuldigen Sie, dass ich zu lange gesprochen habe.
Vielen Dank