Good morning. It’s always a pleasure to be here in Lindau.
And you know that I am an experimental physicist working with lasers and light and with a passion for precise measurements
which have taught us much about light and matter in the past and which might teach us more in the future.
So today I thought I would talk about how our concepts of light and matter have evolved over time
and how they are still changing.
Light and matter are, of course, intertwined with the concepts of space and time.
And these are central not just to physics, but to life. They’re essential for survival.
And so evolution has hard-wired very strong intuitive concepts in our brain
which are so compelling that they can actually hinder scientific progress.
Let’s look at what was discovered in the scientific exploration of light
which started probably when Sir Isaac Newton sent a ray of sunlight through a prism
and he saw how light is dispersed into a rainbow of colours.
And he argued that these different colours must correspond to different kinds of light particles.
Then came Thomas Young who showed that light is a wave.
Just like water waves going through a double-slit you can observe interference fringes,
Fresnel came up with the mathematical formulation of this kind of wave theory,
even though at the time it was not known what kind of wave light is.
But from interference experiments Young was able to measure the wavelength of light.
And so he determined that in the visible spectrum the wavelength ranges between 700 nanometres in the red
and 400 nanometres in the violet.
And once you know the wavelength and the speed of light, of course you can calculate the frequency of light.
So in the middle of the spectrum we are talking about something like 5 times 10^14 oscillations per second.
Nowadays, of course, we know that light is an electromagnetic wave.
There is a huge spectrum from radio waves to gamma rays
and these interferences can be used as a tool for very precise measurements.
One important such measurement was made by Abraham Michelson in the late 19th century using his famous Michelson interferometer.
He could show that the speed of light does not change with the motion of earth.
Of course, Einstein was the one who came up with his brilliant special theory of relativity to explain this, at least to model it.
And then, as we heard yesterday, of course,
also with general relativity that thoroughly changed our understanding of space and time.
And David Gross yesterday has, of course, already pointed out
the latest triumph of this kind of interferometry is the detection of gravitational waves from 2 coalescing black holes
using essentially a giant and sophisticated Michelson interferometer at the LIGO observatory.
So much for waves.
And so people were happy that they understood what light is.
But there were some worries, some observations in the late 19th century.
People in Germany at the PTB – it was at that time not yet called PTB – in Berlin,
they carefully measured the spectrum emitted by black hot bodies
because they wanted to understand how to make more efficient electric light sources.
And this spectrum measured could not be explained in any classical model.
Planck was the one who showed that if you make the assumption that light is emitted only in packet,
emitted and absorbed in light packets of quantity, Planck’s constant times frequency,
then one can model this type of black body spectrum very well.
And Einstein then postulated in 1905 that it’s not just the absorption and emission but the nature of light itself is quantised.
The term photon was coined much later, in the 1920s.
But today we have position-sensitive photon detectors
where you can watch how an interference pattern builds up photon by photon in the double-slit experiment.
So we know that light can act as if it were made of particles.
It can act as if it was electromagnetic wave.
It can act as if it were made of particles, not classical particles but particles
that show these strange correlations over a distance called entanglement
which indicate that you cannot assume that a photon that you detect already has its properties before detection.
This has become a tool for applications such as quantum cryptography, quantum information processing, quantum computing.
And the pioneers were John Clauser and Alain Aspect.
An even more momentous discovery or invention was that of the laser,
that you can make a source of coherent light waves that acts much like a classical radio frequency oscillator.
The race to build the first laser was trigged by Arthur Schawlow and Charlie Townes with a seminal paper published in 1958.
The very first laser was realised by Ted Maiman in 1960.
Here are the parts of his original laser what are right now in our Max Planck Institute of Quantum Optics in Garching
thanks to Kathleen Maiman, the widow of Ted Maiman.
And what I find charming is that it’s really very simple.
It’s a simple device that could have been realised much earlier.
And it also shows that the largest impact is not always from big and sophisticated instruments.
It can be simple instruments that are game changers.
Other examples, of course, are the transistor, the scanning tunnelling microscope.
And so this is the kind of invention that I am really very excited about.
And, of course, the impact in science is illustrated by the fact that there are now 26 Nobel Prizes around the laser,
not counting yet the detection of gravitational waves that surely will be included in the future.
Ok, so much for light.
What about matter?
The question what is matter, of course, is a natural question to ask.
The ancient philosophers speculated that maybe there are small indivisible building blocks of matter – atoms.
These ideas were soon forgotten but were revived in the 18th and 19th century by a chemist, Dalton,
who showed that if you make this assumption that matter consists of atoms
then one can naturally understand the proportion in which elements react to form molecules.
And one can even determine relative molecular weights.
And, of course, with the Loschmidt number even absolute atomic weights, but nobody had any idea how these atoms are composed.
There were some hints that they must be complex.
Fraunhofer with his spectrographs looking at the solar spectrum discovered the dark absorption lines
due to atoms or ions in the solar atmosphere or our earth atmosphere.
And this kind of spectroscopy soon became a tool to chemists,
like Bunsen or Kirchhoff who used it to identify atoms by their spectrum, like a finger print.
But how these spectrum lines came about remained obscure.
The very simplest atom and the very simplest of the spectra in the end provided the Rosetta stone
for having a deeper look into how atoms work.
There is the visible Balmer spectrum that was first observed in astronomy in the light of distant stars.
And we know that Johann Jakob Balmer was the first to come up with an empirical formula
for the wavelengths of this very simple line spectrum that was later generalised by Rydberg
who introduced the empirical Rydberg constant.
But still one didn’t know how these lines could come about.
One had even no idea what is going on inside an atom until radioactivity was discovered
and until Rutherford used scattering of radioactive alpha rays from a gold foil to discover
that all the mass of an atom must be confined to very small heavy nucleus.
And the light electrons are surrounding this nucleus, like a cloud.
So with this insight Bohr tried to model the hydrogen atom, the simplest atom with just a single electron,
some sort of planetary system.
He tried to see what could give the Balmer spectrum.
And he realised that no classical model would work.
He had to make some radical assumptions, like Planck, that only certain stationary orbits which are allowed.
And that radiation is emitted in transitions, in jumps, between these orbits.
These early quantum postulates were hard to swallow.
But they allowed Bohr to calculate the Rydberg constant in terms of the electron mass, electron charge,
Planck’s constant and the speed of light and to fairly high accuracy.
So people realised there must be something to it, even though it made no sense.
Louis de Broglie showed that if you make the assumption that electrons, particles can also have wave properties
and if you wonder what would be the orbits where you have resonant waves, an integer number of wavelengths fits,
that you could reproduce the Balmer spectrum.
Schrödinger came up with a wave equation for these matter waves
which is perhaps one of the most successful and best tested equations in physics.
As the Schrödinger equation for the hydrogen atom could be solved in closed form one can draw pictures of orbitals.
Still it’s a question that has not been definitely answered until today.
What is it that this Schrödinger equation or the Schrödinger wave function describes?
There is infinite room for speculation, for philosophy.
But if we want to stay on the solid ground of science
I think all we can say for sure is that this equation describes
our information about the probabilities of clicks and meter readings.
It doesn’t say anything about the true microscopic world.
This is the essence, the spirit of the Copenhagen interpretation which has been sharpened and made more consistent
with the interpretation of QBism, a minimal interpretation that interprets probabilities.
In the Bayesian spirit as we have heard from Serge Haroche.
So in particular different physicists can assign different probabilities, dependent on the information they have.
So this is still some frontier where we hope one of you maybe will have some insights
how we can go beyond this phenomenological description.
Nonetheless it works very well.
Dirac, 2 years later, was able to generalise the Schrodinger equation to include relativistic effects.
And this Dirac equation was miraculous because it not only contained relativistic effects,
it also predicted the existence of anti-electrons or positrons.
And it was so beautiful that people felt this must now be the ultimate truth.
There were nagging uncertainties whether Dirac could really describe the fine structure of hydrogen lines very well.
And since the Second World War we know that the Dirac equation is not complete.
It is not able to describe the fine structure of hydrogen lines because there are effects that were not included,
particularly the effect of the vacuum - vacuum fluctuations and vacuum polarization.
Lamb with his discovery of the Lamb shift, of the effect that there are 2 energy levels in hydrogen,
the 2s-state where the electron comes close to the nucleus and the 2p-state where it stays away,
but in reality they are split by about 1,000 megahertz.
And this was the beginning of quantum electrodynamics and modern quantum field theories in ’65.
The Nobel Prize for the developments in quantum electrodynamics was given to Tomonaga, Schwinger and Feynman.
Of course, since then we have, thanks to Gell-Mann,
found that there is a scheme how we can classify the building blocks of all matter in terms of quarks and leptons and bosons.
And we believe that this is a complete description of matter as we understand it today.
Of course, one is eager to look beyond the standard model.
And we see new accelerator experiments at CERN
Maybe one will discover new things.
So this is considered a very successful model of matter and its interactions.
According to the standard model the proton, the nucleus of the hydrogen atom,
is a composite system made up of quarks and gluons.
And there is the theory of quantum chromodynamics that attempts to model this.
But it’s still at an early stage.
We cannot, for instance, predict the size of the proton.
And this question, how small is a proton, is something that has become important experimentally,
partly because of lasers and precision spectroscopy.
So my own encounter with hydrogen started in the early 1970s when I was a postdoc at Stanford University.
Arthur Schawlow, co-inventor of the laser, was my host and mentor.
And he gave good advice to young people.
He said, if you like to discover something new, try to look where no one has looked before.
And actually we had a tool where we could do this very nicely in the early ‘70s
because we had the first tunable dye laser that was at the same time highly monochromatic.
So one could use it to study spectral lines free of Doppler broadening using non-linear spectroscopy, saturation spectroscopy.
And so we succeeded to, for the first time, resolve individual fine structure components of the red Balmer alpha line,
whereas before spectroscopists were dealing with a blend of unresolved lines
due to the very large Doppler broadening of the light hydrogen atom.
And this has been the start of a long adventure, studying hydrogen with ever higher resolution
and ever higher precision in the hope that if we look closely enough maybe one day we will find a surprise.
And only if we find a disagreement with existing theory can we hope to make progress.
And so over the years this adventure is continuing.
Today we have advanced the fractional frequency uncertainty
with which we can study transitions in hydrogen
from something like 6 or 7 decimal digits in classical spectroscopy to 15 digits today.
And to make progress beyond 10 digits, we had to learn how to measure the frequency of light.
So the motivation for doing this kind of work is we want to test bond-state QED, look for possible discrepancies.
But we can also measure fundamental constants, in particular the Rydberg constant and the proton charge radius.
One can ask the question, are constants really constant or might they be slowly changing with time?
There are anti-hydrogens so one can hope to compare matter and antimatter and altogether maybe discover some new physics.
So this quest has motivated inventions.
In the 1970s techniques of Doppler free laser spectroscopy,
also the idea of laser cooling of atomic gases was inspired by this quest for higher resolution and accuracy in hydrogen.
And in the 1990s finally a tool, the femtosecond frequency comb,
that makes it now easy what had been impossible or extremely difficult before, namely to count the ripples of a light wave.
So at the turn of the millennium various newspapers and journals reported on these frequency combs
because they had been cited when the Nobel Prize was awarded in 2005 to John Hall and myself.
And so the frequency comb, it was the first time a simple tool for measuring optical frequencies
of 100s or even 1,000s of terahertz, it provides the phase coherent link between the optical and the radio frequency region,
and it’s a clockwork mechanism, a counter for optical atomic clocks.
So how does a frequency comb work?
Typically you have a laser or some kind of source that emits very short pulses with a broad spectrum.
If you have a single such pulse you get a broad spectrum.
If you have not a single pulse but 2 pulses in succession they interfere in the spectrum.
So it’s similar to the Young’s double-slit experiment but now interference in the spectrum or in the spectrograph
and you get a fringe pattern.
So in essence you have already a frequency comb.
A comb of lines, not very sharp.
The more distant the pulses are the more comb lines you get.
And the frequency spacing between these comb lines is just precisely the inversed time interval between the 2 pulses.
So if I have not 2 pulses but many pulses then they can interfere like we get interference in a defraction grating.
We have multi-wave interference and we can build up sharp lines.
The longer we wait the sharper the lines.
And they can be as sharp as any continuous wave laser but only if we have precisely controlled timing.
Otherwise, of course, this doesn’t work.
So these are extremely elementary principles according to Fourier.
Still most people didn’t expect that this could actually work to measure the frequency of light.
They didn’t anticipate how far these principles could be pushed, that you could take a mode-locked titanium sapphire laser,
send its light through a non-linear fibre to broaden it by self-phase modulation to a rainbow of colours
and still have a frequency comb.
So we can get 100,000 or a 1,000,000 sharp spectra lines, very equally spaced by precisely the pulse repetition frequency.
The only thing that was still a problem was that we don’t know the absolute position of these lines.
We know the spacing but the absolute positons depend on the slippage of the phase,
of the carrier wave, relative to the pulse envelope, the so-called carrier envelope of that frequency.
But once you have an octave-spanning comb it’s extremely simple to measure this of such frequency.
You can take comb lines from the red end and send them through a non-linear crystal to frequency double,
get the comb lines at the blue end and look at the collective beat note and you can measure it.
And if you measure it you can use several controls to make it go away or simply take it into account.
And so now you can buy an instrument, optical frequency meters, and there are 100s of these in use in different laboratories.
They are being miniaturised so one can have an instrument that was my dream 30 years ago.
Something that you put on a desktop and you have an input for laser light
and on a digital display you can measure the frequency.
You can read out the frequency to as many digits as you like.
There is work going on in miniaturised comb sources based on micro-toroids fabricated by lithography.
And one of the reasons for growing interest in these combs is that there is an evolution in the tree of applications.
But we have no time, I am looking at the clock and I see that I really need to speed up.
But let’s look at the original purpose, at frequency measurement.
So there is this extremely sharp transition in atomic hydrogen,
the 2 photon transition from the ground state to the metastable 2s-state which has a natural linewidth of only 1 hertz or so.
You can excite it with ultraviolet light.
The earliest experiments were done in 1975 with Carl Wieman who is actually here at this meeting.
I haven’t seen him yet but I think he will arrive on Wednesday.
Now, we are able to measure the frequency of this transition to something like 15 decimal digits.
For the measurement you need a comparison, our comparison was the national caesium fountain clock time standard at the PTB.
And we had the fibre link, linking laboratories about 1,000 kilometres or so away.
So if I have that frequency can I determine the Rydberg constant?
Yes, in comparison with theory but there is one problem, we don’t know the proton size very well.
And so that’s why the frequency is known to 15 digits but the Rydberg constant only to 12 digits.
So to make progress we need a better value of the proton charge radius.
How is the proton charge radius measured?
There are electron scattering experiments at accelerators
and there is also the possibility to measure it by comparing different transitions in hydrogen.
If we look at the energies of s-level, they scale with Rydberg constant over principle quantum number square,
plus Lamp shift of the ground state, divided by the cube of the principle number.
And this Lamp shift traditionally includes a term that scales with the root-mean square charge radius of the proton.
So by comparing 2 different transitions you can measure the proton size,
you can do it much better by looking at artificial man-made atoms of muonic hydrogen instead of the electron,
a negative muon, 200 times heavier, that comes 200 times closer to the nucleus.
In this case the Lamp shift is actually in the mid infrared at 6 micron.
But you can, by capturing muons in hydrogen gas, you can populate the metastable to s-state
and induce transitions with a laser and look for Lyman-alpha
which in this case is a 2-kilo-electron volt in the soft X-ray region.
So this kind of experiment was done, was finally successful here.
You see part of the international team in front of the laboratory at the Paul Scherrer Institute in Switzerland.
And so in 2010 and 2013 they could publish results with Randolf Pohl as the leader of the team, observing such resonances,
Lamb shift resonances in muonic hydrogen.
And the big surprise was that it wasn’t where it was expected to be,
and where it should be according to accelerator experiment.
So it wasn’t there.
And if we look at the error graph we see that the proton size determined from the muonic hydrogen
is almost 8 sigma away from the size determined by scattering electrons or looking at electronic hydrogen.
This is known as the proton size puzzle.
It has not been completely resolved.
Our suspicion is that the muonic hydrogen experiments are right and maybe the hydrogen spectroscopy wasn’t right.
This has to do with the fact that we have one very sharp transition, the 1s, 2s but there are auxiliary transitions,
that are not so sharp and that are more easily perturbed by electric fields and other effects.
So if one looks at all the hydrogen spectroscopic data that flow into the value of the proton radius
one sees that each individual one has a big error bar.
And only if we average all of them do we get the small error.
But maybe one is not allowed to do that.
There are some new experiments carried out in our laboratory with Axel Beyer,
studying one-photon-transition in a cold beam of metastable 2s-atoms, from 2s to 4p.
This is essentially Balmer beta and he went to great pains to eliminate any conceivable systematic error.
So he now has some result which is on the other side actually of the proton radius, determined from muonic hydrogen.
I don’t know if this is really conclusive but it suggests that maybe that would be the solution.
That we are not discovering new physics but we are discovering old errors in spectroscopy of hydrogen.
Nonetheless, so if we for a moment assume that the muonic hydrogen gives us the right proton size
then we can see how this will affect the Rydberg constant.
And so here we have the official value of the Rydberg constant
according to the most recent CODATA adjustment of the fundamental constant.
And if we take the muonic hydrogen radius we see that the error bars shrink quite a bit,
almost an order of magnitude which is a major step for a fundamental constant.
But we also move the Rydberg constant which has, of course, consequences in our kinds of precise predictions.
I have to come to an end.
Let me just briefly mention very soon, maybe even this year,
I expect to see the first results of laser spectroscopy of anti-hydrogen.
And, of course, the question whether hydrogen and anti-hydrogen are precisely the same
or if there is a tiny difference is very monumental for our understanding of nature.
And even the tiniest difference would be important.
Therefore the more digits you can get in measurements the better.
Also in astronomy frequency combs are now being installed in large observatories, highly resolving spectrographs,
and there are a number of areas where maybe one can discover more about light and matter.
So first you can use it to search for earth-like planets around sun-like stars.
But, of course, you can test for general relativity.
You can maybe get observational evidence for possible changes in fundamental constants.
There is also the question, these cosmic red shifts that we observe, are they shifting, are they changing with time?
Can we get earthbound observation evidence for the continuing accelerated expansion of the universe?
And it looks like this might be possible.
And how little we know about the universe is illustrated here, where we assume that 68% is totally unknown dark energy
and 26.8% are dark matter of unknown composition. So there is still a lot to be discovered.
And the progress that we have made in our own lab was really not so much motivated by these important questions
but more by curiosity and by having fun in the laboratory.
Guten Morgen.
Es ist immer wieder ein Vergnügen, hier in Lindau sein zu dürfen.
Wie Sie wissen, bin ich ein Experimentalphysiker, der mit Lasern und Licht arbeitet und eine Passion für präzise Messungen hat,
die uns in der Vergangenheit viel über Licht und Materie gelehrt haben und uns vielleicht mehr in der Zukunft lehren werden.
Ich dachte daher, dass ich darüber spreche,
wie sich unsere Konzepte für Licht und Materie im Laufe der Zeit entwickelt haben und immer noch entwickeln.
Licht und Materie sind natürlich verflochten mit den Konzepten von Raum und Zeit.
Und diese sind nicht nur von zentraler Bedeutung für die Physik, sondern auch für das Leben.
Sie sind wesentlich für das Überleben.
Und so hat die Evolution sehr starke, intuitive Konzepte in unserem Gehirn fest verschaltet,
die so triftig sind, dass sie tatsächlich den wissenschaftlichen Fortschritt behindern können.
Lassen Sie uns auf die Entdeckungen in der wissenschaftlichen Untersuchung von Licht schauen, die vermutlich begannen,
als Sir Isaac Newton einen Strahl Sonnenlicht durch ein Prisma schickte
und sah, wie Licht sich in einen Regenbogen an Farben zerlegte.
Und er argumentierte, dass diese unterschiedlichen Farben unterschiedlichen Arten der Lichtteilchen entsprechen müssten.
Dann kam Thomas Young, der zeigte, dass Licht eine Welle ist.
Genau wie bei Wasserwellen, wenn sie durch einen Doppelschlitz treten, kann man Interferenzmuster beobachten:
Fresnel erstellte eine mathematische Formulierung dieser Art der Wellentheorie,
obwohl man zu der Zeit nicht wusste, welche Art Welle Licht ist.
Aber mit Interferenzexperimenten konnte Young die Wellenlänge des Lichts messen.
Und daher bestimmte er, dass sich im sichtbaren Spektrum die Wellenlänge von 700 Nanometer bei rot,
bis 400 Nanometer bei violett erstreckt.
Wenn man erst einmal die Wellenlänge und die Lichtgeschwindigkeit kennt, kann man natürlich die Lichtfrequenz berechnen.
Wir sprechen daher in der Spektrenmitte über etwa 5 mal 10^14 Schwingungen pro Sekunde.
Heute wissen wir natürlich, dass Licht eine elektromagnetische Welle ist.
Es gibt ein riesiges Spektrum von Radiowellen bis zur Gammastrahlung,
und diese Interferenzen kann man als Werkzeug für sehr präzise Messungen verwenden.
Eine wichtige dieser Messungen wurde im späten 19. Jahrhundert durch Abraham Michelson
unter Benutzung seines berühmten Michelson-Interferometers durchgeführt.
Er war in der Lage zu zeigen, dass sich die Lichtgeschwindigkeit nicht mit der Erdbewegung ändert.
Und es war natürlich Einstein, der diese brillante spezielle Relativitätstheorie aufstellte,
um dies zu erklären und es wenigstens zu modellieren.
Und dann war es natürlich, wie wir gestern hörten, die allgemeine Relativitätstheorie,
die unser Verständnis von Raum und Zeit gründlich änderte.
David Gross hat gestern schon darauf hingewiesen, dass der jüngste Triumph dieser Art der Interferometrie
der Nachweis der Gravitationswellen von 2 verschmelzenden schwarzen Löchern ist,
der im Wesentlichen ein gigantisches und komplexes Michelson-Interferometer, das LIGO-Observatorium, benutzt.
So viel zu Wellen.
Und die Wissenschaftler waren daher glücklich, dass sie verstanden, was Licht ist.
Aber es gab ein paar Sorgen, einige Beobachtungen im späten 19. Jahrhundert.
Wissenschaftler an der PTB in Deutschland – zu der Zeit hieß sie noch nicht PTB – in Berlin
haben sorgfältig das Spektrum gemessen, das durch heiße schwarze Körper emittiert wurde,
weil sie verstehen wollten, wie man effizientere elektrische Lichtquellen herstellt.
Und dieses gemessene Spektrum konnte nicht durch irgendein klassisches Modell erklärt werden.
Planck zeigte dann, wenn man annimmt, dass Licht nur in einem Paket emittiert wird,
emittiert und absorbiert in Lichtpaketen des Werts Planck-Konstante multipliziert mit der Frequenz,
dann kann man diese Art von Schwarzkörperstrahlung sehr gut modellieren.
Einstein postulierte dann im Jahr 1905, dass es nicht nur die Absorption und Emission ist,
sondern die Natur des Lichts an sich, die quantisiert ist.
Der Begriff Photon wurde viel später geprägt, in den 1920er-Jahren.
Aber inzwischen haben wir positionsabhängige Photonendetektoren, mit denen man beobachten kann,
wie sich im Doppelspaltexperiment ein Interferenzmuster ein Photon nach dem anderen formiert.
Daher wissen wir, dass Licht sich so verhalten kann, als bestünde es aus Teilchen.
Es kann sich so verhalten, als wäre es eine elektromagnetische Welle.
Es kann sich so verhalten, als bestünde es aus Teilchen, keinen klassischen Teilchen,
sondern Teilchen, die diese merkwürdigen Korrelationen über eine Entfernung aufweisen, die Verschränkung genannt werden.
Und die darauf hinweisen, dass man nicht annehmen kann,
ein Proton, das man nachweist, hätte seine Eigenschaften schon vor dem Nachweis.
Dies wurde ein Werkzeug für Anwendungen wie Quantenkryptografie, Quanteninformationsverarbeitung, Quantencomputer.
Und die Pioniere waren John Clauser und Alain Aspect.
Eine noch bedeutsamere Entdeckung oder Erfindung war die des Lasers:
dass man eine Quelle kohärenter Lichtwellen bauen kann, die wie ein klassischer Radiofrequenzschwingkreis arbeitet.
Das Wettrennen, den ersten Laser zu bauen, wurde durch eine zukunftsweisende Veröffentlichung
von Arthur Schawlow und Charlie Townes ausgelöst, die 1958 publiziert wurde.
Der allererste Laser wurde im Jahr 1960 durch Ted Maiman realisiert.
Hier sind Teile seines ursprünglichen Lasers,
die sich derzeit dank Kathleen Maiman, der Witwe Ted Maimans, im Max-Planck-Institut für Quantenoptik in Garching befinden.
Und ich finde es bezaubernd, das es wirklich so einfach ist.
Es ist eine einfache Vorrichtung, die schon viel früher hätte realisiert werden können.
Und es zeigt auch, dass die größten Wirkungen nicht immer von großen und komplexen Instrumenten herrühren.
Es können einfache Instrumente sein, die das Spiel verändern.
Andere Beispiele sind natürlich der Transistor, das Rastertunnelmikroskop.
Das sind die Arten von Erfindungen, die mich am meisten begeistern.
Und die Wirkung in der Wissenschaft ist illustriert durch die Tatsache,
dass es inzwischen 26 Nobelpreise gibt, die durch den Laser ermöglicht wurden.
Der Nachweis der Gravitationswellen ist hier noch nicht mitgezählt und wird sicher in Zukunft hier eingeschlossen werden.
Ok, so viel zu Licht.
Was ist mit der Materie?
Die Frage, was Materie ist, ist selbstverständlich eine natürlich zu stellende Frage.
Die Philosophen der Antike spekulierten, dass es vielleicht kleine, unteilbare Bausteine der Materie gibt – Atome.
Diese Ideen waren schon bald vergessen, aber wurden durch einen Chemiker, Dalton, im 18. und 19. Jahrhundert wiederbelebt.
Er zeigte, wenn man diese Annahme macht, dass Materie aus Atomen besteht,
dann kann man die Verhältnisse, mit denen Elemente zur Molekülbildung reagieren, ganz selbstverständlich verstehen.
Und man kann selbst relative Molekulargewichte bestimmen.
Und natürlich, wir sehen die Loschmidt-Zahl, sogar absolute Atomgewichte,
aber niemand wusste, wie diese Atome zusammengesetzt sind.
Es gab einige Hinweise, dass sie komplex sein mussten.
Fraunhofer beobachtete mit seinem Spektrograph das Sonnenspektrum und entdeckte die dunklen Absorptionslinien,
verursacht durch Atome oder Ionen in der Sonnen- oder Erdatmosphäre.
Und diese Art der Spektroskopie wurde schon bald ein Werkzeug für Chemiker, wie beispielsweise Bunsen oder Kirchhoff,
die sie zur Identifizierung der Atome durch ihr Spektrum benutzten wie einen Fingerabdruck.
Aber wie diese Spektrallinien entstanden blieb im Dunklen.
Am Ende lieferte das einfachste Atom und das einfachste der Spektren den Stein von Rosetta,
um eine tiefere Einsicht in die Funktion der Atome zu haben.
Dies ist das sichtbare Balmerspektrum, das zuerst in der Astronomie im Licht entfernter Sterne beobachtet wurde.
Und wir wissen, dass Johann Jakob Balmer der Erste war, der einen empirischen Ausdruck
für die Wellenlängen dieses sehr einfachen Spektrums einführte,
der später durch Rydberg verallgemeinert wurde, der die empirische Rydbergkonstante einführte.
Aber man wusste immer noch nicht, wie diese Linien entstehen konnten.
Man hatte selbst überhaupt keine Idee, was innerhalb des Atoms vorging, bis die Radioaktivität entdeckt wurde.
Und bis Rutherford die Streuung radioaktiver Alphastrahlen an einer Goldfolie nutzte,
um zu entdecken, dass die gesamte Masse des Atoms auf einen sehr kleinen, schweren Kern beschränkt sein muss.
Und die leichten Elektronen diesen Kern umgeben, wie eine Wolke.
Mit dieser Einsicht versuchte Bohr, ein Modell des Wasserstoffatoms zu erstellen,
dem einfachsten Atom mit nur einem einzigen Elektron, eine Art Planetensystem.
Und er versuchte zu sehen, was das Balmerspektrum erzeugen könnte.
Er realisierte dann, dass kein klassisches Modell funktionieren würde.
Er stellte wie Planck einige radikale Annahmen auf: dass nur bestimmte stationäre Umlaufbahnen erlaubt waren.
Und dass die Strahlung in Übergängen abgegeben wird, in Sprüngen zwischen diesen Umlaufbahnen.
Die frühen Quantenpostulate waren nur schwer zu schlucken.
Aber sie erlaubten es Bohr, die Rydbergkonstante als Produkt der Elektronenmasse, Elektronenladung,
dem Planckschen Wirkungsquantum und der Lichtgeschwindigkeit auszudrücken, und zwar mit einer ziemlich hohen Genauigkeit.
Die Wissenschaftler realisierten dann, dass irgendein wahrer Kern darin steckte, auch wenn es keinen Sinn machte.
Louis de Broglie zeigte, wenn man annahm, dass Elektronen, Teilchen, auch Welleneigenschaften haben können
und man sich fragte, was die Umlaufbahnen wären, bei denen man resonante Wellen hat,
bei denen eine ganze Zahl von Wellenlängen passt, dass man dann das Balmerspektrum reproduzieren kann.
Schrödinger stellte eine Wellengleichung für diese Materiewellen auf,
die vielleicht eine der erfolgreichsten und am besten überprüften Gleichungen in der Physik ist.
Da die Schrödingergleichung für das Wasserstoffatom eine geschlossene Lösung hat, kann man Bilder der Orbitale zeichnen.
Da ist aber immer noch eine Frage, für die bis heute keine finale Antwort gibt:
Was beschreibt diese Schrödingergleichung oder die Schrödingerwellenfunktion?
Es gibt hier unendlichen Raum für Spekulation, für Philosophie.
Aber wenn wir den festen Boden der Wissenschaft nicht verlassen wollen, denke ich, alles was wir sicher sagen können ist,
dass diese Gleichung unsere Information über die Wahrscheinlichkeiten von Klicks und Messwerten beschreibt.
Sie sagt nichts aus über die wahre mikroskopische Welt.
Dies ist der Kern, der Geist der Kopenhagen-Interpretation, die durch die Interpretation des QBism verschärft
und konsistenter gemacht wurde, eine Minimalinterpretation, die Wahrscheinlichkeiten interpretiert.
Im Bayesschen Sinn, wie wir von Serge Haroche gehört haben.
So können insbesondere verschiedene Physiker unterschiedliche Wahrscheinlichkeiten zuweisen,
je nachdem, wie viel Information sie haben.
Dies ist also noch Neuland, wo wir hoffen, dass vielleicht jemand unter Ihnen Einsichten haben wird,
wie wir über diese phänomenologische Beschreibung hinausgehen können.
Trotzdem funktioniert sie gut.
Und diese Diracgleichung war wunderbar, weil sie nicht nur relativistische Effekte enthielt,
sondern auch die Existenz der Antielektronen oder Positronen vorhersagte.
Und das war so wunderschön, dass die Leute glaubten, dies müsse nun die endgültige Wahrheit sein.
Aber es gab eine bohrende Ungewissheit, ob Dirac wirklich die Feinstruktur der Wasserstofflinien sehr gut beschreiben konnte.
Und seit dem zweiten Weltkrieg wissen wir, dass die Diracgleichung nicht vollständig ist.
Sie kann die Feinstruktur der Wasserstofflinien nicht beschreiben, weil es Effekte gibt, die nicht eingeschlossen waren,
insbesondere die Wirkung des Vakuums - Vakuumfluktuationen und Vakuumpolarisation.
Lamb mit seiner Entdeckung der Lamb-Verschiebung, d. h. des Effekts, dass es zwei Energieniveaus im Wasserstoff gibt,
dem 2s-Zustand, wo das Elektron dem Kern sehr nahe kommt, und dem 2p-Zustand, wo es vom Kern wegbleibt -
aber in Wahrheit eine Aufspaltung von etwa 1.000 Megahertz zeigen.
Dies war der Beginn der Quantenelektrodynamik und modernen Quantenfeldtheorien im Jahr 1965.
Der Nobelpreis für die Entwicklungen in der Quantenelektrodynamik wurde an Tomonaga, Schwinger und Feynman vergeben.
Natürlich haben wie seit damals, dank Gell-Mann, gefunden, dass es ein Schema gibt,
wie wir die Bausteine der gesamten Materie durch Quarks, Leptonen und Bosonen klassifizieren können.
Und wir glauben, dass dies eine vollständige Beschreibung der Materie ist, wie wir sie heute verstehen.
Natürlich wollen wir sehnlichst über des Standardmodells hinausgehen.
Und wir sehen neue Beschleunigerexperimente am CERN - vielleicht wir werden neue Dinge entdecken.
Dies wird daher als ein sehr erfolgreiches Modell der Materie und ihrer Wechselwirkungen betrachtet.
Nach dem Standardmodell ist das Proton, der Kern des Wasserstoffatoms,
ein zusammengesetztes System, das aus Quarks und Gluonen besteht.
Und es existiert die Theorie der Quantenchromodynamik, die versucht, dies zu modellieren.
Aber sie ist noch in einer Frühphase.
Wir können beispielsweise die Größe des Protons nicht vorhersagen.
Und diese Frage, wie klein ein Proton ist, wurde experimentell wichtig, teilweise wegen der Laser und der Präzisionsspektroskopie.
Ich selbst begegnete Wasserstoff zuerst in den frühen 70er-Jahren, als ich Postdoc an der Stanford-Universität war.
Arthur Schawlow, Miterfinder des Lasers, war mein Gastgeber und Mentor.
Und er gab jungen Menschen einen guten Rat.
Er sagte, wenn Du etwas Neues entdecken möchtest, versuche dorthin zu schauen, wohin noch niemand vorher geschaut hat.
Tatsächlich hatten wir damals in den frühen 70er-Jahren ein Werkzeug, mit dem wir dies sehr gut machen konnten,
weil wir den ersten durchstimmbaren Farbstofflaser hatten, der gleichzeitig auch extrem monochromatisch war.
Also konnte man ihn benutzen, um spektrale Linien ohne Dopplerverbreiterung
mithilfe der nichtlinearen Spektroskopie, Sättigungsspektroskopie zu untersuchen.
Und wir lösten zum ersten Mal erfolgreich einzelne Feinstrukturbestandteile der roten Balmer-Alphalinie auf,
wohingegen die Spektroskopie wegen der großen Dopplerverbreiterung des leichten Wasserstoffatoms
mit einer Mischung unaufgelöster Linien zu kämpfen hatte.
Dies war der Beginn eines langen Abenteuers, Wasserstoff mit immer höherer Auflösung und immer höherer Präzision zu untersuchen,
in der Hoffnung, wenn man nur genau genug hinsähe, fände man eines Tages eine Überraschung.
Und nur wenn wir eine Unstimmigkeit mit der existierenden Theorie fänden, können wir auf Fortschritt hoffen.
Und so dauert das Abenteuer noch immer an.
Heute haben wir die relative Frequenzunsicherheit, mit der wir Übergänge im Wasserstoff untersuchen können,
von etwa 6 bis 7 Dezimalstellen in der klassischen Spektroskopie auf 15 Dezimalstellen heute verbessert.
Und um einen Fortschritt über 10 Stellen hinaus zu erzielen, mussten wir lernen, die Lichtfrequenz zu messen.
Die Motivation hinter dieser Art der Arbeit ist, dass wir die QED des gebundenen Zustands untersuchen wollen,
um nach möglichen Unstimmigkeiten zu suchen.
Aber wir können auch Fundamentalkonstanten messen, insbesondere die Rydbergkonstante und den Ladungsradius des Protons.
Man kann die Frage stellen: Sind Konstanten wirklich konstant oder kann es sein, dass sie sich langsam im Lauf der Zeit ändern?
Es gibt den Antiwasserstoff, also kann man darauf hoffen, Materie und Antimaterie zu vergleichen
und insgesamt vielleicht eine neue Physik entdecken.
Diese Suche hat die Motivation für Erfindungen geliefert.
In den 1970er-Jahren wurden die Techniken der dopplerfreien Laserspektroskopie, auch die Idee der Laserkühlung
eines atomaren Gases, durch diese Suche nach höherer Auflösung und Genauigkeit im Wasserstoff angeregt.
Und in den 1990er Jahren schließlich ein Werkzeug, der Femtosekunden-Frequenzkamm, der nun einfach macht,
was vorher unmöglich oder extrem schwierig war, nämlich die Wellenberge einer Lichtwelle zu zählen.
Am Beginn des Jahrtausends berichteten mehrere Zeitungen und Zeitschriften über diese Frequenzkämme,
weil auf sie Bezug genommen wurde, als im Jahr 2005 der Nobelpreis an John Hall und mich vergeben wurde.
Und zum Frequenzkamm: Er war erstmalig ein einfaches Werkzeug für die Messung der optischen Frequenzen
von hunderten oder sogar tausenden von Terahertz.
Er liefert eine phasenkohärente Verbindung zwischen dem sichtbaren und Radiofrequenzbereich,
und es ist ein Uhrwerkmechanismus, ein Zähler für optische Atomuhren.
Wie also funktioniert ein Frequenzkamm?
Typischerweise hat man einen Laser oder irgendeine Quelle, die sehr kurze Pulse mit einem breiten Spektrum aussendet.
Wenn man einen solchen Einzelpuls hat, erhält man ein breites Spektrum.
Wenn man keinen Einzelpuls nimmt, sondern 2 Pulse hintereinander, dann gibt es eine Interferenz im Spektrum.
Es ist also ähnlich dem youngschen Doppelspaltexperiment,
aber jetzt hat man eine Interferenz im Spektrum oder dem Spektrograph und man erhält ein Streifenmuster.
Im Grunde hat man schon einen Frequenzkamm, einen Linienkamm, aber nicht sehr scharf.
Je weiter die Pulse voneinander entfernt sind, umso mehr Kammlinien erhält man.
Und der Frequenzabstand zwischen diesen Kammlinien entspricht präzise dem Kehrwert des Zeitintervalls zwischen 2 Pulsen.
Wenn ich also keine 2 Pulse habe, sondern viele Pulse,
dann können sie interferieren und wir erhalten eine Interferenz wie mit einem Beugungsgitter.
Wir bekommen eine Multiwelleninterferenz und können scharfe Linien erzielen.
Je länger wir warten, desto schärfer werden die Linien.
Und sie können so scharf sein wie beim jedem Dauerstrichlaser, aber nur, wenn wir die Zeitabläufe präzise kontrollieren.
Sonst funktioniert dies natürlich nicht.
Dies sind daher extrem grundlegende Prinzipien nach Fourier.
Trotzdem erwarteten die meisten nicht, dass es tatsächlich funktionieren könnte, um die Frequenz des Lichts zu messen.
Sie ahnten nicht, wie weit man diese Prinzipien ausdehnen konnte:
dass man einen phasengekoppelten Titansaphirlaser nehmen, sein Licht durch eine nichtlineare Faser schicken konnte,
um es durch Eigenphasenmodulation zu einem Regenbogen an Farben zu verbreitern, und man immer noch einen Frequenzkamm hat.
Wir können daher 100.000 oder 1.000.000 scharfe Spektrallinien erzeugen,
die sehr gleichmäßig verteilt sind in einem Abstand von präzise der Pulswiederholfrequenz.
Das einzige Problem war noch, dass wir nicht die absolute Position dieser Linien kannten.
Wir kennen die Abstände, aber nicht die absoluten Positionen,
die vom Phasenschlupf der Trägerwelle relativ zur Pulshüllkurve abhängen, der sogenannten Trägerhüllkurve dieser Frequenz.
Aber wenn man einen eine Oktave umspannenden Kamm hat, dann ist es extrem einfach, diese einer solchen Frequenz zu messen.
Man nimmt Kammlinien vom roten Ende und schickt sie für eine Frequenzverdopplung durch ein nichtlineares Kristall,
bekommt Kammlinien am blauen Ende und schaut sich das gemeinsame Schwebungssignal an und kann das messen.
Und wenn man es messen kann, dann kann man mehrere Kontrollmethoden benutzen, um es zu entfernen oder einfach zu berücksichtigen.
Und daher kann man ein Instrument kaufen, optische Frequenzmesser,
und hunderte dieser werden in verschiedenen Laboratorien genutzt.
Sie werden miniaturisiert, und daher kann man ein Instrument besitzen, von dem ich vor 30 Jahren geträumt habe.
Etwas, das man auf den Tisch stellen kann, und man einen Eingang für das Laserlicht und eine digitale Anzeige hat,
um die Frequenz zu messen.
Man kann die Frequenz auslesen mit so vielen Stellen, wie man möchte.
Es gibt Arbeiten für miniaturisierte Kammquellen, die auf Mikroringkernen basieren, hergestellt durch Lithografie.
Und einer der Gründe für das wachsende Interesse an diesen Kämmen ist, dass der Strauss der Anwendungen ständig wächst.
Aber wir haben keine Zeit, ich schaue auf die Uhr und ich sehe, dass ich mich wirklich beeilen muss.
Aber lassen Sie uns auf den Ursprungszweck schauen, auf Frequenzmessungen.
Es gibt also diesen extrem scharfen Übergang im atomaren Wasserstoff,
den 2-Photonenübergang vom Grundzustand zum metastabilen 2s-Zustand, der eine natürliche Linienbreite von nur etwa 1 Hertz hat.
Und man kann ihn durch ultraviolettes Licht anregen.
Die frühesten Experimente wurden zusammen mit Carl Wieman im Jahr 1975 durchgeführt, der sogar hier an dem Treffen teilnimmt.
Ich habe ihn noch nicht gesehen, aber ich denke, er wird am Mittwoch ankommen.
Wir sind nun in der Lage, die Frequenz dieses Übergangs auf etwa 15 Dezimalstellen genau zu messen.
Für die Messung benötigt man einen Vergleich, unser Vergleich war der nationale Zeitstandard der Cäsiumfontänen-Uhr an der PTB.
Und wir hatten ein Glasfaserkabel, das Laboratorien über eine Entfernung von etwa 1.000 Kilometer verbindet.
Wenn ich daher diese Frequenz habe, kann ich dann die Rydbergkonstante bestimmen?
Ja, im Vergleich zur Theorie - aber es gibt ein Problem, wir kennen die Protonengröße nicht sehr genau.
Und daher kennen wir die Frequenz auf 15 Kommastellen genau, aber die Rydbergkonstante nur auf 12 Kommastellen.
Um daher einen Fortschritt zu erzielen, müssten wir einen besseren Wert für den Ladungsradius des Protons haben.
Wie wird der Ladungsradius des Protons gemessen?
Durch Elektronenstreuexperimente an Beschleunigern,
und es gibt auch die Möglichkeit, ihn durch Vergleich unterschiedlicher Übergänge im Wasserstoff zu messen.
Wenn wir uns die Energien der s-Niveaus anschauen,
dann sie skalieren mit der Rybergkonstante geteilt durch die Hauptquantenzahl zum Quadrat,
plus der Lamb-Verschiebung des Grundzustands, geteilt durch die Hauptquantenzahl hoch drei.
Und diese Lamb-Verschiebung beinhaltet traditionell einen Term, der mit dem quadratischen Mittel des Protonladungsradius skaliert.
Man kann also die Protonengröße durch Vergleich zweier unterschiedlicher Übergänge messen.
Man kann das noch viel besser machen,
wenn man sich künstliche Atome des myonischen Wasserstoff anstelle des elektronischen ansieht.
Ein negatives Myon ist 200-mal schwerer und kommt 200-mal näher an den Kern heran.
In diesem Fall ist die Lamb-Verschiebung tatsächlich im mittleren Infrarot bei 6 Mikrometer.
Aber wenn man Myonen im Wasserstoffgas einfängt, kann man den metastabilen 2s-Zustand bevölkern,
Übergänge mit einem Laser herbeiführen, und sich die Lyman-Alphalinie anschauen,
die in diesem Fall 2 Kiloelektronenvolt im weichen Röntgenbereich beträgt.
Diese Art des Experiments wurde durchgeführt, und war endlich erfolgreich.
Hier sehen Sie einen Teil des internationalen Teams vor dem Labor des Paul-Scherrer-Instituts in der Schweiz.
Und so konnten sie mit Randolf Pohl als Teamleiter in den Jahren 2010 und 2013 Resultate veröffentlichen,
die solche Resonanzen beobachteten, Lamb-Verschiebungsresonanzen im myonischen Wasserstoff.
Die große Überraschung war, dass sie nicht dort waren, wo sie erwartet wurden –
Sie war also nicht dort.
Wenn wir uns das Diagramm ansehen, sehen wir, dass die Protonengröße bestimmt vom myonischen Wasserstoff fast 8 Sigma entfernt ist
von der Größe, die durch gestreute Elektronen oder elektronischen Wasserstoff bestimmt wurde.
Dies wird das Rätsel der Protonengröße genannt.
Es ist noch nicht vollständig gelöst.
Wir haben den Verdacht, dass die myonischen Wasserstoffexperimente richtig sind und vielleicht die Wasserstoffspektroskopie nicht.
Das hat damit zu tun, dass wir einen sehr scharfen Übergang haben, der 1s-2s-Übergang, aber es gibt zusätzliche Übergänge,
die nicht so scharf sind und leichter durch elektrische Felder und andere Effekte gestört werden.
Wenn wir uns also all die spektroskopischen Wasserstoffdaten ansehen, die in den Wert des Protonenradius einfließen,
dann sieht man, dass jeder einzelne Wert einen großen Fehlerbalken hat.
Und nur nach Mittelung über alle Werte erhalten wir den kleinen Fehler.
Aber vielleicht darf man das nicht machen.
Es gibt einige neue Experimente, die Axel Beyer in unserem Labor durchführt,
der die Ein-Photonen-Übergänge in einem kalten Strahl metastabiler 2s-Atomen untersucht, vom 2s- zum 4p-Zustand.
Das ist im Wesentlichen ein Balmer-Betaübergang,
und er hat sich größte Mühe gegeben, alle erdenkbaren systematischen Fehler auszuschalten.
Er hat jetzt einige Ergebnisse,
die tatsächlich auf der anderen Seite des Protonenradius bestimmt durch myonischen Wasserstoff sind.
Ich weiß nicht, ob das wirklich schlüssig ist, aber es legt nahe, dass dies vielleicht die Lösung wäre.
Dass wir keine neue Physik entdecken, sondern vergangene Fehler in der Wasserstoffspektroskopie.
Trotzdem, wenn wir für den Moment annehmen, dass der myonische Wasserstoff uns die richtige Protonengröße liefert,
dann können wir nachsehen, wie dies die Rydbergkonstante beeinflusst.
Und hier haben wir den offiziellen Wert der Rydbergkonstante laut den jüngsten CODATA-Anpassungen der Fundamentalkonstante.
Und wenn wir den myonischen Wasserstoffradius nehmen, dann sehen wir,
dass die Fehlerbalken gehörig schrumpfen, fast eine Größenordnung, das ist ein großer Schritt für eine Fundamentalkonstante.
Aber wir verschieben auch die Rydbergkonstante, das hat natürlich Konsequenzen für verschiedene präzise Voraussagen.
Ich bin am Ende angekommen.
Lassen Sie mich kurz erwähnen: Bald, vielleicht sogar noch in diesem Jahr,
erwarte ich die ersten Ergebnisse der Laserspektroskopie an Antiwasserstoff zu sehen.
Und natürlich ist die Frage, ob Wasserstoff und Antiwasserstoff genau das gleiche sind,
oder ob es einen winzigen Unterschied gibt, kolossal wichtig für unser Verständnis der Natur.
Und selbst der winzigste Unterschied wäre wichtig.
Daher: Je mehr Kommastellen man in der Messung bekommt, umso besser.
Frequenzkämme werden inzwischen auch in der Astronomie in hochauflösenden Spektrographen der großen Laboratorien installiert,
und es gibt eine Anzahl von Bereichen, wo man vielleicht mehr über Licht und Materie entdecken kann.
Erstens kann man ihn benutzen, um nach erdähnlichen Planeten in der Umlaufbahn um sonnenähnliche Sterne zu suchen.
Aber man kann natürlich auch die allgemeine Relativitätstheorie überprüfen.
Man kann vielleicht Hinweise für mögliche Änderungen der Fundamentalkonstanten aus Beobachtungen erhalten.
Es existiert auch die Frage, ob diese kosmischen Rotverschiebungen, die wir beobachten, sich im Laufe der Zeit ändern?
Können wir Hinweise für die andauernde Expansion des Universums von Beobachtungen von der Erde aus erhalten?
Und es sieht so aus, als ob das möglich wäre.
Wie wenig wir über das Universum wissen, wird hier illustriert, wo wir annehmen, dass 68 % komplett unbekannte dunkle Energie ist
und 26.8 % sind dunkle Materie unbekannter Zusammensetzung.
Es gibt also noch viel zu entdecken.
Der Fortschritt, den wir in unserem eigenen Labor erzielt haben, war übrigens nicht so sehr motiviert durch diese wichtigen Fragen,
sondern mehr durch Neugier und um in unserem Labor Spaß zu haben.