Bruce Beutler

Deciphering Immunity by Making It Fail

Category: Lectures

Date: 30 June 2014

Duration: 31 min

Quality: HD MD SD

Subtitles: EN DE

Bruce  Beutler (2014) - Deciphering Immunity by Making It Fail

Infectious microbes collectively represent the strongest selective pressure operating on our species, and over hundreds of millions of years, drove the evolution of the sophisticated immune system we have today

I'd like to talk to you today mostly about the whole process of genetics in the mouse. The mouse is a model organism, and about the great progress that’s occurred just during the last several months in fact. Specifically how we can find mutations now in real time starting with phenotype. I’ll touch briefly on the past. I won’t go over most of the story that Jules just told you but I’ll say that we were motivated in our work for many years by the problem that infectious disease represents in human beings. About sixty million people die each year and about one quarter of those people die of infection, even today. Though it’s must less apparent in what we call the developed world, nonetheless it’s a huge problem everywhere and specifically in places where there isn’t ready access to antibiotics and where the likelihood of infection is greater. There’s something special about the kind of death that infectious disease represents. It’s disproportionately occurring in young people, in people of pre-reproductive age. And because of that fact it’s certainly the greatest selective pressure that’s operated on our species in recent times. We don’t know how many genes are required for the sum total of resistance mechanisms to infection that we have but it could be in the hundreds or in the thousands. Probably infection has been a potent selective pressure for a very long time. Because the whole of the immune system came into existence under the influence of that pressure in it all its complexity. And infection exists notwithstanding the fact that the immune system is dangerous by itself. Once you have an immune system you run the risk of autoimmune or auto inflammatory diseases. In fact about twelve percent of all people will have problems with one kind of autoimmunity or another during their lifetimes. A lot of what we know about the immune system was revealed by naturally occurring mutations. Which taught us what has to happen in order to have a strong immune response. One naturally occurring infection that attracted me from many years ago was a rather subtle one. It was embodied in the C3H/HeJ sub-strain of C3H mice and it was noticed in 1965 that these mice were very selectively resistance to lipopolysaccharide or endotoxin. Something which had been known for nearly a 100 years in terms simply of its existence. It was known that endotoxin was made by gram negative bacteria, was a structural component of gram negative bacteria, and would cause basil motor collapse in human patients who had severe gram negative infections. That’s what every medical student learnt. But it wasn’t well understood how this molecule worked and specifically nobody had identified a receptor for LPS. We took a genetic approach to find that receptor, as everyone believed that the C3H/HeJ mouse had a receptor defect. Every experiment that one could perform supported that view. And after a long tough five years slog we positionly cloned the molecule that was defective in those mice. And found that it was a toll-like receptor, toll-like receptor 4. There being at that time 4 toll-like receptors known by homology with the fly toll protein. Now that was a very difficult effort. In those days positional cloning proceeded through a genetic mapping phase, then physical mapping and then one would identify genes within the critical region. And finally one would look for the mutation within one of those candidate genes. It wasn’t unusual that 5 years or even longer were required to crack a problem like that. Today we know from crystallographic work, and this is from a paper by Jeung Lee from year 2009 that LPS or endotoxin is in fact directly in contact with toll-like receptor 4, and also with a small sub-unit that was identified in 1999 by Kensuke Miyake called MD2. And it fits neatly into a kind of basket made by these molecules. That triggers a conformational change. That in turn triggers all of the derangements that one sees in endotoxic shock. And it also initiates a protective response. So that animals exposed to LPS develop resistance, innate resistance, to the bacteria that are infecting them. It was very lucky that the C3H/HeJ mouse was ever noticed to be phenotypically abnormal. And that was something that occurred just by chance. Natural mutations like that are very rare, very precious and usually they are missed. In fact there may be many of them in all the common mouse strains used but we don’t know just what screens to apply to detect them. It’s possible of course to plan for discovery, to be proactive and create mutations rather than simply waiting for them to occur. And such mutations can be detected by phenotypic screening using a screen that’s of interest to you to probe a phenomenon that’s of interest to you. And this of course is what forward genetics is. It’s making mutations at random to create phenotype, then finding the mutations that cause the phenotype. The huge advantage of forward genetics is that it’s unbiased and so it can create enormous surprises. It yields genuine discovery, it can even introduce you to new phenomenon that you weren’t aware of before all by creating exceptions to the norm at random. But historically in mice it was quite slow, as I’ve pointed out, expensive and just very difficult. In our laboratory for the last 13 years or so we’ve taken this approach. We’ve used a chemical mutagen, ethylnitrosourea, an alkylating agent and we administered it to male mice. Where upon it induces about 70 coding changes per sperm in each sperm produced by that male. And usually the concentrate mutations achieving more than a hundred coding variants per genome in the G1 progeny we mutagenized two separate male mice as shown here. We know from experience that almost all phenotype emanates from coding change when one uses this point mutagen. The G1 mice are crossed to black six females to make a large number of G2 animals and then a total of fifty G3 animals are produced from this G1. These grandchildren of the G1 are what are screened for phenotype and one can detect recessive phenotype in that generation. All of these mice have single mutation problems that lead to pheno-variance. And all of them were tracked down and solved in a more or less arduous fashion. But you can see that all of them look different or act different than the wild type. Yet of course we are mainly interested in immunologic phenotypes. These are the immune phenotypes that we’ve addressed over the years. We’ve looked at toll-like receptors signalling and found many variance there that I won’t talk about today. We’ve looked at the adaptive immune response and asked just what's necessary for an antibody response after all. We’ve asked what's necessary for a mouse to clear normally harmless viral infection by mouse cytomegalovirus. We find exceptional mice that are susceptible and die, and we’ve also looked at the problem of gut homeostasis following epithelial injury. In other words resistance to inflammatory colitis. That I’ll talk about just briefly because I will discuss it more in detail in a moment. This screen is carried out by giving 1.4% dextran sodium sulphate to mice in their drinking water over a period of ten days. This is a cytotoxin that will injure epithelial cells and in normal mice the injury is well tolerated, no weight loss occurs at that dose. But in exceptional mice diarrhoea, weight loss and death followed DSS administration. And the question we are addressing here is what's required to repair injury, contain infection and restore normal physiology? Technology began to help us along the way here. Things weren’t as difficult as between 1993 and 1998 when we worked on the LPS locus, after we began using ENU. In the year 2002 the draft sequence of the mouse genome was published and it was no longer necessary to look for the gene content of a critical region, nor to make context at all. But high resolution mapping was still needed for a time. In 2009 that became unnecessary because massively parallel sequencing platforms came on the scene and it became possible to tackle whole mouse genomes. By 2011, there were means of targeting the mouse exome for sequencing. That was only about 2% of the total genome content of DNA and so it was about fifty times as fast as sequence and fifty times as cheap. And we began at that point to sequence every G1 mouse to find all of the candidate mutations upfront. And that we continue to do to the present day. Furthermore we could begin to archive mutations. At present we’ve collected a total of 146,000 mutations that create coding change. And these reside within about 90% of all the protein encoding genes in the mouse and they are retrievable any time we should need them. In this collection there are 11,217 mutations that create putative null alleles, that is premature stop codons or critical splice junction errors. And these affect about 31% of all genes. So we’ve destroyed more than 30% of all genes outright. The fact is that most phenotype comes from misssensed errors which are much more abundant than these null errors that I talked about. And so it’s very likely that we’ve mutated more than half of all genes to a state of pheno-variance. But I don’t want to leave you with the impression that we’ve covered half the genome in all of our screens. Because it’s not true that all of those mutations were transmitted to homozygosity or studied phenotypically. They are merely the mutations we’ve archived. We could at that point begin to measure the saturation that we'd achieved. And this was always a question, before we were preceding quite blindly. We didn’t know how much damage we had done to the genome. But using computational methods knowing the exact structure of every pedigree, we could calculate the likelihood that every G1 mutation was transmitted to homozygosity in at least one mouse. And we could do this for null alleles as shown by the pink curve or for alleles that were probably creating injury, probably damaging or for a combination of the two, or for all of the mutations. If we stick to the question of how many of the null alleles were likely transmitted to homozygosity, in this case looking at about 13,750 G3 mice in a particular screen, we could say that taking the area under the curve, 1,613 genes were altered in homozygous form, so that would be 7% saturation. But we knew already at that time that this was certainly an overestimate because many null alleles are lethal on the homozygous state. Many non-overt null alleles are as well, and can’t be transmitted to homozygosity under any circumstances, and we would never see them in the wild population of mice. Mapping remained the bottleneck in our work and as we began to mutagenize and screen on a larger and larger scale we did get lots of phenotypes. But there got to be a kind of a gap in reverse. We used to speak of the phenotype gap as meaning there weren’t enough phenotypes. We felt finally that there were too many phenotypes, and they began to exceed the number of mutations that we'd actually found. Which numbered in the hundreds but still we were falling behind. The standard procedure remained that we would outcross a homozygous mutant to a marker strain, back-cross it. And then phenotype the F2 animals and genotype them at markers across the genome to limit the mutation to a critical region. That became the bottleneck in the whole process. Furthermore we were aware that we were simply ignoring most of the mutations. We would find one mutation the causative one but we didn’t have the potential to exonerate genes as we felt we ought to. The dream of positional cloners for the last 10 years has been something akin to google glasses. You’d like to have a box of mice, like this one, let’s say they are all from a single pedigree. Here I’ve made the mutant phenotype rather obvious but it might not be, it might be an immunologic phenotype. In any case you’d like to be able to put on these magical glasses and there on it would point out which mice are variant and which are not. And it would do much more than that, of course. It would automatically and immediately tell you what the mutation was. In this case a mutation in SOX10 it would tell you exactly the base pair change, the amino acid change. It would tell you what motive it was in and what the human ortholog was, if any. Perhaps even give you structural data. Now that was the challenge and we rose to that challenge and we actually have solved it and we can do exactly this. I’ll show you exactly how it works. But I’ll say at present in our laboratory, when a phenotype is recorded, the cause is known within one hour. Or the phenotype is rejected as non-genetic. Also within an hour. Not out of frustration; the computer says to reject it! This applies to all phenotypes whether they are visible or immunological. Whether they are qualitative or binomial or whether they are quantitative. The cost of doing this is independent of the number of phenotypes observed in a pedigree and it’s very common that multiple phenotypes emanated from one pedigree. Our new approach also permits actual exact measurements of saturation rather than any probabilistic estimation. And it permits the exoneration of genes as well as the implication of genes in any biological process to a level of certainty that you specify. So how do we do this? First of all, as we have done for a long time, all the G1 mice are sequenced before breeding and their sperm are archived. But the new point is that at that time Ampliseq panels are ordered to genotype all of the descendants of the G1 at all mutant sites. We can’t quite afford to exome-sequence fifty mice in a pedigree but we can genotype them at 70 to 100 different mutant sites. The G1 males are breed to make these G3, and all the G2 and G3 mice are genotyped using an instrument called Ion Torrent sequencer. And all of this is done before the mice are distributed for screening. When phenotypic data finally arrived they are uploaded to the computer which immediately calculates a linkage score using dominant additive and recessive models of linkage. And the computer rather than a person determines whether there’s significant phenovariance ascribable to a given mutation. The data are retrievable from a database that continues growing larger and larger and they can be searched according to a number of different parameters. Let me give you a quick example of how this works. We had a certain pedigree which is named for the G1 ear-tag number R0491. And in this pedigree some of the mice were small and some were of normal size. The small ones were named “Teeny” and there were 9 designated as affected and there were 39 designated as unaffected. In that pedigree there were 68 candidate mutations. The Ion Torrent sequencer is used to genotype all of the mice of the pedigree, and it was used up front in this case as I described. The output of data from the Ion Torrent are red where you might have different mice across the top and you would have all the different mutations going up and down along the y-axis. So I'm only showing you a part of the table. What we are looking at here is the number of variant cause, of a reference cause. So these would be homozygous variant of a particular mutation. This mouse would be at that same mutation site homozygous reference alleles and this would be a heterozygous. The extended table I’ll show you in a moment. But just so you don’t have any doubt about the accuracy of the cause. We get very clear separation between reference homozygous, heterozygous and variant homozygous cause. There’s practically no ambiguity in a pedigree like that. The computer arrays all the data using the same colour coding I'm showing you here. So across the top we have all of the mice in the pedigree in this orientation. We have all the mutations and you can see all the three colours of variant reference and heterozygous cause. And more or less in the blink of an eye the computer plots three curves. These are Manhattan plots for those of you who aren’t familiar with them. The negative log of the probability of linkage is shown along this axis. It’s a log scale of linkage, much like a log score, though not exactly the same definition. And we see very quickly that by an additive model we get the very highest score by recessive, the same peak shows up. And even using a dominant model we show some effect, although much weaker than with the recessive. So this is an additive phenotype, the mutation on chromosome 6 protein called Kbtbd2 appears to be responsible for the diminutive phenotype of these mice. This is a gene about which nothing had ever been published and it codes for a ubiquitin ligase. It’s still not clear to use exactly why it’s required for the mice to grow normally but clearly it is. Now we have only had this new system for a rather short time. And I'm going to show you some statistics that are based only on a few months of screening. As of last week, as I was preparing this talk, we had a collection of 12,852 allelic variants that fell into 8,112 genes. And those were created and tested in phenotypic screening of 9,848 mice from 212 pedigrees. Among the allelic variance were a 1,007 probable null alleles that fell into 950 genes. The null alleles were tested once in the homozygous form for 616 of the genes. Twice for 502 of the genes and three times for 421 genes. Now we generally consider that having assayed the phenotype three times for a particular mutation is quite robust. We have 40 screens in our repertoire but not every mouse was subjected to all 40 screens. On average 31 phenotypic assays were performed per mouse. And so we are looking at 311,701 assays that were performed in all on this collection of mice. A total of 256,754 individual tests of linkage were performed on the 8,112 genes. And a total of 2,829,932 records result from those tests of linkage, and I’ll make it a little clearer what are record is. Essentially it involves a single Manhattan plot on one set of data from a pedigree. But that can be done according to many different models. Now all of this has to be organised in a computer of course and it has to be queried. And we’ve devised a console that you can see here, whereby we can investigate using no specific criteria. Or we can look by gene, or by screen, or by pedigree, or by the phenotype name that we assign on seeing a particular phenotype. We can filter by the allele, be it a non-sense, miss-sense, make sense, critical splicing or non-critical splicing, or by the predicted effect of any mutation. We can also specify the number of times that we see a particular mutation in the homozygous state or heterozygous state. And we can set the P-value cutoff for linkage so we ignore things that are weakly linked and we can apply or not apply a Bonferroni correction. We can also look at lethals, we can also insist that we see both raw and normalised assay data, agreeing in order to look at the mutation of interest. Let’s look at the DSS screen and see how that turned out. Not all of those mice were screened with DSS. But some of them were and they were screened both at day 7 and at day 10. So we can enter those. We look at three mice that were homozygous for the variant alleles. We set a very stringent P-value cutoff of 0.002 with Bonferroni correction and don’t consider anything other than that. And we only display results if we see both raw and normalised data. And then we click, I guess, submit it says. Here are the data that come back to us. We have a list of pedigrees by G1 number and within pedigrees genes that scored positively. We know that a total of 14 genes are implicated but they have been implicated in many different tests and that’s why you see them over and over. This is only one page of the display. These genes are represented in 15 different alleles and they come from 7 pedigrees that contained a total of 168 mice. So you can look down the list and you see which genes were implicated. Hr is one of them stands for Hairless. Htr2a is another that’s closely linked and you would see perhaps others down the list. You see in additive and recessive and dominant models what the linkage score is. And you might peruse the list and you find one that looks very strong. If you click on it you immediately get a Manhattan plot and there you see the linkage. You see that there are two closely linked genes that qualify by this criterion as being candidates that cause the phenotype. If you left click on one of them then you immediately see what the mutation is, it’s all been pre-calculated. You see also a lot of other information about the gene, its domain structure, where the mutation is what it score is in a polythane assessment of damage. If you left click on that same site you immediately see the raw data that went into the assessment. You find that variant homozygotes for this particular mutation perform in this way. In the phenotypic assessment they lose more weight than heterozygotes or wild types at that locus. And this is a collection of wild type mice random controls in parallel. So this is a very robust mutation, in fact we know that its true from having looked at multiple alleles, the hairless gene does cause susceptibility to dextra and sodium sulphate. There were seven linkage assignments made, and here I simply show you the others. Largo is a mutation in Degs2 which is an enzyme that makes phytoceramide that may have immunologic activity in the gut. Myo1d is an unconventional myosin that was found in two different pedigrees and was named Horton and Whisper in those two. Gilberto is a mutation in Hsd11b2 which is an enzyme needed for glucocorticoid synthesis. Nlrp4d was implicated by the Snoop phenotype. And Stromberg is a peculiar example of increased resistance which is also picked up by the computer. It scores there as you see and all of these actually turn out to be correct. Now the question might be how much damage did we do to the genome here? We know that there were, without any stringency applied, exactly 3,628 mutant alleles of 3,037 genes tested among 1,447 G3 mice that were subjected to the screen. And there were 79 probably null alleles in 79 genes. If we want to be a little bit more relaxed about what damage it might be we could say that there were 581 probably null or probably damaging alleles of 558 genes. We know that looking only at null alleles and saying that that’s the only damage that occurred is too stringent. We know that looking at probably null or probably damaging is too relaxed a criterion. And the true amount of damage falls somewhere between those two points. So I would say that we damage between 0.35% and 2.45% of all the genes in the genome in this small sample. We found 5 genes that scored in DSS sensitivity and that could be taken to mean that there are between 200 and 1,400 target genes in all for that screen. Of course this is subject to quite a bit of error but if we screen a few thousand more mice that will be very much diminished. And all those ambiguities have to be resolved by multiple alleles. Part of our pipeline is to knockout candidate genes using the CRISPR/Cas9 system and at present we make about one knockout every day in the lab. So we are able to keep up with this. Increasingly though we find multiple alleles. For example I showed you we already have two alleles of Myo1d and this will go on more and more as we mutagenize more. We tend to hit things over and over and these are automatically combined by the programme into what we call super pedigrees. These reveal even very weak phenotypic effects as we have more and more mice to use in the analysis. With time most genes will be damaged repeatedly in screening and will have stronger and stronger linkage to go on. If the super pedigree mutations clearly, surely have, truly have a phenotypic effect. I see I'm running short of time here. I want just to point out to you that already with this very limited set of mice and with a few others that we found, a few other mutations found using the blood and guts approach that we used in the old days, we can say that there are mutations that fall into the category of differentiation and development, vesicle trafficking needs, immune sensing and signalling unfolded protein response, water and electrolyte homeostasis and all the others that I’ve written here. So clearly this is a very broad screen, it takes many different aspects of cell biology in order to prevent you from getting colitis if you have damage to the epithelium in that way. I'm going to conclude now because I'm about out of time. I want to thank Emre Turer who is a post-doc in the laboratory for actually running this screen. I want to say also that members of the bio-infra medics team in my lab were crucial in putting the program together. And they’ve made a tool that’s kind of akin to a new sort of microscope. That seems really quite miraculous to me that one can see a phenotype in the morning and within an hour or so know its molecular cause. Thanks very much.

Ich möchte heute in erster Linie über die genetischen Vorgänge bei der Maus sprechen sowie über die großen Fortschritte, die wir gerade in den letzten Monaten erzielt haben, insbesondere wie man Mutationen in Echtzeit ausgehend vom Phänotyp identifizieren kann. Ich werde kurz die bisherige Entwicklung anreißen, die Einzelheiten, die Jules Ihnen gerade eben erläutert hat, jedoch weitestgehend überspringen. Ich möchte aber anmerken, dass das Problem, das Infektionskrankheiten für den Menschen darstellen, seit vielen Jahren die Motivation für unsere Arbeit ist. Jedes Jahr sterben etwa 60 Millionen Menschen, ein Viertel davon an Infektionskrankheiten – auch heute noch. Zwar treten diese Erkrankungen in den sogenannten Industrieländern erheblich seltener auf, dennoch stellen sie überall ein großes Problem dar, insbesondere dort, wo die Menschen keinen freien Zugang zu Antibiotika haben und das Infektionsrisiko höher ist. Eine Besonderheit von Infektionserkrankungen ist, dass unverhältnismäßig häufig junge Menschen daran sterben Aus diesem Grund stellen diese Krankheiten sicherlich den größten Selektionsdruck auf unsere Spezies in jüngster Zeit dar. Wir wissen nicht, wie viele Gene für alle Resistenzmechanismen gegen Infektionen, über die wir verfügen, erforderlich sind, es könnten aber Hunderte oder Tausende sein. Infektionen stellen wahrscheinlich schon seit sehr langer Zeit einen starken Selektionsdruck dar, da sich das gesamte Immunsystem in seiner ganzen Komplexität unter dem Einfluss dieses Drucks entwickelte. Infektionen existieren ungeachtet der Tatsache, dass das Immunsystem selbst eine Gefahr darstellt. Sobald Sie nämlich über ein Immunsystem verfügen, laufen Sie Gefahr, eine Autoimmun- oder chronisch-entzündliche Erkrankung zu entwickeln. De facto tritt bei ca. 12% aller Menschen im Laufe ihres Lebens das eine oder andere Autoimmunproblem auf. Vieles von dem, was wir über das Immunsystem wissen, haben wir anhand natürlich vorkommender Mutationen gelernt Vor vielen Jahren begann ich mich für eine eher unauffällige in der Natur auftretende Infektion zu interessieren, die im C3H/HeJ-Unterstamm von C3H-Mäusen auftrat. Die Existenz dieser Substanz war seit gut 100 Jahren bekannt. Man wusste, dass Endotoxin von gram-negativen Bakterien erzeugt wird, d. h. eine Strukturkomponente dieser Bakterien ist und bei Patienten mit schweren gram-negativen Infektionen zu einer Schädigung der Basalganglien und damit einem Versagen der Motorik führt. Das lernt jeder Medizinstudent. Wir verstanden aber nicht wirklich, wie dieses Molekül funktioniert, und vor allem war bislang kein LPS-Rezeptor identifiziert worden. Um diesen Rezeptor zu finden, näherten wir uns dem Problem auf der genetischen Ebene, da man gemeinhin annahm, dass die C3H/HeJ-Maus einen Rezeptordefekt aufwies. Sämtliche durchgeführten Experimente untermauerten diese These. Nach 5 langen Jahren der Plackerei gelang uns die positionelle Klonierung des defekten Moleküls. Dabei stellten wir fest, dass es sich bei dem Rezeptor um den Toll-ähnlichen Rezeptor TLR 4 handelt. Zum damaligen Zeitpunkt waren in Homologie zum Toll-Protein der Fliege 4 Toll-ähnliche Rezeptoren bekannt. Das positionelle Klonieren war damals sehr schwierig. Zunächst erfolgte eine genetische, dann eine physikalische Kartierung; anschließend wurden die Gene in der entsprechenden Region identifiziert und in diesen Kandidatengenen nach einer Mutation gesucht. Nicht selten benötigte man für die Lösung eines solchen Problems 5 Jahre oder länger. Heute wissen wir aus kristallographischen Arbeiten – das hier stammt aus einem Paper von Jeung Lee aus dem Jahr 2009 – dass LPS bzw. Endotoxin de facto mit TLR 4 sowie einer kleinen, 1999 von Kensuke Miyake entdeckten Untereinheit namens MD2 in direktem Kontakt steht und exakt in eine Art Korb passt, der von diesen Molekülen gebildet wird. Die Folge ist eine Konformationsänderung, die wiederum zu all den Störungen führt, die bei einem endotoxischen Schock auftreten. Darüber hinaus wird eine Schutzreaktion ausgelöst, so dass Tiere, die LPS ausgesetzt sind, eine angeborene Resistenz gegen die sie befallenden Bakterien entwickeln. Man kann von Glück sagen, dass die phänotypische Anomalie der C3H/HeJ-Maus überhaupt entdeckt wurde; das war reiner Zufall. Natürliche Mutationen sind äußerst selten und für die Wissenschaft von großem Wert, werden für gewöhnlich aber nicht bemerkt. Vermutlich enthalten alle üblicherweise verwendeten Mausstämme viele solcher Mutationen, wir wissen nur einfach nicht, welche Raster wir für ihren Nachweis einsetzen könnten. Natürlich kann man eine solche Entdeckung planen, die Initiative ergreifen und Mutationen erzeugen anstatt einfach auf ihr Auftreten zu warten. Solche Mutationen lassen sich anhand phänotypischer Tests nachweisen; dabei untersuchen Sie ein Phänomen, das Sie interessiert, mit Hilfe eines Tests, der Sie interessiert. Genau darin geht es bei Forward Genetics: Man erzeugt nach dem Zufallsprinzip Mutationen, so dass ein Phänotyp entsteht, und sucht dann nach den Mutationen, die zu diesem Phänotyp führen. Der entscheidende Vorteil der Forward Genetics liegt darin, dass sie ergebnisoffen ist und daher oftmals große Überraschungen birgt. Sie hält echte Entdeckungen bereit und stößt einen häufig sogar auf neue Phänomene, derer man sich zuvor gar nicht bewusst war, indem sie nach dem Zufallsprinzip Ausnahmen von der Regel erzeugt. Wie ich bereits erwähnt habe, war dieser Weg bei Mäusen historisch gesehen jedoch langsam, kostspielig und äußerst schwierig. Wir haben diesen Ansatz in unserem Labor die letzten 13 Jahre verfolgt. Dabei verwendeten wir das chemische Mutagen Ethylnitrosoharnstoff (ENU), ein Alkylierungsmittel, und verabreichten es männlichen Mäusen; dort löste es in den erzeugten Spermien etwa 70 Codierungsänderungen pro Spermium aus. Zur Konzentrierung von Mutationen, die bei den G1-Nachkommen zu mehr als 100 Codierungsvarianten pro Genom führen, mutagenisierten wir für gewöhnlich, wie hier dargestellt, 2 separate männliche Mäuse. Wir wissen aus Erfahrung, dass bei Verwendung dieses Punktmutagens beinahe alle Phänotypen aus der veränderten Codierung entstehen. Die G1-Mäuse werden mit 6 schwarzen Weibchen gekreuzt, so dass eine große Anzahl von G2-Tieren entsteht und aus der G1-Generation schließlich insgesamt 50 G3-Tiere hervorgehen. Diese Enkel der G1-Mäuse werden bezüglich ihres Phänotyps gescreent; dabei kann der rezessive Phänotyp in dieser Generation nachgewiesen werden. Sämtliche Mäuse weisen Einzelmutationen auf, die zu einer Phänovarianz führen. All diese Einzelmutationen wurden untersucht und mehr oder weniger mühsam aufgeklärt. Sie sehen, dass sich diese Mutationen sowohl vom Aussehen als auch vom Verhalten her vom Wildtyp unterscheiden. Dennoch sind wir natürlich vor allem an den immunologischen Phänotypen interessiert. Hier sehen Sie die Immunphänotypen, die wir im Laufe der Jahre untersucht haben. Wir haben nach der Signalgebung Toll-ähnlicher Rezeptoren gesucht und zahlreiche Varianten gefunden, über die ich heute aber nicht referieren werde. Wir haben uns die adaptive Immunantwort angesehen und uns gefragt, welche Voraussetzungen für eine solche Antikörperreaktion überhaupt gegeben sein müssen. Welche Bedingungen müssen herrschen, damit eine Maus mit einer normalerweise harmlosen Infektion mit dem Mäuse-Zytomegalievirus zurechtkommt? Wir stellten fest, dass manche Mäuse für das Virus anfällig sind und sterben; wir befassten uns aber auch mit dem Problem der Darmhomöostase nach einer Epithelverletzung oder anders ausgedrückt mit der Resistenz gegen entzündliche Kolitis. Diesen Punkt schneide ich jetzt nur kurz an, Sie werden gleich mehr darüber erfahren. Bei diesem Test wird den Mäusen 10 Tage lang über das Trinkwasser 1,4%-iges Dextrannatriumsulfat verabreicht. Hierbei handelt es sich um ein Zellgift, das die Epithelzellen schädigt, was von normalen Mäusen jedoch gut vertragen wird, ohne dass es bei dieser Dosis zu einem Gewichtsverlust kommt. Manche Mäuse leiden jedoch nach Verabreichung von DDS an Durchfall und Gewichtsverlust und sterben. Die Frage, die uns hier interessiert, lautet: Wie lassen sich Verletzungen reparieren, Infektionen eindämmen und die normale Physiologie wiederherstellen? Bei der Beantwortung dieser Frage half uns immer mehr die Technik. Nachdem wir ENU einsetzten, waren die Dinge nicht mehr so schwierig wie zwischen 1993 und 1998, als wir am LPS-Genort arbeiteten. Im Jahr 2002 wurde die Entwurfssequenz des Mäusegenoms veröffentlicht, und es war nicht länger notwendig, nach dem Geninhalt einer bestimmten Region zu suchen oder überhaupt einen Zusammenhang herzustellen. Die hochauflösende Genkartierung war jedoch noch eine Weile lang notwendig. nachdem massiv-parallele Sequenzierungsplattformen zur Untersuchung ganzer Mausgenome entwickelt worden waren. Da dieses nur etwa 2% des gesamten Genominhalts der DNA ausmacht, war die Sequenzierung etwa 50 Mal schneller und 50 Mal kostengünstiger. Wir begannen zu diesem Zeitpunkt sämtliche G1-Mäuse zu sequenzieren, um alle Kandidatenmutationen im Voraus zu ermitteln. So verfahren wir bis zum heutigen Tag. Darüber hinaus konnten wir mit der Archivierung der Mutationen beginnen. Derzeit speichern wir insgesamt 146.000 Mutationen, die eine Veränderung der Codierung zur Folge haben. Sie liegen in etwa 90% aller protein-codierenden Gene der Maus vor und sind bei Bedarf jederzeit abrufbar. Diese Sammlung enthält 11.217 Mutationen, die mutmaßliche Nullallele erzeugen, d. h. vorzeitige Stoppkodone oder Fehler bei wichtigen Spleißnahtstellen (Splice Junctions). Da diese etwa 31% aller Gene betreffen, waren mehr als 30% der Gene sofort unbrauchbar. Die meisten Phänotypen entstehen durch Missense-Fehler, die weitaus häufiger vorkommen als die eben erwähnten Nullfehler. Es ist also sehr wahrscheinlich, dass wir mehr als die Hälfte aller Gene so mutiert haben, dass ein Zustand der Phänovarianz eingetreten ist. Ich möchte bei Ihnen jedoch nicht den Eindruck erwecken, dass wir in unseren Tests das halbe Genom abgedeckt haben; es stimmt nicht, dass alle Mutationen in die homozygote Form überführt oder phänotypisch untersucht wurden, sondern lediglich die von uns archivierten. Zu diesem Zeitpunkt konnten wir damit beginnen, die erzielte Sättigung zu messen – ein entscheidender Schritt. Früher mussten wir fast blind vorgehen; wir wussten nicht, welchen Schaden wir am Genom anrichten würden. Mit Hilfe computergestützter Verfahren, anhand derer sich die genaue Struktur der einzelnen Stammbäume bestimmen lässt, konnten wir berechnen, wie wahrscheinlich es ist, dass die einzelnen G1-Mutationen in zumindest einer Maus homozygot werden. Das Gleiche war für Nullallele möglich, wie die rosafarbene Kurve zeigt, oder für Allele, die wahrscheinlich Schäden verursachen, oder für eine Kombination daraus oder für alle Mutationen. Wenn wir bei der Frage bleiben, wie viele Nullallele wahrscheinlich in die homozygote Form übergegangen sind was einer Sättigung von 7% entspricht. Wir wussten jedoch bereits damals, dass dieser Schätzwert sicherlich zu hoch ist, da viele Nullallele im homozygoten Zustand letal sind. Dies gilt auch für zahlreiche nicht offenkundige Nullallele; sie lassen sich unter keinen Umständen in die homozygote Form überführen und man würde sie bei Wildtyp-Mäusen niemals beobachten. Die Kartierung stellte nach wie vor das Nadelöhr bei unserer Arbeit dar, und als wir damit begannen, in immer größerem Umfang Mutationen zu erzeugen und zu testen, erhielten wir zahlreiche Phänotypen. Umgekehrt musste es aber auch eine Art Lücke geben. Man sprach damals von der Phänotyp-Lücke, was bedeutete, dass nicht genug Phänotypen existierten. Schlussendlich hatten wir aber eher das Gefühl, dass es zu viele Phänoptypen gab und sie die Anzahl der Mutationen, die wir tatsächlich gefunden hatten – das waren Hunderte, aber wir gerieten trotzdem ins Hintertreffen – langsam überstiegen. Das Standardverfahren sah weiterhin so aus, dass wir eine homozygote Mutante mit einem Markerstamm auskreuzten und sie wieder zurückkreuzten. Anschließend phänotypisierten wir die F2-Tiere und genotypisierten sie an verschiedenen Markern im Genom, um die Mutation auf eine bestimmte Region einzugrenzen. Das wurde zum Nadelöhr des gesamten Prozesses. Weiterhin waren wir uns bewusst, dass wir die meisten Mutationen einfach ignorierten. Wir würden die kausative Mutation finden, doch wir verfügten einfach nicht über die Möglichkeiten, Gene soweit auszuschließen, wie wir es für notwendig erachteten. Wer in den letzten 10 Jahren mit positionellem Klonieren beschäftigt war, träumte eher von so etwas wie Google Glasses. Man hätte gerne eine Box mit Mäusen, so wie diese hier, die alle denselben Stammbaum haben. Hier ist der Mutanten-Phänotyp recht offensichtlich – es könnte sich aber auch um einen immunologischen Phänotyp handeln. In jedem Fall würde man gerne diese magische Datenbrille aufsetzen, um zu sehen, welche Mäuse eine Variante sind und welche nicht. Die Brille müsste natürlich noch sehr viel mehr können: Sie müsste uns automatisch und unmittelbar die Art der Mutation anzeigen. Im Falle einer Mutation in SOX10 müsste sie genau erkennen, welches Basenpaar vertauscht bzw. welche Aminosäure verändert ist, in welchem Motiv die Mutation lag und wie sich ggf. die Orthologie beim Menschen darstellt. Vielleicht könnte sie auch noch Strukturdaten liefern. So sah also die Herausforderung aus – wir stellten uns ihr und lösten das Problem schließlich. Ich werde Ihnen zeigen, wie die Sache genau funktioniert. Bei der Ermittlung eines Phänotyps in unserem Labor können wir seinen Ursprung innerhalb einer Stunde ermitteln oder den Phänotyp, ebenfalls innerhalb einer Stunde, als nicht-genetisch verwerfen. Letzteres geschieht nicht aus Frust, sondern weil der Computer uns dazu auffordert! Dies gilt für alle Phänotypen, seien sie sichtbar oder immunologisch, qualitativ, binomisch oder quantitativ. Der Aufwand hierfür hängt nicht von der Anzahl der beobachteten Phänotypen in einem Stammbaum ab; sehr häufig entstehen verschiedene Phänotypen aus einem Stammbaum. Unser neuer Ansatz erlaubt zudem im Vergleich zur Wahrscheinlichkeitsschätzung eine exakte Messung der Sättigung sowie den Ausschluss von Genen und ihre Einbindung in biologische Prozesse auf einem von Ihnen festgelegten Sicherheitsniveau. Wie gehen wir dabei vor? Zunächst einmal werden, wie bereits seit langem praktiziert, alle G1-Mäuse vor der Vermehrung sequenziert und ihr Sperma archiviert. Neu ist, dass zu diesem Zeitpunkt Ampliseq Panels nach dem Genotyp sämtlicher Nachkommen der G1-Tiere an allen Mutantenstellen geordnet werden. Wir können es uns nicht leisten, das Exom von 50 Mäusen eines Stammbaums zu sequenzieren, doch wir können an 70 bis 100 verschiedenen Mutantenstellen eine Genotypisierung vornehmen. Die männlichen G1-Tiere werden so gezüchtet, dass diese G3-Generation entsteht, und sämtliche G2- und G3-Mäuse werden mittels eines sogenannten Ion-Torrent-Sequenzierers genotypisiert. All dies geschieht, bevor die Mäuse auf die Tests verteilt werden. Nach Erhalt der phänotypischen Daten werden diese auf den Computer geladen, der mittels additiver, dominanter und rezessiver Verknüpfungsmodelle umgehend einen Verknüpfungsscore berechnet. Es ist also der Computer und nicht der Mensch, der bestimmt, ob eine auf eine bestimmte Mutation zurückführbare signifikante Phänovarianz vorliegt. Die Daten können von einer stets wachsenden Datenbank abgerufen werden und die Suche kann nach einer Reihe verschiedener Parameter erfolgen. Ich möchte Ihnen ein kurzes Beispiel hierfür geben. Wir hatten einen Stammbaum, der nach der G1-Ohrmarkennummer R0491 genannt wurde. In diesem Stammbaum waren manche Mäuse klein, manche normal groß. Die kleinen wurden “Teeny” getauft; 9 von ihnen waren von Mutationen betroffen, bei 39 war dies nicht der Fall. In diesem Stammbaum fanden sich 68 Kandidatenmutationen. Mit dem Ion-Torrent-Sequenzierer lassen sich alle Mäuse eines Stammbaums genotypisieren; auch in diesem Fall wurde er, wie zuvor beschrieben, vorab eingesetzt. Nach Auslesen der vom Sequenzierer ermittelten Daten finden sich im oberen Teil verschiedene Mäuse und Sie sehen die unterschiedlichen Mutationen entlang der y-Achse. Das ist nur ein Teil der Tabelle, und zwar die Anzahl der Mutationen mit Varianten- bzw. Referenz-Ursprung. Das hier sind die homozygoten Varianten bei einer bestimmten Mutation. Diese Maus besitzt an derselben Mutationsstelle ein homozygotes Referenz-Allel, diese hier ein heterozygotes. Die erweiterte Tabelle zeige ich Ihnen gleich. Nur damit Sie die Richtigkeit des Ursprungs nicht bezweifeln In einem solchen Stammbaum gibt es praktisch keine Mehrdeutigkeit. Der Computer sortiert die Daten anhand der hier dargestellten Farbcodierung. Oben sehen Sie sämtliche Mäuse im Stammbaum in dieser Ausrichtung. Wir haben alle Mutationen und Sie können alle drei Farben des Varianten-, Referenz- und heterozygoten Ursprungs erkennen. Es dauert mehr oder weniger nur einen Wimpernschlag, bis der Computer die 3 Kurven anzeigt. Hierbei handelt es sich um Manhattan-Diagramme. Für diejenigen von Ihnen, die damit nicht vertraut sind: Bei diesen Diagrammen ist der negative Logarithmus der Wahrscheinlichkeit einer Verknüpfung entlang dieser Achse dargestellt. Es handelt sich um eine logarithmische Verknüpfungsskala, ähnlich wie ein LOD-Score, wenngleich auch von der Definition etwas abweichend. Es wird schnell deutlich, dass wir im Falle eines additiven Modells den höchsten Score erzielen. Beim rezessiven Modell zeigt sich fast derselbe Peak und selbst bei einem dominanten Modell lässt sich ein Effekt nachweisen, der jedoch erheblich schwächer ist als beim rezessiven Modell. Es handelt sich also um einen additiven Phänotyp; die Mutation auf Chromosom 6, ein Gen namens Kbtbd2, scheint für den geringfügig veränderten Phänotyp dieser Mäuse verantwortlich zu sein. Dieses Gen, zu dem bislang noch keine Publikationen vorliegen, codiert eine Ubiquitinligase. Es ist nach wie vor nicht klar, warum genau das Gen für ein normales Wachstum der Maus notwendig ist; dass es notwendig ist, steht jedoch fest. Wir arbeiteten mit diesem neue System jedoch nur kurze Zeit. Ich zeige Ihnen gleich eine Statistik, die auf den Ergebnissen nur wenige Monate dauernder Tests beruht. Letzte Woche, als ich diesen Vortrag vorbereitet habe, enthielt unsere Sammlung 12.852 Allelvarianten in 8.112 Genen, die nach ihrer Erzeugung anhand eines phänotypischen Screenings bei 9.848 Mäusen aus 212 Stammbäumen getestet wurden. Unter den Allelvarianten befanden sich 1.007 mutmaßliche Nullallele in 950 Genen. Die Nullallele wurden in homozygoter Form einmal für 616, zweimal für 502 und dreimal für 421 dieser Gene getestet. Die dreimalige Untersuchung des Phänotyps für eine spezielle Mutation ist unserer Ansicht nach gut fundiert. Wir verfügen zwar über 40 Tests, doch nicht jede Maus wurde allen 40 Tests unterzogen. Im Schnitt wurden pro Maus 31 Phänotyp-Tests durchgeführt, in dieser Mauspopulation also insgesamt 311.701 Analysen. An den 8.112 Genen erfolgten insgesamt 256.754 einzelne Verknüpfungstests; daraus entstanden insgesamt 2.829.932 Datenprotokolle. Bei diesen Protokollen handelt sich im Wesentlichen um ein einzelnes Manhattan-Diagramm in einem Datensatz eines Stammbaums; es können jedoch auch verschiedene andere Modelle zur Anwendung kommen. All dies erfolgt natürlich mit Hilfe des Computers und muss mit einem Fragezeichen versehen werden. Wir haben eine Konsole entwickelt, die Sie hier sehen können, mit der wir Untersuchungen ohne spezielle Kriterien durchführen können. Wir können auch nach Gen, Raster oder Stammbaum suchen oder nach dem Phänotypnamen, den wir bei Auftreten eines bestimmten Phänotyps vergeben. Wir können nach Allel – Non-Sense, Miss-Sense, Make-Sense, kritischem oder nicht-kritischem Splicing – oder vorhergesagter Auswirkung einer Mutation suchen. Weiterhin können wir bestimmen, wie oft wir eine bestimmte Mutation im homozygoten bzw. heterozygoten Zustand sehen. Außerdem können wir den Cutoff-P-Wert für die Verknüpfung festlegen und auf diese Weise schwache Verknüpfungen ignorieren, und wir können uns für oder gegen die Anwendung einer Bonferroni-Korrektur entscheiden. Wir können uns auch mit den letalen Fällen beschäftigen oder als Voraussetzung festlegen, dass die Rohdaten und normalisierten Daten der Tests übereinstimmen, um uns die fragliche Mutation anzusehen. Werfen wir einen Blick auf den DSS-Tests und schauen wir, wie er ausgefallen ist. Zwar wurden nicht all diese Mäuse mit DSS gescreent, jedoch ein Teil davon (an Tag 7 und Tag 10). Wir können sie also eingeben. Wir sehen hier 3 Mäuse, die bezüglich der Variantenallele homozygot sind. Wir legen einen sehr stringenten Cutoff-P-Wert von 0,002 mit einer Bonferroni-Korrektur fest und lassen alles andere außer Betracht. Wir zeigen auch nur Ergebnisse an, wenn wir sowohl Rohdaten als auch normalisierte Daten sehen. Dann gehen wir auf “Ausführen”. Das sind die Daten, die wir erhalten. Wir haben eine Liste nach G1-Zahl geordneter Stammbäume, und innerhalb der Stammbäume Gene mit positivem Score. Wir wissen, dass insgesamt 14 Gene betroffen sind; sie wurden in viele verschiedene Tests einbezogen, daher tauchen sie immer wieder auf. Das ist nur eine Seite des Displays. Die Gene treten in Form 15 verschiedener Allele auf und stammen aus 7 Stammbäumen mit insgesamt 168 Mäusen. Wenn Sie die Liste von oben nach unten durchgehen, erkennen Sie, welche Gene betroffen sind. Eines davon ist Hr, das steht für 'haarlos'. Ein weiteres Gen ist Htr2a; hier besteht eine enge Verknüpfung. Weiter unten in der Liste finden sich eventuell noch weitere. Man erkennt den Verknüpfungsscore in den additiven, rezessiven und dominanten Modellen. Wenn man bei Durchsicht der Liste einen besonders starken Score findet und ihn anklickt, erscheint sofort ein Manhattan-Diagramm und die Verknüpfung wird sichtbar. Es handelt sich um 2 eng verknüpfte Gene, die entsprechend diesem Kriterium als Kandidaten für die Erzeugung des Phänotyps in Frage kommen. Klickt man eines der beiden Gene mit der linken Maustaste an, erkennt man sofort, um welche Art Mutation es sich handelt; der Computer hat dies bereits berechnet. Es erscheinen darüber hinaus viele weitere Informationen über das Gen, seine Domänenstruktur, den Ort der Mutation und ihren Score in der PolyPhen-Schadensbewertung. Klickt man mit der linken Maustaste auf diese Mutationsstelle, erscheinen sofort die in die Bewertung eingegangenen Rohdaten, und man stellt fest, dass sich homozygote Varianten dieser speziellen Mutation bei der Phänotyp-Bewertung an diesem Genort anders verhalten, d. h. mehr Gewicht verlieren als heterozygote Varianten oder Wildtypen. Hier sehen Sie parallel die Kontrollmäuse vom Wildtyp. Es handelt sich also um eine sehr deutliche Mutation; dies bestätigte sich bei der Untersuchung verschiedener Allele: das Haarlos-Gen bewirkt eine Empfindlichkeit für Dextrannatriumsulfat. Es erfolgten 7 Verknüpfungstests; hier sehen Sie die anderen. Bei Largo handelt es sich um eine Mutation in Degs2, einem Enzym zur Erzeugung von Phytoceramid, das möglicherweise eine immunologische Wirkung im Darm ausübt. Bei Myo1d handelt es sich um ein unkonventionelles Myosin, das sich in 2 unterschiedlichen Stammbäumen findet und dort Horton bzw. Whisper getauft wurde. Gilberto ist eine Mutation in dem für die Glucocorticoidsynthese benötigten Enzym Hsd11b2. Nlrp4d ist am Snoop-Phänotyp beteiligt und bei Stromberg handelt es sich ein typisches Beispiel für eine verstärkte Resistenz; sie wurden ebenfalls vom Computer „entdeckt“. Hier sehen Sie den jeweiligen Score; die Daten wurden später bestätigt. Die Frage ist, welchen Schaden haben wir am Genom angerichtet? Wir wissen – keine Stringenz anwendend –, dass es bei 1.447 G3-Mäusen, die wir dem Test unterzogen haben, bei 3.037 getesteten Genen genau 3.628 Mutantenallele gibt. Bei 79 Genen fanden sich 79 mutmaßliche Nullallele. Wendet man bezüglich des entstehenden Schadens etwas weniger Stringenz an, könnte man sagen, dass bei 558 Genen 581 mutmaßliche Null- bzw. schädigende Allele vorlagen. Wir wissen, dass die Aussage, das Auftreten der Nullallele sei der einzige entstandene Schaden, zu stringent, mutmaßlich null oder mutmaßlich schädigend wiederum als Kriterium nicht ausreichend stringent ist. Das wahre Ausmaß der Schädigung liegt irgendwo dazwischen. Ich würde also sagen, dass 0,35% bis 2,45% aller Gene im Genom dieser kleinen Probe beschädigt sind. Wir fanden 5 Gene mit einem Score bei der DSS-Empfindlichkeit, was bedeuten könnte, dass es insgesamt bei diesem Test 200 bis 1.400 Zielgene gibt. Natürlich besteht hier ein gewisser Fehlerspielraum, testet man jedoch ein paar tausend Mäuse mehr, wird dieser erheblich kleiner. Wie Ihnen vielleicht aufgefallen ist, weisen 4 der 7 Stammbäume mehr als ein Kandidatengen in den Verknüpfungspeaks auf. Diese Mehrdeutigkeiten müssen allesamt anhand multipler Allele gelöst werden. Wir planen daher unter anderem, mit Hilfe des CRISPR/Cas9-Systems Knockout-Kandidatengene zu erzeugen. Aktuell wird in unserem Labor täglich etwa ein solches Gen hergestellt; wir sind also an der Sache dran. Wir finden jedoch immer mehr multiple Allele. Wie ich Ihnen gezeigt habe, kennen wir bereits 2 Myo1d-Allele, und mit fortschreitender Mutagenisierung werden es immer mehr. Wir erzielen einen Treffer nach dem anderen; sie werden von dem Programm automatisch zu sogenannten Superstammbäumen kombiniert, in denen man auch die schwächsten phänotypischen Auswirkungen erkennt, da wir immer mehr Mäuse testen. Mit der Zeit werden in den Tests die meisten Gene wiederholt geschädigt und müssen daher eine immer stärkere Verknüpfung entwickeln, wenn die Mutationen in den Superstammbäumen tatsächlich eine phänotypische Auswirkung haben. Ich sehe gerade, dass die Zeit knapp wird. Ich möchte nur noch anmerken, dass bereits bei dieser sehr begrenzten Mauspopulation die mit Hilfe unseres früheren Blut/Darm-Ansatzes entdeckten Mutationen in verschiedene Kategorien fallen: Differenzierung und Entwicklung, Vesikeltransport, Immunsensorik und -signalgebung, Reaktion nicht gefalteter Proteine, Wasser- und Elektrolythomöostase und all die anderen, die Sie hier sehen. Es handelt sich also um ein sehr breites Raster, das viele verschiedene Aspekte der Zellbiologie einbezieht und so verhindert, dass Sie im Falle einer derartigen Epithelschädigung eine Colitis entwickeln. Ich möchte nun schließen, da die Zeit fast abgelaufen ist. Ich danke meinem Postdoc Emre Turer für die Durchführung dieses Tests in unserem Labor. Auch die Mitglieder unseres Bio-Inframedics-Teams waren für die Entwicklung des Programms von großer Bedeutung; das von ihnen entworfene Tool ist eine Art neuartiges Mikroskop. Für mich ist das wie ein kleines Wunder: Morgens sieht man einen Phänotyp und eine Stunde später kennt man seinen molekularen Ursprung. Vielen Dank.


Infectious microbes collectively represent the strongest selective pressure operating on our species, and over hundreds of millions of years, drove the evolution of the sophisticated immune system we have today. While the general outlines of immune sensing, signaling, and effector function have been learned, we are far from achieving a comprehensive mechanistic understanding of immunity. We have limited ability to predict who will respond to a vaccine, for example, or who will develop autoimmunity. The total number of genes important for immunity and their identity remains unknown. Among those genes that are known, only rather sketchy inferences about function may be drawn in most instances. The initial goal of cataloguing all genes needed for robust immune function has advanced recently, as new technologies permit almost instantaneous identification of mutations that cause phenotype. It has thus become possible to randomly alter the genome of mice using a point mutagen, breed them to bring mutations to homozygosity, and screen them to identify impairment of immune function. As soon as data on function are developed, it is usually possible to declare the cause of any observed phenovariance. At present, it is possible to survey the effects of approximately 50,000 mutations that affect coding sense each year. Mutations affecting the antibody response, innate immune responses, and maintenance of immunological homeostasis are detected regularly, and many are “new,” affecting genes not previously known to participate in the immune response.