Peter Diamond

Search and Macro

Category: Lectures

Date: 24 August 2011

Duration: 31 min

Quality: MD SD

Subtitles: EN DE

Peter Diamond (2011) - Search and Macro

At any time, a modern economy has both unemployed workers and posted vacancies. Thinking about this fact in a static setting might lead one to think there is a serious mismatch between the workers and the jobs, in skills or in location, for example

Thank you, Martin, and I’m happy to say he wrote an outstanding thesis, and I had very little to do with it. When I was a young economist, and you’ve gotten some sense of how long ago that was from what Martin said, I thought that methodology was something old people did when they had nothing better to do. Now that it’s age appropriate, I want to stress to you the importance of methodology. The particular point I want to pick out is, when I was young, I would look at a model and think, is it a good model, is it a bad model? And I now think that’s the wrong way to frame the question, because the same model can be good for one purpose and bad for other purposes. The real question you should ask is: For this question, is this a model that adds to the insight of what we need to address that question, particularly important obviously for policy questions, where you’re going from, to my mind, if you’re doing it right, a number of different theory and empirical models, to drawing together a basis for policy inferences. And you do that because the economy is complex, the political process is complex. The essence of a model in order to be tractable is it’s not reality, it’s a simplification of reality, it gets things wrong. If it’s not getting things wrong, it’s not a model. And the issue is, the things that it’s getting wrong, are those important or unimportant for the particular question you’re asking? I say that because I will talk a little bit about the place where the search equilibrium labour market models are more useful in places where there are missing elements that really matter. So the outline is, first of all, to say a little bit about labour market flows, to give the context for the model, to then switch to the beverage curve which focuses on unemployment and vacancies over a business cycle, and then to talk about issues in macroeconomics generally. So one model that we’re all familiar with is the standard market model. Demand, supply, where price clears the market. The trouble with thinking about the labour market or the housing market from that framework is that the markets don’t clear in quite the same sense that the standard model has. So at any point in time, in any small area, you have unemployed workers, you have vacancies. Does that mean the market doesn’t clear? Well, in the market context, not clearing you would say the wage is wrong, the wage is too high or the wage is too low. There isn’t, within the context of that model, a different way of talking about what is going on. So just to bring out the magnitudes here, this is data from the US economy. Monthly worker flows, UE is the flow of workers from unemployment to employment, and as you see, based over a two decade period, a very large fraction of measured unemployed workers have jobs a month later. Interestingly, an almost as large fraction of unemployed workers are out of the labour force, I for Inactive a month later, given the official definition of what it means to be unemployed, which means actively doing something to find a job, not just wishing you had a job. And there’s quite a sizeable flow directly from out of the labour market, directly into employment, without a measured period of unemployment in between. I emphasise that because you’re interviewing people a month apart. It may be somebody started looking for a job, was not interviewed during that period and then found a job. On the other hand, there’s a good deal of direct flows that don’t go through looking for a job. Rather an opportunity finds you and you say because somebody has just made me an offer I can’t refuse’. And similarly there are large flows directly from employment to unemployment and out of the labour force. And one has to think about all of this in order to think about particularly the role of unemployment insurance, and in doing that, the supply demand price clears the market model, doesn’t really capture it. One can fit some unemployment into the model and of course the Lucas-Prescott model is very famous for that, but all the unemployment there was movement between different local markets, where the wage cleared the market. So there were never people applying for jobs and not getting them. There were people deciding the opportunities were better elsewhere, and that model also had the property that analogous to the Walrasian auctioneer, there was somebody directing the flows to the right places between markets. So that model, I think, really expanded some of our understanding of fitting some frictions into the Arrow-Debreu setting, but it doesn’t come to grips with the kind of issues there. The US has very high labour flows, much higher than any of the other economies, as really shown by this picture contrasting this. The first slide was really a three-state model, employed, unemployed, inactive. This second slide here is only two with inflows and outflows to unemployment, without breaking it down more heavily, the US is clearly an outlier. In the US we have some wonderful data referred to by its acronym, the JOLTS data, which is looking at flows from the perspective of the employers, interviewing the employers, rather than interviewing the workers. So you interview an employer and you say: And then you come back, and in this case a quarter later, and you say: And what happens when you do that is that if it’s gone up, natural to call it ‘job creation’. And as you see again, over the two decades for which this data has existed, there’s a large percentage of job creation from one quarter to the next. If instead, what has happened is the number of employed workers has gone down, natural to call that ‘job destruction’. And as you can see, there is almost as large a rate of job destruction as there is of job creation. So the change in total employment is the small difference between two large numbers. And if we want to think about various policies or want to think about various positive issues, then it seems to me you’ve got to focus on the determinants of these big numbers and how they interact to produce the small number, which is the difference between them. Secondly you can ask the question, how much hiring do you do? Hiring comes in two forms, one is job creation. The other is a worker leaves, maybe voluntarily, maybe looking for a better opportunity, maybe for other reasons, and you replace that worker with another worker. Maybe you dismissed the worker and you’ve replaced it. So a hire is just on a name basis, who do you have now that you didn’t have a quarter before? And as you can see, the hire rate is roughly twice the job creation rate, which gives you another sense of the large amount of flows going on in the economy. And separations is asking the same question. Who was here before, who isn’t here now? And again you see the separation rate and the hire rate are two very large numbers and the change in employment is the small difference between them. And as you can see, the big sources of separations are lay-offs and quits, on average they’re about the same size. In the course of the business cycle, there are dramatic differences between them, with lay offs spiking up early in a recession, and quits dropping as workers who quit either for a better job or in anticipation of finding a better job, recognise that the labour market is going soft, and those opportunities won’t be there. The sum of the two may not change a whole lot, but that doesn’t mean the underlying story isn’t telling us something important. Obviously when lay offs are way up and quits are way down, we’ve got a problem on the value. Two firms of hiring work, of having workers, and also we have a change in the perception, which is mostly accurate, of workers for their opportunities, should they seek additional employment. So the basic partial equilibrium model of the labour market, that is the heart of what this year’s or, I guess I can say this year’s until October, this year’s Nobel Prize was about, was really paying attention to the models that lead us to think about these flows. To think about the process of bringing together workers and jobs and the technical fix that has made modelling work is the matching function. The matching function thought about for the economy as a whole, says the change, the amount of hiring happening is a function of the number of unemployed workers and the number of vacancies. Vacancies again measured by, it used to be measured by looking at help wanted ads, before we had a survey, and now we have a survey that asks firms ‘Do you have a vacancy?’. And so we can fit an aggregate matching function. It fits pretty well. It fits ballpark as well as the aggregate production function and plays the same kind of role. The function, as far as we can tell, as constant returns to scale, and as work that Chris Pissarides has done with co-authors summarising and a lot of other estimates as well, Cobb Douglas fits fairly well. This doesn’t need to be something complex for thinking about the economy as a whole. And let me stress that, it’s for thinking about the economy as a whole, because if you have a question for which the answer involves looking more closely by industry or by aspects of firms, then the aggregate matching function may not be terribly informative. So one of the items that has gotten a lot of attention is that the matching function has deteriorated, and this particularly came up in the context here of the beverage curve. The beverage curve gives the vacancy rate relative to the unemployment rate and given the constant returns to scale we can work in these rates. And what you would expect if the value of workers to firms deteriorates over time, we would see a decline in vacancies arise in unemployment, and that’s the typical pattern. And what happened in the US economy is vacancy rates started coming back without much change in unemployment. And that led a number of people to say we have a serious structural problem in the US economy. And a structural problem is something that aggregate demand stimulation, whether monetary or fiscal, does not do well at, and therefore we should be very cautious about stimulating. Inflation is obviously a major concern of central banks, and the mix between how much are we addressing inadequate aggregate demand unemployment and how much are we addressing what might be a structural problem, is a critical part of setting monetary policy. Without studying the labour market, you cannot sensibly pursue monetary policy, particularly in the context of the US, where the official mandate of the Fed is to pay attention both to employment and inflation, and frankly, it strikes me as shocking that the mandates of so many central banks are only about inflation. And a relief that most of them view their role no different than in the US, the Fed views its role that the extent of concern goes beyond inflation, and that’s appropriate because to begin with, we don’t have a well settled optimal rate of inflation. Two percent or a bit under two percent is the typical target, where did that come from? Well, zero seems like a bad idea. Big numbers we know are a bad idea, so let’s pick a nice round small number, but is two better than three? I don’t think we have any idea of that. Olivier Blanchard has raised the idea that four might be better, not for the microeconomics of the steady state or normal times, let us say, for which inflation helps with things, but for dealing with financial crisis because they will give central banks more room, less likelihood of hitting the zero bound on interest rates. The timing of that suggestion may not have been optimal, but it seems to me absolutely right that there is nothing that says two percent is the right answer and nothing that says, a central bank that sometimes says two percent and sometimes says for the next few years we would be comfortable with three percent, nothing wrong with that. It might be a good response to circumstances, as long as credibility is preserved that that two or that three doesn’t become double digits, or doesn’t even become eight or nine, much less hyperinflation, in terms of the role of the central bank in having inflation, not create problems for the economy. Of course, in some circumstances, having inflation may help with things like debt overhang, but how much inflation, I think, is again an area where we don’t have a good answer. So I think we want to think about this process, as the central bank is addressing the economy. The economy keeping a steady inflation rate is an important part of planning, looking ahead, writing contracts etc, and the state of the labour market is important for two reasons. One the normative reason, a lot of unemployment is bad, bad for the workers, bad for the economy, bad for the workers’ families, bad for the future, particularly with long term unemployed of the labour market later on, as workers maybe losing skills, losing connections, etc. So there’s a need for central banks to pay attention for the normative reason, and on the positive side, estimating what will happen with more stimulus, depends again on the details of the labour market. So what’s happened in the US? In this picture is various people, including to my mind, particularly appallingly of the distinguished economist who is the President of the Minneapolis Federal Reserve Bank, suggesting that the structural problem was so large that central bank stimulus policies were misguided. There have been a number of studies trying to separate out the excess of US unemployment today, compared to what it was like before the crisis, between inadequate aggregate demand compared to before, and an increase in structural issues. Keep in mind there are always structural issues. There are always new needs by firms for skills of workers that some workers have, some workers don’t have. And the ability to hire workers who fit in well, who don’t need more training, that varies over the business cycle. Obviously firms are eager for workers that they feel better about and have to train less. At MIT, when we hire an assistant professor, we’re very pleased with the ones we hire, but that doesn’t stop us from wishing they were the young Paul Samuelson. The issue here, from the perspective of thinking about monetary policy is what has changed. And I’ve looked through a lot of these studies, and none of them have an adequate basis of really pinning down a number. The ones I’ve looked at most closely seem to me to give structural elements a larger role than the – seems appropriate based on the theoretical perspective. So in so far, as you’re looking at what unemployment insurance does to workers’ willingness to take jobs by reading off historic data on the connection between job finding hazards in unemployment, it’s ignoring the fact of the matching function at a time when you have a lot of unemployment. Just going off that is basically saying employment equals labour supply in the current climate with high unemployment, that’s not going to give you a good estimate. An interesting recent estimate by Barlevy focused on the aggregate matching function. In both cases they turn up that the majority of our excess unemployment is inadequate aggregate demand, and I’m suggesting it’s even too high and part of the issue is if you think about this aggregating, the aggregate matching function, which is a very handy tool for theorists, and a good starting place for empirical work, you’ll recognise as the work of Davis and Haltiwanger and a series of co-authors have been identifying that the matching process is very different in different sectors, in different size firms, in rapidly growing firms who are maybe doing multiple hiring, and slow growing firms that are doing less hiring. And so part of what has happened in the US, part of what is behind that picture there, is that construction is a place where jobs are filled very quickly. Employment has collapsed enormously from the overbuilding stage, both residential and commercial construction. And it’s because of the overhang of excessive building, it’s not coming back quickly, so that in part will be a sustained structural problem, because the level of employment there won’t go back to its previous level, and there is the frictional element of moving people elsewhere. In contrast, the sectors in the US that have done particularly well, education and health, are dominated by large firms and hire very slowly. As I’m sure you’re all aware, the assistant professor market in the US starts with posting a vacancy a year ahead of when anyone will actually get to work. So when you’re collecting vacancy statistics, do you have a vacancy, a great fraction of hiring happens without a measured vacancy, without a measured vacancy. Again as my previous example talking of the work in part, a lot of that is a posted vacancy, it’s filled, that’s happened between interviews, you know you’ve got an extra worker. You missed the measurement of the vacancy, so it looks like it’s happening very efficiently and it is, but the point is when you disaggregate, you have to say, from a perspective of what’s going on here, how much of this is due to the fact that the sectoral mix has changed, that the employer’s size has changed, small businesses doing particularly badly, because small banks are doing badly and they’re not lending as much, because a lot of small business depends on own wealth and a lot of that has been in housing and is now gone, and small business hires, fills vacancies much more quickly than large business does, where there’ll be a group who monitors the whole hiring process and goes through a series of steps. So there’s a whole set of issues, before you draw inferences about macro that you really want to do two things, make sure you’re not using a partial equilibrium model for a general equilibrium question. And secondly, working at the right level of disaggregation to inform the question you’re interested in. So let me just say a little bit here about macro and the problems of getting same kind of dynamics that I think, and I guess the Price committee thinks as well, we have made a lot of progress in, in terms of the labour market. There is a big literature on the housing market, I think that’s a harder problem because of the much larger role of finance in house purchases. So there is an informative interesting literature there as well, and thinking about the economy as a whole. So what’s been happening lately is the search labour market model is being embedded in a model that otherwise has a standard market clearing output market, and often one, where there is no particular role for short term finances. So if you have an infinite horizon budget constraint for a representative agent, then you’re missing all of one of the pieces Keynes talked about, which is the importance of current income for current spending, and indeed, disaggregated studies show there are a lot of people who are liquidity constrained, there is a lot of empirical link between income and spending on the part of a large fraction, but certainly by no means all of the consumers in the economy. What do we mean, so the two pillars of the kind of Keynes’ analysis I was taught as a student are sticky wages and prices, and the important role of income and so employment feeding back into aggregate demand. So if you’re thinking about unemployment insurance, and you have no role for unemployment insurance as a built in stabiliser, you’re leaving out a major part of the story. You can provide good insight into part of the story, but it would be wrong to draw policy inferences from just that part, without paying attention to the other parts. So sticky wages and prices, there is an ongoing effort to move away from assuming that all of the negotiations are successful, that recognise, particularly if you have multiple employees, that there are issues on how you’re paying new hires, relative to how you pay current workers, and issues about how you want to pay current workers. So there is a sticky wage problem there. Sticky prices looks like it’s not the same thing, but there is a related issue which is that firms have financial constraints, they’re going to do their pricing, if they could cut the prices enough to sell a lot more but not be able to pay off their debts or their workers, it’s not going to help. So there is the issue here of the dynamic process, in the output market which I’m not aware that we have, we have good pricing. I think we need to have income and demand come into it. We need to recognise that markets are incomplete, that many people don’t have a complex conditional plan on circumstances going forward, but looks good today and we’ll figure out tomorrow tomorrow. That’s missing by and large in all models, and so bankruptcy has played very little role in general equilibrium analyses, and yet it’s obviously an important part, particularly when you move to the macro dimension. If markets were incomplete and people were never allowed to have a positive probability of bankruptcy, we would have a disastrously bad economy. Allowing people to go bankrupt opens up, as it were, a richer set of assets. We could have pairwise negotiation that worked out all those alternatives without bankruptcy law, but first of all that would be expense on an individual each contract basis trying to figure it out, and secondly we have the dynamic problem that even small businesses are owing money to lots of different people, the people they borrow from, their suppliers, their workers etc. So we need some process for dealing with the interactions that come from the fact that, unlike the Arrow-Debreu model, trading plans are made sequentially with uncertainty about what opportunities you’ll have in the future. And so expectation formation and the magic word ‘confidence’ has a reduced form for expectation formation, plays an important role. If we’re going to build on search to get a better handle on macro, and I’d like to think that would be a good way, one of several, to be trying to get a better handle on macro, then I think we need to move beyond the partial equilibrium and do much more general equilibrium thinking, which is going to be inherently more difficult because of the additional complexities. But the advantage of being young is you look at things that people have been staring at for years and have run out of ideas on, and you have new ideas. And apart from the pay I’d love to be a young economist again, and I wish you well in helping our profession and our economies go forward. Thank you.

Vielen Dank, Martin. Er hat übrigens eine hervorragende Dissertation geschrieben - ich hatte so gut wie keine Arbeit damit. Als ich noch ein junger Wirtschaftswissenschaftler war – und nach Martins Vortrag können Sie sich ausmalen, wie lange das schon her ist – damals jedenfalls dachte ich, mit Methodik beschäftigen sich nur alte Leute, die nichts Besseres zu tun haben. Heute nun, wo es meinem Alter angemessen ist, möchte ich betonen, wie bedeutsam Methodik ist. Ein spezieller Punkt ist mir besonders wichtig: In meinen jungen Jahren habe ich Modelle angeschaut und mich jeweils gefragt, ob dies ein gutes oder ein schlechtes Modell ist. Heute denke ich dagegen, dass die Frage in dieser Form gar nicht sinnvoll ist, weil ein bestimmtes Modell für den einen Zweck gut und für einen anderen Zweck schlecht geeignet sein kann. Die Frage muss daher eher lauten: Trägt dieses Modell bei dieser speziellen Problemstellung etwas zum notwendigen Verständnis bei, um das Problem lösen zu können? Besonders wichtig ist dies bei politischen Fragestellungen, wo Sie – wenn Sie es richtig machen wollen – von mehreren verschiedenen theoretischen und empirischen Modellen ausgehen und daraus ein Konzept ableiten, aus dem dann politische Schlussfolgerungen zu ziehen sind. Das macht man so, weil das Wirtschaftsleben und politische Prozesse sehr komplex sind. Das Wesentliche für die praktische Eignung eines Modells ist, dass es nicht die Realität eins zu eins abbildet, sondern eine Vereinfachung der Realität darstellt. Aus diesem Grund enthält ein Modell immer Fehler. Wenn es keine Fehler enthält, ist es kein Modell. Entscheidend ist nur, ob diese Fehler im Hinblick auf die untersuchte Fragestellung bedeutend oder unbedeutend sind. Ich erwähne dies, weil ich näher darauf eingehen möchte, unter welchen Bedingungen Suchgleichgewichtsmodelle für Arbeitsmärkte geeignet sind, und in welchen Fällen ihnen dagegen entscheidende Elemente fehlen. Mein Vortrag gliedert sich wie folgt: zunächst spreche ich ein wenig über Arbeitskräftefluktuation, um den relevanten Modellkontext zu beschreiben, und anschließend gehe ich über zur Beveridge-Kurve, die den Verlauf von Arbeitslosigkeit und freien Stellen über den Konjunkturzyklus darstellt, bevor ich abschließend noch auf ein paar allgemeine Makro-Aspekte eingehe. Ein Modell, das wir alle kennen, ist das Standard-Marktmodell: Angebot und Nachfrage, und der Gleichgewichtspreis räumt den Markt. Wenn man auf dieser Grundlage nun aber den Arbeitsmarkt oder den Wohnungsmarkt betrachtet, ergibt sich das Problem, dass diese Märkte nicht auf dieselbe Weise geräumt werden wie beim Standardmodell. Zu jedem Zeitpunkt und in jeder noch so kleinen Region gibt es immer Arbeitslose und freie Stellen. Heißt das, dass der Markt nicht geräumt wird? Bei einer Interpretation nach dem Standard-Marktmodell würde das bedeuten, dass das Gehalt nicht stimmt, d.h. entweder zu hoch oder zu niedrig ist. Das Standardmodell enthält keine andere Betrachtungsmöglichkeit für das Marktgeschehen. Um die Größenordnungen einmal zu verdeutlichen, habe ich hier einige Wirtschaftsdaten aus den USA. Dies sind monatliche Arbeitskräftefluktuationen, „UE“ steht für die Fluktuation aus der Arbeitslosigkeit in eine Beschäftigung. Wie Sie sehen, hat über einen 20-jährigen Zeitraum betrachtet ein sehr großer Anteil der registrierten Arbeitslosen im darauffolgenden Monat schon wieder eine Beschäftigung. Und interessanterweise ist ein fast genauso großer Anteil der Arbeitslosen im darauffolgenden Monat aus dem Erwerbsleben ausgeschieden, „I“ steht für „Inaktiv“. Diese Angaben basieren auf der offiziellen Definition von Arbeitslosigkeit, d.h. aktiv auf Arbeitssuche zu sein und nicht nur den Wunsch auf eine Beschäftigung zu haben. Daneben gibt es hier auch eine beachtliche Fluktuation aus der Nicht-Erwerbstätigkeit direkt in eine Beschäftigung ohne eine vorherige Registrierung als arbeitslos. Ich betone das, weil die Befragungen im Abstand von einem Monat stattfinden. Es ist auch möglich, dass jemand mit der Stellensuche beginnt und sofort eine Beschäftigung findet, noch bevor er bzw. sie das nächste Mal befragt wird. Andererseits gibt es auch eine direkte Fluktuation in die Beschäftigung ohne vorherige Arbeitssuche, wenn man sozusagen von einer Beschäftigungs-möglichkeit überrascht wird und sich sagt: Gut, dann hänge ich jetzt nicht mehr länger auf den Parkbänken am Bodensee herum und gehe stattdessen arbeiten, dieses Stellenangebot kann ich mir nicht entgehen lassen. Und gleichzeitig gibt es auch eine beträchtliche Fluktuation direkt aus der Beschäftigung in die Arbeitslosigkeit und in die Nicht-Erwerbstätigkeit. Dies alles muss man berücksichtigen, vor allem wenn man die Bedeutung einer Arbeitslosenversicherung untersuchen will. In diesem Fall liefert das Marktmodell „Angebot – Nachfrage – Markträumung über den Preis“ kein geeignetes Abbild der Realität. Man kann zwar ein gewisses Maß an Arbeitslosigkeit in das Modell einbauen – dafür ist vor allem das Lucas-Prescott-Modell bekannt. Hier gab es bei Arbeitslosigkeit Fluktuationen zwischen verschiedenen lokalen Märkten, bei denen immer das Gehalt zur Markträumung führte. Es berücksichtigte nicht die Möglichkeit, dass sich Arbeitskräfte auf Stellen bewarben und sie nicht bekamen, sondern es war immer ihr Entschluss, dass es anderswo bessere Beschäftigungsmöglichkeiten gäbe. Eine weitere Eigenschaft des Modells war noch, dass es analog zum walrasianischen Auktionator jemanden gab, der die Fluktuationen zwischen den Märkten an die richtigen Stellen dirigierte. Durch dieses Modell haben wir meines Erachtens besser verstanden, dass das Arrow-Debreu-Modell um gewisse Reibungen erweitert werden muss, aber es bekommt diese Probleme nicht in den Griff. In den USA ist die Arbeitskräftefluktuation sehr hoch, viel höher als in irgendeiner anderen Volkswirtschaft, wie in dieser Abbildung zu sehen ist. Auf der ersten Folie hatten wir ein Modell mit drei Zuständen – beschäftigt, arbeitslos, inaktiv. Diese zweite Folie dagegen zeigt nur zwei Zustände, Zu- und Abgänge in die Arbeitslosigkeit, ohne sie weiter zu differenzieren. Die USA sind hier ein klarer Ausreißer. Wir haben in den USA wunderbare Daten, die sogenannten JOLTS-Daten, die diese Fluktuationen aus Arbeitgeberperspektive darstellen, d.h. hier werden anstelle der Arbeitskräfte die Arbeitgeber befragt. Man fragt sie: Und nach einem Quartal geht man erneut hin und fragt wieder: Wenn die angegebene Zahl steigt, nennt man das „Schaffung von Arbeitsplätzen“. Und Sie sehen, dass während der gesamten 20 Jahre, seit denen es diese Daten gibt, in jedem Quartal ein ganz schöner Prozentsatz an neuen Stellen geschaffen wurde. Wenn dagegen die Anzahl der besetzten Stellen sinkt, wird dies „Abbau von Arbeitsplätzen“ genannt. Und wie Sie hier sehen, ist die Rate des Stellenabbaus fast genauso hoch wie die der Stellenschaffung. Die Änderungsrate der Gesamtbeschäftigung ist somit die kleine Differenz zwischen den beiden hohen Einzelbeträgen. Wenn wir nun verschiedene politische Ansätze oder bestimmte positive Themen betrachten wollen, muss man meines Erachtens die Bestimmungsfaktoren dieser beiden hohen Zahlen verstehen und wie sie zusammenwirken, damit der kleine Differenzbetrag zwischen ihnen zustande kommt. Eine andere Möglichkeit besteht darin, die Arbeitgeber zu fragen: eine zur Stellenschaffung und die andere zur Ersetzung ausscheidender Arbeitskräfte, die vielleicht freiwillig, auf der Suche nach einer besseren Möglichkeit, oder aus anderen Gründen das Unternehmen verlassen. Oder ein Arbeitnehmer wird entlassen und durch einen neuen ersetzt. Die Neueinstellungen werden sozusagen auf Namensbasis erfasst, d.h. wer ist heute im Unternehmen, der bzw. die vor einem Quartal noch nicht da war. Sie erkennen hier, dass die Neueinstellungen etwa doppelt so hoch wie die Stellenschaffungen sind. Dadurch erhält man ein Gespür dafür, wie hoch die Arbeitskräftefluktuationen in einer Volkswirtschaft sind. Für das Ausscheiden von Arbeitnehmern wird dieselbe Frage gestellt: Wer war vor einem Quartal noch da und ist heute nicht mehr im Unternehmen? Hier ist es wieder genauso wie oben: Neueinstellungen und Ausscheidende Arbeitskräfte sind zwei sehr hohe Einzelzahlen, und der kleine Differenzbetrag zwischen beiden entspricht der Beschäftigungsveränderung. Die Hauptursache für das Ausscheiden von Arbeitskräften sind Entlassungen und Kündigungen, sie halten sich im Durchschnitt etwa die Waage. Im Verlauf eines Konjunkturzyklus gibt es allerdings enorme Abweichungen zwischen den beiden Größen. Zu Beginn einer Rezession steigen die Entlassungen stark an, während Kündigungen zurückgehen, da die Arbeitnehmer erkennen, dass der Arbeitsmarkt schwieriger wird und somit ihre Chancen sinken, eine bessere Stelle zu finden. Auch wenn sich also die Summe aus Entlassungen und Kündigungen vielleicht nur wenig ändert, kann man also den Daten eine Ebene tiefer dennoch wichtige Informationen entnehmen. Bei sehr hohen Entlassungen und sehr niedrigen Kündigungen haben wir natürlich ein Wertproblem. Zwei Unternehmen, die Arbeitnehmer einstellen und beschäftigen – und auch auf Seiten der Arbeitnehmer gibt es eine relativ realistische Wahrnehmungsverschiebung hinsichtlich ihrer Chancen bei der Suche nach einer anderen Stelle. Das grundlegende partielle Gleichgewichtsmodell des Arbeitsmarktes – und das ist übrigens, worum es im Kern beim diesjährigen, oder vielleicht sollte ich sagen bis diesen Oktober, beim diesjährigen Nobelpreis ging – hier lag der Schwerpunkt auf Modellen, mit deren Hilfe wir diese Fluktuationen - bzw. den Prozess, der Arbeitskräfte und Stellen zusammenbringt - besser analysieren können. Der technische Kniff, der hier zu funktionierenden Modellen geführt hat, war die Matching-Funktion. Die Matching-Funktion betrachtet auf Ebene einer gesamten Volkswirtschaft die Anzahl von Neueinstellungen als eine Funktion der Anzahl von arbeitslosen Arbeitskräften und offenen Stellen. Früher wurde die Anzahl offener Stellen noch über die „Gesucht“-Anzeigen erfasst, aber heute haben wir dafür Umfragen, bei denen Unternehmen zur Anzahl ihrer offenen Stellen befragt werden. Auf diese Weise können wir eine aggregierte Matching-Funktion erstellen. Sie passt ziemlich gut, in etwa genauso gut wie die aggregierte Produktionsfunktion, und spielt auch eine ähnliche Rolle wie sie. Soweit wir sagen können, hat die Funktion konstante Skalenerträge, und wie auch die Arbeit von Chris Pissarides und seinen Co-Autoren sowie viele andere Schätzungen bestätigen, scheint die Cobb-Douglas-Funktion ziemlich gut zu passen. Man braucht nicht unbedingt ein komplexes Modell, um eine Volkswirtschaft als Ganzes zu betrachten, und ich möchte betonen, dass bei der Matching-Funktion die Volkswirtschaft als Ganzes betrachtet wird. Wenn Sie dagegen eine Fragestellung haben, zu deren Beantwortung Sie stärker den Industriesektor oder einzelne Unternehmen berücksichtigen müssen, ist die aggregierte Matching-Funktion wahrscheinlich nicht sehr geeignet. Besonders viel Beachtung wurde der Tatsache geschenkt, dass die Matching-Funktion einen Abwärtstrend zeigt, was vor allem im Zusammenhang mit der Beveridge-Kurve aufgekommen ist. Die Beveridge-Kurve zeigt die Rate offener Stellen im Verhältnis zur Arbeitslosenrate. Da wir konstante Skalenerträge haben, können wir mit diesen Raten arbeiten. Wenn also der Wert von Arbeitskräften gegenüber Unternehmen im Zeitverlauf sinkt, würde man eigentlich einen Rückgang der offenen Stellen bei Arbeitslosigkeit erwarten, das entspricht dem typischen Muster. In der US-Wirtschaft war dagegen zu beobachten, dass die Anzahl offener Stellen wieder anstieg, ohne dass sich die Arbeitslosigkeit nennenswert veränderte. Dies veranlasste einige Fachleute zur Schlussfolgerung, in der US-Wirtschaft bestehe ein ernsthaftes strukturelles Problem. Im Fall eines strukturellen Problems ist eine allgemeine Nachfragestimulierung, egal ob mit monetären oder fiskalpolitischen Mitteln, nicht hilfreich, so dass man sehr vorsichtig mit stimulierenden Maßnahmen sein sollte. Die Zentralbanken sorgen sich natürlich um die Inflation, und eine kritische Frage für die Geldpolitik ist, die richtige Mischung zu finden zwischen Einflussnahme auf die gestörte Beziehung zwischen aggregierter Nachfrage und Arbeitslosigkeit einerseits und auf das angenommene strukturelle Problem andererseits. Ohne Analyse des Arbeitsmarktes ist keine vernünftige Geldpolitik möglich. Das gilt von allem für die USA, wo es sogar zu den offiziellen Aufgaben der Fed gehört, neben der Inflation auch die Beschäftigung im Auge zu haben. Ehrlich gesagt finde ich es schockierend, dass sich das Mandat so vieler Zentralbanken nur auf die Inflation beschränkt deren Rolle über die Inflation hinausgeht. Das ist alleine schon deshalb richtig, weil es gar keine allgemeingültige optimale Inflationsrate gibt. Das typische Inflationsziel liegt bei zwei Prozent oder knapp darunter – aber woher kommt diese Zahl? Nun, Null erscheint nicht sehr sinnvoll. Und wie wir wissen ist eine hohe Inflation auch nicht sinnvoll, also sollten wir eine schöne runde kleinere Zahl nehmen – aber sind zwei Prozent besser als drei Prozent? Ich würde sagen, wir haben keine Ahnung, was richtig ist. Von Olivier Blanchard stammt die Idee, vielleicht wären vier Prozent besser. Zwar nicht in normalen Zeiten bei stabilen mikroökonomischen Bedingungen, wo Inflation auch helfen kann, aber in finanziellen Krisen, weil dann die Zentralbanken einen größeren Spielraum haben und die Wahrscheinlichkeit verringert wird, dass die Zinsen auf Nullniveau abrutschen. Der Vorschlag kam vielleicht nicht zum idealen Zeitpunkt, aber mir scheint völlig richtig, dass keineswegs feststeht, dass zwei Prozent richtig sind, sondern dass sich eine Zentralbank genauso gut einmal für zwei Prozent entscheiden und ein anderes Mal sagen kann: Für die nächsten Jahre fühlen wir uns mit drei Prozent wohler – daran ist nichts auszusetzen. Das könnte in bestimmten Situationen eine gute Lösung sein, solange die Glaubwürdigkeit gewahrt bleibt, dass aus diesen zwei oder drei Prozent keine acht oder neun Prozent werden, geschweige denn eine Hyperinflation – die Zentralbanken sollen zwar die Inflation steuern, aber schließlich keine zusätzlichen Probleme für die Volkswirtschaft schaffen. Unter bestimmten Bedingungen, wie z.B. bei einem Schuldenüberhang, kann Inflation zwar hilfreich sein – aber wie viel Inflation genau, für diese Frage haben wir schon wieder keine Antwort parat. Meines Erachtens sollten wir den Prozess genauer betrachten, wie die Zentralbank Einfluss auf die Volkswirtschaft nimmt. Die Inflationsrate auf gleichbleibendem Niveau zu halten ist wichtig im Hinblick auf Planung, Zukunftsaussichten, Vertragsabschlüsse usw., und der Zustand des Arbeitsmarktes spielt dabei aus zwei Gründen eine wichtige Rolle. Erstens ist ein normativer Grund, dass eine zu hohe Arbeitslosigkeit schlecht ist – schlecht für die Familien, schlecht für die Zukunft, vor allem durch die steigende Langzeitarbeitslosigkeit, bei der die Arbeitskräfte ihre Fähigkeiten, Kontakte usw. mit der Zeit verlieren. Neben diesen normativen Gründen müssen die Zentralbanken auf der positiven Seite abschätzen, wie sich eine Stimulierung auswirkt - was auch wiederum von den Bedingungen auf dem Arbeitsmarkt abhängig ist. Was ist also in den USA passiert? Hierzu gibt es verschiedenste Standpunkte, einschließlich der aus meiner Sicht erschreckenden Einschätzung eines angesehenen Ökonomen, der zudem Präsident der Minneapolis Federal Reserve Bank ist. Nach seiner Meinung ist das strukturelle Problem so gewaltig, dass Stimulierungsmaßnahmen der Zentralbank unsinnig sind. In einer Reihe verschiedener Studien wurde versucht, den heutigen Arbeitslosigkeitsüberhang in den USA gegenüber vor der Krise zu quantifizieren und aufzuteilen auf beiden Faktoren der inadäquaten Gesamtnachfrage im Vergleich zu vor der Krise einerseits und den verstärkten strukturellen Problemen andererseits. Dabei darf man nicht vergessen, dass es immer strukturelle Probleme gibt. Unternehmen stellen von Zeit zu Zeit neue Qualifikationsanforderungen, die von einigen Arbeitskräften erfüllt werden und von anderen nicht. Und die Verfügbarkeit von Arbeitskräften, die die benötigten Anforderungen ohne zusätzliche Ausbildungsmaßnahmen erfüllen, variiert außerdem im Laufe eines Konjunkturzyklus. Natürlich wollen Unternehmen die Arbeitskräfte für sich gewinnen, die ihnen am besten gefallen und möglichst wenig Zusatzausbildung benötigen. Auch wenn wir am MIT eine Assistenzprofessur besetzten, sind wir zwar immer sehr zufrieden mit unserer Entscheidung, aber trotzdem hoffen wir natürlich jedes Mal, einen jungen Paul Samuelson zu finden. Aus Sicht der Geldpolitik ist entscheidend zu verstehen, was genau sich verändert hat. Ich habe mir viele der Studien angeschaut, aber keine von ihnen liefert eine ausreichende Basis, um eine konkrete Zahl abzuleiten. Die Studien neigen eher dazu, strukturellen Faktoren eine wichtigere Rolle beizumessen als es aus theoretischer Sicht gerechtfertigt scheint. Wenn man untersuchen will, wie sich eine Arbeitslosenversicherung auf die Bereitschaft der Arbeitnehmer auswirkt, eine angebotene Stelle anzunehmen, und dazu lediglich historische Daten über bestimmte Probleme bei der Stellensuche von Arbeitslosen heranzieht, werden dabei die Informationen der Matching-Funktion bei hoher Arbeitslosigkeit übersehen. Das ist, als würde man trotz der aktuellen hohen Arbeitslosigkeit einfach sagen, die Beschäftigung entspreche dem Arbeitskräfteangebot – und das führt zu keiner guten Schätzung. Eine interessante Schätzung dagegen wurde kürzlich von Barlevy vorgelegt, bei der er sich auf die aggregierte Matching-Funktion stützt. Beide Studien kommen zu dem Ergebnis, dass die überschüssige Arbeitslosigkeit primär auf die inadäquate Gesamtnachfrage zurückzuführen ist. Ich gehe davon aus, dass sie sogar zu hoch ist und das Problem zum Teil darin besteht sie ist ein sehr nützliches Werkzeug für Theoretiker und bietet auch für empirische Arbeiten eine gute Ausgangsbasis – wie schon die Arbeit von Davis, Haltiwanger und einigen Co-Autoren gezeigt hat, ist der Matching-Prozess in verschiedenen Marktsektoren sehr unterschiedlich, wie z.B. in unterschiedlich großen Unternehmen oder in schnell wachsenden Firmen mit zahlreichen Neueinstellungen im Vergleich zu langsam wachsenden Firmen, die weniger Neueinstellungen haben. Was in den USA unter anderem passiert ist, was sich hinter diesem Bild verbirgt, ist dass speziell im Baugewerbe offene Stellen sehr schnell besetzt werden. Nach dem überzogenen Bauboom im Wohn- wie auch im Gewerbesegment ist die Beschäftigung im Bausektor extrem zurückgegangen. Das liegt jedoch an den zuvor übertrieben hohen Bauaktivitäten, so dass die Beschäftigung in diesem Sektor nicht so schnell wieder steigen wird. Ein nachhaltiges strukturelles Problem wird sich teilweise daraus ergeben, dass die Beschäftigung in diesem Sektor nicht wieder das alte Niveau erreichen wird. Es kommt hier der friktionelle Aspekt ins Spiel, Arbeitskräfte in andere Sektoren umschichten zu müssen. Einen Gegensatz dazu bilden der Ausbildungs- und Gesundheitssektor in den USA, die sich beide überdurchschnittlich stark entwickelt haben. Beide Sektoren werden von Großunternehmen dominiert, die bei Neueinstellungen sehr langsam vorgehen. Ein anderes Beispiel ist der Markt für Assistenzprofessuren in den USA, wo offene Stellen bereits ein Jahr im Voraus ausgeschrieben werden. Im Hinblick auf die Statistik offener Stellen wurde also bei einem großen Anteil aller Neueinstellungen im Vorfeld gar keine offene Stelle erhoben. Wie im obigen Beispiel beschrieben gibt es vielfach ausgeschriebene Stellen, die schon vor der nächsten statistischen Erhebung wieder besetzt sind. Man gibt also an, dass man jemanden neu eingestellt hat, aber die offene Stelle wurde vorher nicht erhoben. Aus diesem Grund sieht es dann nach einem sehr effizienten Prozess aus, und das stimmt grundsätzlich auch. Wenn man allerdings die Daten herunterbricht, um zu sehen was genau dahinter steckt – welches Teilergebnis ist beispielsweise darauf zurückzuführen, dass sich die Sektorenzusammensetzung oder die Unternehmensgröße der Arbeitgeber verändert hat oder dass es kleine Unternehmen besonders schwer haben, dass es den kleinen Banken schlecht geht und sie weniger Kredite vergeben, so dass kleine Unternehmen in hohem Maß von ihren eigenen Finanzreserven abhängig sind, dass vorübergehend viel Geld in den Wohnungsbau gesteckt wurde und jetzt verschwunden ist oder dass kleine Unternehmen offene Stellen viel schneller neu besetzen als Großunternehmen, in denen es eine extra Abteilung gibt, die den gesamten Rekrutierungsprozess überwacht, bei dem mehrere Schritte eingehalten werden müssen. Es sind also eine ganze Reihe verschiedener Faktoren zu untersuchen, bevor man makroökonomische Schlussfolgerungen ziehen kann. Zwei Dinge sind jedoch besonders wichtig: Erstens darf man kein partielles Gleichgewichtsmodell verwenden, wenn sich die untersuchte Fragestellung auf das Gesamtgleichgewicht bezieht, und zweitens muss man sicherstellen, immer auf der richtigen Aggregationsebene in Bezug auf die untersuchte Fragestellung zu arbeiten. Jetzt lassen Sie mich noch auf ein paar Makro-Aspekte eingehen - und auf die Herausforderung, dieselbe Dynamik, bei der wir aus meiner Sicht – und wahrscheinlich auch aus Sicht des Preiskomitees – schon gute Fortschritte erzielt haben, auch auf dem Arbeitsmarkt zu erreichen. Viel Literatur gibt es zum Privatimmobilienmarkt, den ich für noch schwieriger halte, weil beim Hauskauf die Finanzierung eine besonders große Rolle spielt. Es gibt also auch über diesen Bereich informative und interessante Literatur, ebenso wie über die Gesamtwirtschaft im Allgemeinen. In jüngerer Zeit wurde das Arbeitsmarkt-Suchmodell in ein Modell eingebunden, das den Markträumungsmechanismus des Standardmodells hat. Dabei geht es oft um Märkte, auf dem kurzfristige Finanzierung keine große Rolle spielt. Wenn Sie also einen repräsentativen Marktteilnehmer mit einer Budgetrestriktion über einen unendlichen Zeithorizont haben, fehlt Ihnen einer der Aspekte, von denen Keynes gesprochen hat, nämlich die wichtige Rolle des aktuellen Einkommens für die aktuellen Ausgaben. In der Tat zeigen disaggregierte Studien, dass viele Menschen in ihrer Liquidität eingeschränkt sind. Es gibt zwar einen starken empirischen Zusammenhang zwischen Einkommen und Ausgaben in weiten Bevölkerungsteilen, aber keinesfalls bei allen Konsumenten einer Volkswirtschaft. Was meine ich damit? Die beiden Eckpfeiler keynsianischer Analyse, die mir als Student beigebracht wurden, sind zum einen starre Löhne und Preise und zum anderen die wichtige Rolle des Einkommens, wodurch eine Rückkopplung zwischen Beschäftigungsniveau und Gesamtnachfrage entsteht. Wenn Sie also über eine Arbeitslosenversicherung nachdenken, dieser Versicherung aber nicht die Rolle eines integrierten Stabilisierungsfaktors zuweisen, fehlt ein wichtiger Aspekt. Sie können dann gute partielle Erkenntnisse liefern, aber es wäre falsch, politische Schlussfolgerungen nur aus dieser partiellen Sicht zu ziehen, ohne die fehlenden Aspekte zu berücksichtigen. Im Hinblick auf starre Löhne und Preise gibt es Bestrebungen, sich von der Annahme zu lösen, dass alle Verhandlungen erfolgreich abgeschlossen werden, und vor allem, dass sie bei mehreren Angestellten das Problem haben, wie viel Gehalt Sie Ihren neu eingestellten im Vergleich zu Ihren bestehenden Mitarbeitern zahlen bzw. wie viel Sie Ihren bestehenden Mitarbeitern zahlen. Hier gibt es also ein Problem mit starren Löhnen. Bei starren Preisen sieht das zunächst anders aus, allerdings gibt es hier ein ähnliches Problem – und zwar die Tatsache, dass Unternehmen finanziellen Beschränkungen unterliegen. Sie legen ihre Preise fest, aber wenn sie beispielsweise so niedrige Preise wählen, dass sie zwar viel mehr verkaufen, aber von den Einnahmen ihre Schulden und Angestellten nicht mehr bezahlen können, ist das kein gutes Ergebnis. Hier muss man also die Prozessdynamik untersuchen. Auf dem Absatzmarkt sollte es keine Probleme geben, denn wir haben gute Preise, aber aus meiner Sicht müssen wir Einkommen und Nachfrage mit ins Spiel bringen. Wir müssen berücksichtigen, dass Märkte unvollständig sind, dass viele Leute keine ausgetüftelten Entscheidungspläne haben, in denen sie die künftigen Bedingungen berücksichtigen – heute sieht es gut aus, und morgen sehen wir weiter. Das fehlt insgesamt in allen Modellen. So hat beispielsweise auch das Thema Insolvenz in der allgemeinen Gleichgewichtsanalyse kaum eine Rolle gespielt, obwohl Insolvenz natürlich ein wichtiges Element ist, vor allem auf der makroökonomischen Betrachtungsebene. Wenn Märkte unvollständig wären und Individuen niemals eine positive Wahrscheinlichkeit einer Insolvenz haben dürften, hätten wir eine desaströse Wirtschaftswelt. Indem wir Individuen die Möglichkeit zur Insolvenz einräumen, ermöglichen wir gewissermaßen reichhaltigere Vermögenswerte. Wir könnten beispielsweise paarweise Verhandlungen führen, bei denen alle möglichen Alternativen ohne Insolvenzrecht ausgehandelt würden. Aber das ginge erstens auf Kosten des einzelnen, jeden Vertrag individuell aushandeln zu können, und zweitens haben wir das dynamische Problem, dass selbst kleine Unternehmen sehr vielen verschiedenen Parteien Geld schulden – ihren Kreditgebern, Lieferanten, Angestellten usw. Daher brauchen wir einen Prozess für die Interaktionen, die sich daraus ergeben, dass Handelspläne im Gegensatz zum Arrow-Debreu-Modell sequenziell und unter Unsicherheit hinsichtlich der künftigen Möglichkeiten entwickelt werden. Eine wichtige Rolle spielen somit die Erwartungsbildung und das Zauberwort „Vertrauen“ als eine reduzierte Form von Erwartungsbildung. Wenn wir auf die Forschung aufbauen, um ein besseres Verständnis für die Makroprobleme zu bekommen müssen wir über partielle Gleichgewichtsbetrachtungen hinausgehen und zu einer viel allgemeineren Gleichgewichtsanalyse kommen, was aufgrund der zusätzlichen Komplexität natürlich deutlich schwieriger ist. Aber Sie sind noch jung, und das hat den Vorteil, dass Sie mit neuen Ideen an Themen herangehen, über die sich andere schon seit Jahren den Kopf zerbrechen und noch zu keiner Lösung gekommen sind. Abgesehen von meinem Gehalt wäre ich zu gerne heute nochmal ein junger Ökonom, und ich wünsche Ihnen viel Erfolg dabei, unseren Berufsstand und unsere Wirtschaftssysteme weiter voranzutreiben. Vielen Dank.


At any time, a modern economy has both unemployed workers and posted vacancies. Thinking about this fact in a static setting might lead one to think there is a serious mismatch between the workers and the jobs, in skills or in location, for example. Or it might lead one to think that the primary problem is that wages are not at the right levels to clear the markets, referred to as “sticky wages” since wages are not changing adequately as circumstances change. A search perspective puts these two ideas into a richer, more informative context. That is, the quality of matches between workers and jobs matters, and limited rates of wage change matter, but understanding the extent and effect of these two issues is best done in a dynamic setting.

Basic search analyses of the labor market for “normal times” proceed by taking the value of a worker to a firm as given primarily by technology; and the value to a worker of being without a job as given by preferences (and unemployment insurance). This is partial equilibrium modeling, leaving out the role of the output market. As a method of capturing labor market outcomes around turning points in the business cycle, analyses have examined the dynamics of an economy when these exogenous values shift. However, this still leaves the critical task of endogenizing the values of production and the costs of lack of work. That task is particularly important for times of high unemployment.

While commonly referred to both as changes in the “value of output” and as shocks to “productivity,” the broad range of changes around turning points is strongly supportive of an aggregate demand interpretation. While the term “productivity” may be useful metaphoric shorthand, we should not think that output per worker provides a reasonable measure of the value of additional output for business cycle analysis. With a Walrasian output market, productivity does measure the value of output, but with a search model of the output market, and so a limited ability to make sales, productivity is not necessarily a good measure of the value of output.

In other words, a labor market model is a partial equilibrium model, not a general equilibrium model. As such it can shed light on partial equilibrium questions and partial equilibrium aspects of general equilibrium issues, but can not, by itself, fully evaluate general equilibrium questions, such as the role of aggregate demand stimulation. Combining a frictional labor market with a Walrasian output market seems likely to miss some important links that matter for policy design for extended periods of high unemployment. While the bulk of search analyses have focused on the labor market per se, search also has been used to see how the presence of frictions affects the aggregate economy.