Edward Prescott

The Current State of Aggregate Economics

Category: Lectures

Date: 25 August 2011

Duration: 45 min

Quality: MD SD

Subtitles: EN DE

Edward  Prescott (2011) - The Current State of Aggregate Economics

This is the golden age of aggregate economics. So much has been learned, and so much more remains to be learned. Economists use theory and economic statistics to construct a model economy and determine the quantitative answer to a given question

I'm going to talk about the current state of aggregate economics. I'm not going to be presenting scientific results. I'm focusing this discussion on the young economist. This is a great time in aggregate economics. So much has been learned in recent years, so much is being learned but more important so much remains to be learned. And when you young economists, as one of you have already, figured things out, I expect you to educate me. When I use aggregate economics, why I use aggregate economics and not macroeconomics, well macroeconomics I see as a serious but failed science. It was largely separated from economics in the '50's and '60's. The core of macroeconomics is the empirically determined dynamic system governing the evolution of the national income and product statistics. The view was that the economic foundations of the empirically determined dynamic systems would subsequently be developed. This was not to be. The Lucas critique, it's inconsistent with the dynamic economic theory. The existence of policy invariant laws of motions, questions of what should you do now, what will happen if you do this or that now are not well posed economic questions. By the way I don't use microeconomics either, there's just economics. And there's so much interaction between people working in all kinds of different areas of substantive interest. What we should share is common tools. And the results in financial and labour and others restrict the models that we use to, I don't know, evaluate a tax policy rule. It seems like the logical thing to do but it was somewhat radical when Finn Kydland and I used the aggregate growth model to study business cycles. The growth model is not part of macroeconomics. It was part of microeconomics, what they called microeconomics in yesteryear. By the way there is one person who is a little bit away ahead of his time, they call him the father of modern finance Merton Miller, but he's also using that growth model to study aggregate economics. He was not happy with the old theory when he tried to teach macro at the university of Chicago business school. So he wrote a book, I think it's the Neo Classical Growth Model in Macroeconomics or some title close to that with Charles Upton. What have we learned about business cycles, using the growth model? Well to answer that let's look at some statistics or a plot. Let's look at the last 50 years of fluctuations in the United States. These are population corrected. I always use working age population and as a proxy for working age population I use people aged 16 to 64, it's not a perfect proxy. I always correct for trend. There's been a constant secular growth of nearly 2% a year in living standards due to growth in productivity. There's been this accumulation of knowledge. This results in a doubling of living standards every generation. I tell my kids how much better off they are than I was when I was a kid and I tell them how much better off their kids are than when they were a kid. Here you see the fluctuations from the '59 to nearly 2009. You see fluctuations, why, these are deviations from trend, the flat line is trend growth, living standards doubling every generation. The big expansion in the '60's, well we now can identify what gave rise to that. Turned out to be productivity. That was an error, a major innovation in the United States. Jet airplanes, mainframe computers, the chemical industry, spectacular advances. And the interstate highway system that dramatically reduced transportation costs. The longest expansion was in the '80's and we know that that was tax rate cut driven. And the recovery of productivity growth. Finn and I didn't have taxes in our model but we estimated up to 1980, so we would have been way off having abstracted from taxes in that period. The biggest recession, my recessions are definition, the MBR uses the 0% trend and they used all kinds of judgement and they all use the highly preliminary statistics. They're done on a real time basis. And the statistics that come in later for GDP are a lot different. They may find an extra 5 million workers in the censuses of households that are every 10 years or every 5 years for businesses. And a few years later you see the major revisions. The recent recession in 2008/2009 with the revised statistics of GDP, incorporating some of the census information and new benchmarks, is not looking so puzzling. One of the things that surprised me was that, well that it seemed to be that the financial crisis and monitory factors didn't play much of a role, they play a big role in filling up space in newspapers. But the quantitative models showing that they have, using them to account, there's just not much residual in the models that abstract from these features of reality. One of the major themes that is exciting developments in recent years is the model economies are restricted by both individual and aggregate observations. It used to be, well there's just some laws, emotion in using aggregate only and any theorist would say thou shall not touch a number, that was a taboo in the old days. And they used to say I can explain anything. By the way using general equilibrium theory you can. Some animal spirits or something of that sort. That would preference shocks in the Arrow-Debreu state contingent, I should say event contingent on language. What were Finn and I trying to do was to come up with a propagation mechanism for monitory shocks. Wicksell and Frisch, the great, I guess one is a Swede, one is a Norwegian, economist, emphasised this propagation. Finn and I were both out of the operations research tradition. So we were naturally quantitative and used the computers early when it was not so easy as it is today. We worried about the numbers, how big things were. In this time to build, the question is how long did it take to build the new office building, how big were office buildings as expenditures in this field. So we put those restrictions on sort of the value put in place in the construction industry. We insisted that the aggregate assumptions be consistent with individual observations. These individual observations restricted the aggregate model. Our basic finding, that if the aggregate household had high labour supply, elasticity, notice I bold faced aggregate. It's going to be analogous to aggregate production function. Productivity shocks are persistent with the given variants. Then a predication of the growth model as the economy will display business cycle fluctuations of the nature observed. By the way time to build turned out to be relatively unimportant as shown by Garry Hanson, who wrote that beautiful strip down version of the model that captured all the essential features. The productivity shocks had to be persistent, well we could look at these residuals to the aggregate production function and they were. And the variant was of the appropriate size. We said that these factors in this period of I think '54 to '80 accounted for 70% of the variants. We used variants measure rather than standard deviation because 85 would have sounded too big, percent. But if factors or orthogonal variances add and if 70% leaves a lot, if there was no productivity shocks, it would still be as 50% as variable. That's just the way variances work. People were understandably bothered that the variance was so large. The growth of the stock of useful knowledge is relatively smooth. Lots of people are doing this and occasionally there's a small burst of technologies we found but not as big. And then we see these, we saw these huge differences in productivity across countries, that accounts for virtually all the difference in living standards over time and across countries. Productivity is used to residually measure the performance of the regulatory and legal institutions governing the business sector and not just change in the stock of knowledge. We have the first source, be country specific, the second source is common. As I said most difference in, due to differences in productivity. I emphasise this aggregate labour supply elasticity is big. Prediction of aggregation theory are that the aggregate elasticity will be much greater than the individual elasticity of the people being aggregated under certain conditions and equal under others. Which one, if conditions are such that the principle margin of adjustment is the number of working and not in work week length, the aggregate elasticity is much larger than the individual elasticity's. This is confirmed by observations. If they were the same there'd be a puzzle, there'd be a deviation from theory, there would be an inconsistency. Because empirically the principle margin is the number of working, so both individual and aggregate observations are consistent. There would be a puzzle if these elasticity's were equal. Other aggregate observations are also relevant. There used to be only data basis for the US and maybe UK but now it's so easy to access them for just about any country in the world. Across countries there's large difference in market hours per working age person. And in the marginal effective tax rates across countries and also across time within a given country. These observations give a tight estimate of the aggregate supply elasticity. This estimate is the same as the one based on the business cycle observations. Things had to be consistent, you can't have one set of assumptions to nail this correlation and then you go on and say I've done it. Then create a different inconsistent set to nail some other observations and say now we understand why this is. The 2, the assumptions you make have to be, you know restricted by observation and be consistent. And we got to build, it's a cumulative. The big current development in aggregate labour supply theory is the determination of the fraction of life time worked. We heard a lot about retirement, people are getting older, even you young economists, it's predictable that every year you'll get a year older. You can't insure against that. It is important for predicting the consequence of pension reform. Rogerson and Wallenius, and Wallenius done this, Wallenius is here, she has major contribution and maybe she should be the one up here. The typo is, the editor must have, it's LEN, not M, she's at the Stockholm school of economics. Well the macro cross countries, that's a 45 degree line, this goes off the margin rate as substitution equal the marginal rate of transformation for the aggregate production function and the aggregate utility flow function. It's not that the French are lazy, it's just that they have high tax rates. And there's no free parameters here, there's one actually, that's all but that's common to all the countries. The major business cycle findings, their optional responses to real shocks, taxes and demography and productivity are real. Attempts to stabilise the economy are misguided and will just add a lot of confusion and noise and uncertainty which will have cost. By the way this simple model predicts that Finn and I used and Handson simplified, predicts well until a big puzzle arose in the '90's, in the decade. What happened in the '90's, when briefing the president of the Minneapolis federal reserve bank we said why were people working so damn much, did they get a contagious case of workaholism. There wasn't any cut in taxes, there wasn't any major labour market reforms. But the productivity was up, that's GDP per hour, per market hour was only up modestly. Yet ours was way up. In terms of the boom normally 2/3 hours 1/3 productivity. In that boom 125% hours, 25% productivity. That problem bothered me for 10 years before being resolved. Ellen McGrattan and I looked at the stock market and found that to really get the fundamentals intangible capital is big time, that is as big time as tangible capital, the things that show up in the national accounts. The things that are capitalised. Intangible capital is R&N, the developing new products, building an organisation. And one of the most important of them all is investment in the human capital of young people on the job. Part of that is financed by businesses and that is specific to that business. That is capital of that business. The other part is, Paul Romer calls it rival human capital. You can walk down the street with your great skills and get an even higher paying job at another university or other research centre. When I say predict and actual close, what do I mean by that, we take productivity, population and tax rates as exogenous, and initial capital stock. We construct the equilibrium path under a perfect foresight assumption which is an incorrect assumption. People don't have perfect foresight. We of course run some experiments and found out that if we, were we generated data artificially on the computer, that we knew how people, what the rational expectation, expectation scheme were. And the question is how different were the path based upon this incorrect assumption and the one based upon the correct one. We created that economy. By the way you create your economies, your gods, you have people in your economy and they're artificial but they're useful for building economic intuition. We learned that by, and it turned out that the predicted and actual were quite close until we hit the 90's and then there was a huge deviation from theory. Deviations from theory drives the development of theory. That's not just, that's true of any hard science which aggregate economics has become. There is cases where the expectations do matter. Ellen McGrattan has, it's going to be an important, I expect, paper and using it to the great contraction in 1930, about 25% and the not so great contraction that we recently experienced of the order of 10%. Now questions about the 1990 boom, we have to look at why were corporate accounting profits so low. By the way corporate accounting profits are high now. Why were they low, everybody knows that it was a boom then? The MBA's were dropping out of business school. Why? They wanted to become entrepreneurs, start businesses, get rich, create social surplus. And why were people working so much? I say no tax cut, no labour market reform. And I did say that it bothered me for a decade. The resolution was the intangible investment introduced, this was important to get of a theory the fundamental value of the stock market that works so well for the secular movements of the stock market relative to the GDP. In the UK it varied by a factor of 3 in the 1960 to 2000 period. Most things, ratios relative to GDP, the variations are small and it was 21/2 times in the US. When you look at the value of many corporations, Coca-Cola is worth a lot more than its factories, it's that little formula in the safe in Atlanta, the formula for making Coca-Cola, the brand name is, but there's also Weaties and Cheerios, General Mills, Microsoft, Sysco, oh I guess now what's the corporation worth the most, I think I read it was Apple. They have a lot of technology, no how, brand names that is embodied within the organisation. And this form of capital is important. It was needed to account for the behaviour of the stock market. Essentially the value of the stock market equals the value of the product of assets, tangible and intangible at the cost of these to the owners in terms of their consumption. Taxes and institutional arrangements matter and matter a lot there. But we do, we introduce that and we said, well let's let the productivities be different in these 2 activities. One of producing tangible capital, buildings, machines, etc. and vehicles, another was intangible capital. We residually determined those 2 productivity series and treated them as exogenous. There was a wealth of evidence that they were, you sort of see the way they shift the people, we went down and looked at these household surveys and what occupations people are in, either in the industries that start, occupations that make major investments in activities that are part of the investments in this intangible capital. And yes there was a big shift. And by the way the NSF publishes R&D numbers which is an important component of intangible capital investment, not stock. And there's a problem of making up a depreciation rate to get up to a stock. We could only measure net investment. But it turned out the depreciation rate for our purposes, the results were insensitive to that. If they were, they were. And we couldn't say, in our method it would be not that useful. We even looked at the time profile of wholly owned American subsidiaries. You know US corporations, the ones that are publicly traded, they produce about, schedule C corporations, they produce half the output, these are the ones that pay corporate income tax. There's a big component, sizable component of corporations that distribute everything to their owners, workers and it gets treated as ordinary income for tax purposes. And they pay no corporate income tax. The schedule S corporations. But now I'm going to talk about the schedule C. Nearly half of the profits of American corporations according to accounting profits come from American wholly owned foreign subsidiaries, in 10% of their, a little bit over 10% of their investment. Any accountant should be worried about and wonder what's going on. The thing though is this expensive investment reduces your accounting profits. Intangible investment is not counted as part of output. And that lowers the profit. And these foreign subsidiaries are not very profitable accounting wise initially because that's when their big intangible investment is being made. And later on they get profitable. We didn't think we could get those statistics from the IRS and we couldn't. It would be easy to carry out the exercise but there's confidentiality problems. Fortunately we found some people that had looked at these statistics and it was in dramatic conformity. But where does this thing show up, these capital gains. Capital gains are not part of measured output. But you can see something about the capital gains by studying the balance sheet, the flow of funds, statistics have the household balance sheets and we can see the holding period or the private sector, there's foundations, non profits are with the household sector though there's a small part. And this holding period gains are just of the right magnitude. Normally about 2% a year of GDP. In the late '90's they went up to 6% so they were under measuring output by an abnormally low large amount. By the way in the 1990's we all knew the economy boomed. Here's sort of the, using the naïve model without intangible capital. Actually the red line per capita hours, blue line predicted per capita hours. Big deviation. Put the intangible capital in, things fit almost like a glove. By the way you could always introduce enough preference parameters to fit any set of observations. Why do Europeans work 30% less than Americans, at least until recently and in other advanced industrial countries? Some people say western Europeans just get more disutility from work or more utility from vacations, they're not that different is my working, my maintained hypothesis. And the Europeans used to work as much as, western Europeans as the people in the other advanced industrial countries. It's not a contagious case of laziness. Rely on that is, in the animal spirits and like, that's not science. We have a factor that we can go out there and measure, tax rates. Europeans have 60% marginal effective tax rates while the rest of the world has 40% and that's enough, that gives that predicted difference. Now everybody says financial crisis, financial crisis, that's why the US economy is in the tanks, I say no, I say the Fed and the treasury and the European central banks and other institutions did a great job in September of 2008 avoiding a liquidity crisis. There used to be regular liquidity crisis prior to the formation of the Federal Reserve Bank in 1913, every 4 or 5 years, every 5 years about. The institutions we set up did not serve us well then. There would have been some real disruption to the economy. People tried desperately to come up with the model of this. That is sort of consistent with individual and aggregate observation, they failed. And these people are good people so it's not, lack of talent it is not the reason. By the way there's been, using this model we looked at the great depressions, Cole and Ohanian initiated this in about, very late 1990's. They broke a taboo and looked at the great depression using this neoclassical growth model. Using the same methodology we systemically, a number of people, examined 16 great depressions. The US current depression and the Italy's depression in the 1930's were not so great depressions, they didn't quite hit that big magnitude that we insisted for great. These depressions are not a thing of the past. And I could list a number of, Switzerland had their great depression and New Zealand in 1970 to 1995. Chile and Mexico beginning in the 1980's, Chile recovered, Mexico didn't. And there's lots of open puzzles associated with the depression. What happened in that 1930, why did people stop investing. Some people say they couldn't get money to invest, why did these businesses make these huge distribution to the owners. Dividends went way, way up. Investment is mostly financed by retained earnings for corporations. They had access to the money or else they wouldn't distribute it to the owners. It's a puzzle that's been bothering me for so long. I think that back in 1976 I heard the LeRoy-Porter paper in Madison Wisconsin, summery econometric society meetings on this excess volatility. And Shiller independently made the same observation. That puzzle is still open. And when one of you resolve it, call me up, please. Well the secular path, I mentioned that already. Another big puzzle, why are there such large gains from openness. There's been a really exciting development in trade initiated by Eaton and Kortum. And they're matching up with the micro observations at the firm level. These are in the comparative advantage tradition. There is also the increasing returns of Dixit-Stiglitz model extended by Krugman to international trade. And also the classical one. By the way all these models, when people were restricted to observation, observed flows, give way too small gains from trade. I like this figure, these are Madison numbers, the GGDC Geary-Khamis purchasing power parity. EU productivity relative to the US, I use productivity because at the later part hours in Europe fell relatively. The Europeans are, western Europeans are, used to only be about 55% as productive as the Americans for about 50 years, prior to world war 11. Since 1957 Treaty of Rome, the original EU 6 caught up and has stayed up there in terms of productivity. Why? The late joiners, my friends from Poland and this is one of the important, the biggest country in this set and met some of you people from Estonia at dinner last night and had fascinating discussion. There's rapid catch up occurring. This is GDP per capita. In Western Europe it's about 70%. In Japan as well. But the predicted gains from openness are far smaller. You know you see this big gain, your theory predicts this amount, what do you do, you scratch your head and become bald. If not trade then what. Well Ellen McGrattan and I extended the growth model to, well Schumpeter said you need it for endogenising technology development, you need a monopoly rents. And that's why everybody goes at monopolistic competition model. We developed a different way to do it, that stays within competitive equilibrium, the convex cones that we use in macroeconomics that all the growth accounting builds on, it's so easy to interact with the data, the extensions. We introduced the concept of a location. And there's location rents. And we add the composite output. We got a lot bigger gains but it's still way too small. So that did not. It seemed to be that the diffusion of knowledge is so important and people are trying like mad using that and modelling that in a productive way. Another thing is competition. Empirically competition is associated with higher productivity. Our iron mines up northern Minnesota, productivity doubled in 1982 without any new technology, just change in work rules. Why did that happen, the Brazilian mines came on line and just that threat of competition was sufficient to increase the productivity of the mines in northern Minnesota and in Canada and in Sweden for that matter. It didn't happen in Australia until 10 years later, that's when the Indian iron ore mines came on line and provided, well this is empirical, it's not theoretical. And having some better theory there of why these decentralised mechanisms empirically work so much better. So I conclude. My charge to the next generation of economists, you, make our science an even better one. I know you will and I think you'll have fun doing this, it's a good profession that we're in, society treats us great. We live longer, we don't have to be in those tense organisations and we get the chance to, as soon as the students get beyond their qualifying exams, the first year, they're colleagues. And I learn so much from them. Any course I teach I tell the students I want to learn more than you learn. It's just a good time that you've chose to go into this field. And the little financial crisis have been, the economic crisis have been good, a lot of good people are going into economics now. And you're the lifeblood of an economics department. Thank you.

Ich werde über den derzeitigen Zustand der Gesamtökonomie sprechen. Allerdings werde ich keine wissenschaftlichen Resultate präsentieren - der Schwerpunkt des Vortrags liegt auf dem jungen Ökonomen. Dies ist eine großartige Zeit für die Gesamtökonomie. In den vergangenen Jahren haben wir viel gelernt, wir lernen immer noch viel, doch was noch wichtiger ist: Es gibt auch in Zukunft noch viel zu lernen. Und wenn Sie, die jungen Ökonomen, etwas herausfinden - auf einen von Ihnen trifft das bereits zu - dann erwarte ich, dass Sie mich darüber unterrichten. Ich verwende den Ausdruck "Gesamtökonomie" anstelle von Makroökonomie, weil ich die Makroökonomie als seriöse, aber gescheiterte Wissenschaft betrachte. In den 1950ern und 1960ern war sie zu großen Teilen von der Betriebswirtschaft getrennt. Im Mittelpunkt der Makroökonomie steht das empirisch bestimmte, dynamische System, das die Entwicklung des Volkseinkommens und die Produktstatistik steuert. Man war der Ansicht, die ökonomischen Grundlagen des empirisch bestimmten, dynamischen Systems würden nach und nach entwickelt werden. Das geschah aber nicht. Die Kritik von Lucas steht im Widerspruch zur dynamischen Wirtschaftstheorie, zur Existenz politikinvarianter Bewegungsgesetze. Fragen danach, was man tun sollte, was geschehen wird, wenn man jetzt dies oder das tut, sind keine guten ökonomischen Fragen. Den Ausdruck Mikroökonomie verwende ich übrigens auch nicht, es gibt nur Ökonomie. Und es gibt viel Interaktion zwischen Menschen, die in verschiedenen wichtigen Interessensbereichen aller Art tätig sind. Was wir uns teilen sollten, sind gemeinsame Werkzeuge. Die Resultate aus den Finanz- und Arbeitsmärkten sowie anderen Märkten schränken die Modelle ein, die wir etwa zur Evaluierung einer Steuerrichtlinie heranziehen. Es schien nur logisch zu sein, doch in gewisser Weise war es radikal, als Finn Kydland und ich das Gesamtwachstumsmodell zur Untersuchung von Konjunkturzyklen verwendeten. Das Wachstumsmodell ist kein Teil der Makroökonomie. Es gehörte zur Mikroökonomie - zu dem, was man früher Mikroökonomie nannte. Übrigens gab es jemanden, der seiner Zeit ein bisschen... weit voraus war; man nennt ihn den Vater der modernen Finanzwissenschaft: Merton Miller. Auch er verwendet für das Studium der Gesamtökonomie dieses Wachstumsmodell. Als er an der University of Chicago Business School Makroökonomie lehrte, stellte ihn die alte Theorie nicht zufrieden, weshalb er zusammen mit Charles Upton ein Buch schrieb mit dem Titel Was haben wir durch die Anwendung des Wachstumsmodells über Konjunkturzyklen gelernt? Zur Beantwortung dieser Frage werfen wir einen Blick auf eine Statistik bzw. ein Diagramm. Sehen wir uns die Schwankungen der letzten 50 Jahre in den Vereinigten Staaten an; sie sind bevölkerungsbereinigt. Ich ziehe immer die Bevölkerung im arbeitsfähigen Alter heran, und stellvertretend für die Bevölkerung im arbeitsfähigen Alter die Personen im Alter von 16 bis 64 Jahre, auch wenn das keine perfekte Näherung ist. Ich nehme stets Trendkorrekturen vor. Aufgrund des Produktivitätszuwachses gab es ein konstantes langfristiges Wachstum des Lebensstandards von fast 2 %. Es gab die Wissensakkumulation. Das Ergebnis ist eine Verdopplung des Lebensstandards in jeder Generation. Ich erkläre meinen Kindern immer, wie viel besser es ihnen geht, als es mir in meiner Kindheit gegangen ist, und ich erkläre ihnen auch, wie viel besser es ihren Kindern gehen wird, als es ihnen jetzt geht. Hier sehen Sie die Schwankungen von 1959 bis fast 2009. Sie sehen Schwankungen - nun, das sind Abweichungen vom Trend, die gerade Linie ist der Wachstumstrend: eine Verdopplung des Lebensstandards in jeder Generation. Die große Expansion in den 1960ern - heute können wir feststellen, was sie hervorgerufen hat. Wie sich herausstellte, war es die Produktivität; enorme Innovationen in den Vereinigten Staaten. Düsenflugzeuge, Großrechner, die chemische Industrie - spektakuläre Fortschritte. Und das Interstate Highway-System, das die Transportkosten dramatisch reduzierte. Die längste Expansion fand in den 1980ern statt, und wir wissen, dass sie durch Steuersenkungen hervorgerufen wurde. Und durch einen erneuten Produktivitätszuwachs. Finn und ich, wir hatten in unserem Modell keine Steuern ausgewiesen, doch wir hatten Schätzungen bis zum Jahr 1980 vorgenommen. Wir hätten weit danebengelegen, wenn wir in diesem Zeitraum die Steuern außer Acht gelassen hätten. Die größte Rezession - ich definiere Rezessionen: Beim MBR wird der 0 %-Trend angenommen. Man lässt dabei alle möglichen Sichtweisen einfließen, und bei allen wird eine in hohem Maße vorläufige, auf Echtzeitbasis erstellte Statistik herangezogen. Doch die tatsächliche Statistik für das BIP, die später erstellt wird, unterscheidet sich stark davon. Es kann sein, dass man bei der alle zehn Jahre stattfindenden Befragung von Haushalten - bei Unternehmen alle fünf Jahre - zusätzliche fünf Millionen Beschäftigte feststellt. Ein paar Jahre später kann man dann die umfangreichen Berichtigungen erkennen. Angesichts der berichtigten BIP-Statistik, die einige der Befragungsergebnisse berücksichtigt und neue Benchmarks enthält, sieht die jüngste Rezession der Jahre 2008/2009 gar nicht mehr so rätselhaft aus. Eine für mich überraschende Feststellung war, dass der Finanzkrise, den monetären Faktoren, anscheinend keine sehr große Bedeutung zukommt. Natürlich spielen diese Faktoren eine große Rolle in den Medien. Doch in den quantitativen, von tatsächlichen Merkmalen abgeleiteten Modellen, in denen sie berücksichtigt werden, bleibt nicht mehr viel davon übrig. Eines der Hauptthemen, an denen sich spannende Entwicklungen der letzten Jahre zeigen, ist folgendes: Die ökonomischen Modelle sind sowohl durch individuelle als auch durch allgemeine Beobachtungen eingeschränkt. Früher gab es... es gibt ein gefühlsmäßiges, ungeschriebenes Gesetz, dass nur Gesamtbetrachtungen herangezogen werden dürfen. Jeder Theoretiker würde sagen: Du sollst keine Zahlen antasten; früher war das ein Tabu. Und es hieß, dass man alles erklären kann. Wenn man die allgemeine Gleichgewichtstheorie verwendet, kann man das übrigens wirklich. Man muss nur Lebensgeister oder etwas Ähnliches einsetzen. Das würde die zustandsbedingte, besser gesagt: ereignisbedingte Sprache des Arrow-Debreu-Modells erschüttern. Finn und ich versuchten, einen Ankündigungsmechanismus für monetäre Schocks zu entwickeln. Wicksell und Frisch, die großen Ökonomen - ich glaube, einer ist Schwede, der andere Norweger - legten Wert auf diese Ankündigung. Finn kommt ebenso wie ich aus der Tradition der Verfahrensforschung. Daher arbeiteten wir natürlich quantitativ und nutzten schon früh den Computer, als das noch nicht so einfach war wie heute. Wir machten uns Sorgen über die Zahlen; darüber, wie groß alles war. Bei der Bauzeit geht es um die Frage, wie lange der Bau des neuen Bürogebäudes dauert. Wie hoch ist der Aufwand für Bürogebäude auf diesem Gebiet? Wir nahmen also diese Einschränkungen vor und grenzten damit den in der Bauindustrie geltenden Wert ein. Wir bestanden darauf, die Gesamtbetrachtung mit individuellen Beobachtungen in Einklang zu bringen. Die individuellen Beobachtungen schränkten das Gesamtmodell ein. Unsere grundlegenden Erkenntnisse lauteten wie folgt: Wenn der Gesamthaushalt über eine hohe Elastizität beim Arbeitskräfteangebot verfügt - beachten Sie bitte, dass ich "Gesamt" fett geschrieben habe; die Entsprechung wird die Gesamtproduktionsfunktion sein - und Produktivitätsschocks durchgehend die vorgegebene Varianz aufweisen, dann besteht eine Vorhersage des Wachstumsmodells darin, dass die wirtschaftlichen Konjunkturzyklen in der beobachteten Art schwanken werden. Übrigens erwies sich die Bauzeit als verhältnismäßig unwichtig, wie Garry Hanson gezeigt hat. Er verfasste diese schöne, abgespeckte Version des Modells, die alle wesentlichen Merkmale erfasst. Die Produktivitätsschocks mussten persistent sein. Nun, wir konnten uns die Residuen der Gesamtproduktionsfunktion ansehen - sie waren persistent. Und die Varianz hatte die richtige Größe. Wir sagten, dass diese Faktoren in diesem Zeitraum, ich glaube von 1954 bis 1980, 70 % der Varianz ausmachten. Wir ziehen die Messgröße der Varianz der Standardabweichung vor, da 85 % zu groß geklungen hätte. Doch wenn die Faktoren bzw. orthogonalen Varianzen zusammengefasst werden - 70 % ist viel - und es keine Produktivitätsschocks gäbe, wäre das als Variable immer noch 50 %. Das haben Varianzen nun einmal an sich. Verständlicherweise störte man sich daran, dass die Varianz so groß war. Das Wachstum des Vorrats an nützlichem Wissen verläuft relativ reibungslos. Viele Menschen sind beteiligt; gelegentlich fanden wir einen kleinen, nicht besonders großen Technologiesprung. Und dann sahen wir diese riesigen Produktivitätsunterschiede zwischen den Ländern, die für praktisch alle Unterschiede im Lebensstandard in verschiedenen Zeiten und Ländern verantwortlich sind. Produktivität wird zur residualen Messung der Leistung der den Wirtschaftssektor steuernden Regeln und rechtlichen Institutionen verwendet, nicht nur zur Messung der Veränderungen im Wissensvorrat. Die erste Quelle ist länderspezifisch; die zweite Quelle ist allgemein. Wie ich schon sagte: Die meisten Unterschiede sind auf Unterschiede in der Produktivität zurückzuführen. Ich betone, dass die Gesamtelastizität des Arbeitskräfteangebots groß ist. Die Aggregationstheorie sagt voraus, dass die Gesamtelastizität wesentlich größer ist als die individuelle Elastizität von Menschen, die unter bestimmten, untereinander gleichen Bedingungen zusammengefasst werden. Unter welchen Bedingungen? Wenn die Bedingungen so beschaffen sind, dass die wesentliche Anpassungsgrenze der Anzahl der Beschäftigten und Nichtbeschäftigten pro Woche entspricht, ist die Gesamtelastizität viel größer als die individuellen Elastizitäten. Das wird durch die Beobachtung bestätigt. Wenn sie gleich wären, wäre das ein Rätsel, eine Abweichung von der Theorie, eine Inkonsistenz. Da empirisch gesehen die wesentliche Grenze der Anzahl der Beschäftigten entspricht, stehen die individuellen Beobachtung und die Gesamtbetrachtung miteinander im Einklang. Wir stünden vor einem Rätsel, wenn diese Elastizitäten gleich wären. Andere Gesamtbetrachtungen sind ebenfalls relevant. Früher gab es eine Datenbasis nur für die USA und vielleicht für Großbritannien, doch heute ist es ganz einfach, auf eine Datenbasis für mehr oder weniger jedes Land der Welt zuzugreifen. In den verschiedenen Ländern gibt es große Unterschiede bei den Marktzeiten je Person im arbeitsfähigen Alter. Auch bei den effektiven Grenzsteuersätzen und den Zeiten, die man in einem vorgegebenen Land verbringt. Diese Beobachtungen ergeben eine genaue Schätzung der Elastizität des Gesamtangebots. Die Schätzung ist die gleiche wie die, die auf den Beobachtungen der Konjunkturzyklen beruht. Das muss alles einheitlich sein; man kann nicht mit bestimmten Annahmen eine Korrelation untermauern und verkünden, dass man es geschafft hat - und dann andere, damit unvereinbare Annahmen zur Untermauerung anderer Beobachtungen heranziehen und verkünden, dass man jetzt versteht, warum das so ist. Die Annahmen, die man trifft, müssen durch Beobachtung eingeschränkt werden und konsistent sein. Und wir müssen darauf aufbauen; das Ganze ist kumulativ. Die große Entwicklung, die die Theorie des Gesamtangebots an Arbeitskräften derzeit durchläuft, ist die Bestimmung des Anteils der Beschäftigungszeit an der Lebenszeit. Wir hören eine Menge über Ruhestand, die Menschen werden älter, selbst Sie, die jungen Ökonomen; es ist vorhersehbar, dass Sie jedes Jahr ein Jahr älter werden. Dagegen kann man sich nicht versichern. Das ist wichtig für die Prognose der Konsequenzen einer Rentenreform. Rogerson und Wallenius haben das gemacht. Wallenius ist heute anwesend; sie hat einen großen Beitrag geleistet und vielleicht sollte sie hier oben stehen. Hier ist ein Druckfehler; es muss LEN heißen, nicht M. Sie ist an der Stockholm School of Economics. Nun, die länderübergreifende Makrobeobachtung... das ist eine 45-Grad-Linie. Sie beginnt bei der Grenzrate der Substitution gleich der Grenzrate der Transformation für die Gesamtproduktionsfunktion und die Gesamtnutzenflussfunktion. Es ist nicht so, dass die Franzosen faul wären, sie haben nur hohe Steuersätze. Und hier gibt es keine freien Parameter; das heißt, einen gibt es, aber das ist auch schon alles, und er ist für alle Länder gleich. Die wichtigen Erkenntnisse über Konjunkturzyklen: Sie stellen optimale Reaktionen auf echte Schocks dar. Steuern, Demographie und Produktivität sind real. Versuche zur Stabilisierung der Wirtschaft sind verfehlt; sie stiften nur eine Menge Verwirrung, verursachen Rauschen und führen zu Unsicherheit, was mit Kosten verbunden ist. Dieses einfache Modell übrigens, das ich zusammen mit Finn verwendet habe und das von Handson vereinfacht wurde, trifft gute Vorhersagen, bis in den 1990ern ein großes Rätsel auftauchte. Was geschah in den 90ern? Im Gespräch mit dem Präsidenten der Minneapolis Federal Reserve Bank fragten wir uns: Warum arbeiten die Leute so verdammt viel, sind sie an ansteckendem Workaholismus erkrankt? Es gab keinerlei Steuersenkungen, keine nennenswerten Arbeitsmarktreformen. Die Produktivität - das BIP pro Stunde, pro Marktstunde - war nur in bescheidenem Umfang gestiegen. Doch unsere Produktivität war stark gestiegen. Im Aufschwung entfällt normalerweise ein Drittel einer Stunde auf Produktivität. In diesem Aufschwung entfielen auf 125 % einer Stunde 25 % auf Produktivität. Dieses Problem quälte mich zehn Jahre lang, bis es gelöst wurde. Ellen McGrattan und ich, wir sahen uns den Aktienmarkt an und fanden heraus, dass es von enormer Bedeutung ist, die Grundlagen, das immaterielle Kapital zu erfassen - genauso wichtig wie das materielle Kapital, die Dinge, die in der volkswirtschaftlichen Gesamtrechnung auftauchen. Die Dinge, die kapitalisiert sind. Immaterielles Kapital - das ist F&E, die Entwicklung neuer Produkte, der Aufbau einer Organisation. Und eines der wichtigsten Dinge überhaupt ist die Investition in Humankapital junger Menschen am Arbeitsplatz. Ein Teil davon wird von Unternehmen finanziert; das ist für ein Unternehmen charakteristisch. Das ist das Kapital dieses Unternehmens. Der andere Teil ist rivalisierendes Humankapital, wie Paul Romer es nennt. Man kann seine großen Fähigkeiten zur Schau tragen und einen noch besser bezahlten Job an einer anderen Universität oder an einem anderen Forschungszentrum ergattern. Was meine ich mit Vorhersage, mit genauer Vorhersage? Wir nehmen Produktivität, Bevölkerung, Steuersätze und das Anfangskapital als exogen an. Wir bauen den Gleichgewichtspfad unter der Annahme einer perfekten Voraussicht, wobei es sich um eine unkorrekte Annahme handelt. Die Menschen haben keine perfekte Voraussicht. Wir führten natürlich einige Experimente durch und fanden heraus, dass wir dann, wenn wir Daten künstlich im Computer erzeugten, wussten, wie das rationale Erwartungsschema aussah. Und die Frage ist: Wie stark unterschieden sich die auf dieser unkorrekten Annahme basierenden Pfade von denen, die auf der korrekten basierten? Wir schufen diese Volkswirtschaft... nebenbei: Sie alle schaffen Ihre Volkswirtschaften, Ihre Götter, Sie haben Menschen in Ihrer Volkswirtschaft. Sie sind zwar künstlich, aber nützlich für die ökonomische Intuition. Es zeigte sich, dass die vorhergesagten und die tatsächlichen Pfade eng beieinander lagen, bis wir zu den 1990ern kamen. Dort gab es eine enorme Abweichung von der Theorie. Abweichungen von Theorien sind der Anlass für die Entwicklung von Theorien. Das gilt für alle exakten Wissenschaften, zu denen die Gesamtökonomie mittlerweile zählt. Es gibt Fälle, in denen die Erwartungen von Bedeutung sind. Ellen McGrattan hat eine, wie ich denke, wichtige Arbeit verfasst und auf die große Schrumpfung um etwa 25 % in den 1930ern und die weniger große Schrumpfung in der Größenordnung von 10 %, die wir in jüngster Zeit erlebt haben, angewandt. Was den Aufschwung der 1990er betrifft - wir müssen herausfinden, warum die Buchgewinne der Unternehmen so niedrig waren. Derzeit sind die Buchgewinne übrigens hoch. Warum waren sie damals niedrig, wo doch jeder weiß, dass es sich um einen Aufschwung handelte? Die MBAs quollen nur so aus den Wirtschaftshochschulen. Warum? Sie wollten Unternehmer werden, Unternehmen gründen, reich werden, gesellschaftlichen Überschuss schaffen. Und warum haben die Menschen so viel gearbeitet? Wie ich schon sagte: keine Steuersenkung, keine Arbeitsmarktreform. Und ich sagte auch, dass mich das ein Jahrzehnt lang gequält hat. Die Lösung bestand in der Einführung der immateriellen Investition. Es war von großer Bedeutung, eine Theorie des fundamentalen Werts des Aktienmarkts zu erhalten, die für die langfristigen Bewegungen des Aktienmarkts im Verhältnis zum BIP gut funktioniert. In Großbritannien variierte der Wert im Zeitraum 1960 bis 2000 um den Faktor 3. Bei Verhältnissen zum BIP sind die Abweichungen meistens gering. In den USA war es das Zweieinhalbfache. Sehen Sie sich den Wert vieler Unternehmen an - Coca-Cola ist viel mehr wert als seine Fabriken, es ist diese kleine Formel im Safe von Atlanta, die Formel zur Herstellung von Coca-Cola, der Markenname. Daneben haben wir Weaties and Cheerios, General Mills, Microsoft, Sysco und... welches Unternehmen hat den größten Wert? Ich meine gelesen zu haben, dass es Apple ist. Sie haben jede Menge Technologie, Know-how, Markennamen; all das wird durch das Unternehmen verkörpert. Und diese Form von Kapital ist von Bedeutung. Es war erforderlich, um das Verhalten des Aktienmarktes erklären zu können. Der Wert des Aktienmarktes entspricht im Wesentlichen dem Wert der Erzeugung von Wirtschaftsgütern, materiellen und immateriellen, zu den Kosten, die sie für die Eigentümer im Hinblick auf ihren Verbrauch verursachen. Steuern und institutionelle Vereinbarungen sind von Bedeutung, hier sogar von großer Bedeutung. Doch wir setzten das ein und sagten: Lassen wir die Produktivitäten bei diesen zwei Aktivitäten unterschiedlich sein. Eine galt für die Produktion von materiellem Kapital - Gebäude, Maschinen, Fahrzeuge etc.; die andere betraf das immaterielle Kapital. Wir nahmen eine residuale Bestimmung dieser zwei Produktivitätsreihen vor und behandelten sie als exogen. Es gab eine Fülle von Hinweisen darauf, dass sie... man kann erahnen, wie sie die Menschen verändern, wir sahen uns noch einmal diese Haushaltsbefragungen an, welche Berufe die Menschen ausüben - sind sie in den Branchen beschäftigt, die in großem Umfang in Tätigkeiten investieren, die mit diesem immateriellen Kapital zu tun haben? Und tatsächlich - es gab eine starke Verschiebung. Die NSF veröffentlicht übrigens F&E-Zahlen, die einen wichtigen Bestandteil der immateriellen Kapitalanlage, nicht des Kapitals, bilden. Es ist problematisch, einen Abschreibungssatz festzulegen, der daraus Kapital werden lässt. Wir konnten nur die Nettoinvestitionen messen. Wie sich jedoch zeigte, wurden die Ergebnisse für unsere Zwecke vom Abschreibungssatz gar nicht beeinflusst. Sie waren so, wie sie waren. Und wir konnten nicht gerade behaupten, dass sie für unsere Methode nicht besonders nützlich gewesen wären. Wir untersuchten sogar das Zeitprofil hundertprozentiger amerikanischer Tochtergesellschaften, die an der Börse notiert sind, der so genannten Anhang-C-Unternehmen; von ihnen stammt etwa die Hälfte der Produktion, das sind diejenigen, die Körperschaftsteuer zahlen. Es gibt einen beträchtlichen Bestandteil von Unternehmen, die alles an ihre Eigentümer und Beschäftigte ausschütten; das wird dann steuerlich als normales Einkommen behandelt. Und sie zahlen keine Körperschaftsteuer - das sind die Anhang-S-Unternehmen. Jetzt aber spreche ich über die Anhang-C-Unternehmen. Ausweislich der Gewinnrechnungen stammt fast die Hälfte der Profite amerikanischer Unternehmen - etwas über 10 % ihrer Investitionen - von hundertprozentigen ausländischen Tochtergesellschaften. Jeder Buchhalter sollte sich darüber Gedanken machen und sich fragen, was da los ist. Die Sache ist die: Diese teuren Investitionen verringern den Buchgewinn. Immaterielle Investitionen zählen nicht zur Produktion; das senkt den Gewinn. Diese ausländischen Tochterunternehmen sind buchhalterisch betrachtet zunächst - nämlich dann, wenn die große immaterielle Investition getätigt wird - nicht sehr rentabel. Später werden sie dann rentabel. Wir erwarteten nicht, dass uns die Bundessteuerbehörde die Statistik zur Verfügung stellen würde, und das tat sie auch nicht. Es wäre einfach gewesen, unserer Bitte nachzukommen, aber es gibt Vertraulichkeitsprobleme. Zum Glück fanden wir ein paar Leute, die sich diese Statistiken angesehen hatten, und die Übereinstimmung war überwältigend. Aber wo tauchen diese Kapitalerträge auf? Kapitalerträge sind kein Teil der gemessenen Produktion. Doch man erfährt etwas über die Kapitalerträge, wenn man sich die Bilanz ansieht, die Geldflussstatistik weist die Einkünfte der Haushalte aus, wir können daraus die Halteperiode für den privaten Sektor ersehen, es gibt Stiftungen... gemeinnützige Organisationen gehören zum Haushaltssektor, aber das ist nur ein kleiner Teil. Und diese Kapitalerträge haben genau die richtige Größe. Normalerweise liegen sie bei etwa 2 % des BIP jährlich. In den späten 1990ern stiegen sie auf 6 % und überboten damit die Produktion um einen abnorm hohen Betrag. Übrigens wussten wir in den 1990ern alle, dass die Wirtschaft boomte. Hier sehen wir das naive Modell ohne immaterielles Kapital. Die rote Linie stellt die tatsächliche Pro-Kopf-Arbeitszeit dar, die blaue Linie ist die prognostizierte Pro-Kopf-Arbeitszeit. Die Abweichung ist riesig. Setzt man das immaterielle Kapital ein, passt alles wie angegossen. Nebenbei: Man kann immer eine ausreichende Menge von Präferenzparametern einsetzen, um das Ergebnis den Beobachtungen anzupassen. Warum wird in Europa, jedenfalls bis vor kurzem, 30 % weniger gearbeitet als in Amerika und anderen fortschrittlichen Industrieländern? Einige sagen, Westeuropäer ziehen einfach aus der Arbeit mehr negativen Nutzen bzw. mehr Nutzen aus Urlaubstagen. Meine Arbeitshypothese, die ich immer noch vertrete, lautet: So groß sind die Unterschiede nicht. Früher haben die Westeuropäer genauso viel gearbeitet wie die Bevölkerung der anderen fortschrittlichen Industrieländer. Das ist kein ansteckender Fall von Faulheit. Wenn man auf Lebenseinstellung ("animal spirits") und dergleichen zurückgreift, dann ist das keine Wissenschaft. Es gibt einen Faktor, den wir messen können - Steuersätze. Die Europäer haben einen effektiven Grenzsteuersatz von 60 %; in der übrigen Welt liegt er bei 40 %. Das reicht, um den prognostizierten Unterschied hervorzurufen. Jetzt beschwört jeder die Finanzkrise als Grund dafür, warum die amerikanische Wirtschaft am Boden liegt. Ich sage: Nein, die Fed, das Finanzministerium, die europäischen Zentralbanken und andere Institutionen haben im September 2008, als sie eine Liquiditätskrise verhinderten, hervorragende Arbeit geleistet. Vor der Gründung der Federal Reserve Bank im Jahr 1913 gab es regelmäßig Liquiditätskrisen, etwa alle fünf Jahre. Die von uns errichteten Institutionen haben uns damals keine guten Dienste geleistet. Es gab immer wieder ernste Störungen der Wirtschaft. Man versuchte verzweifelt, ein Modell davon zu entwickeln - ein Modell, das mit individueller Beobachtung und der Gesamtbetrachtung übereinstimmt. Es ist nicht gelungen. Und die, die das versuchten, waren helle Köpfe; mangelndes Talent ist also nicht der Grund des Scheiterns. Übrigens haben wir unter Heranziehung dieses Modells die großen Depressionen untersucht; Cole und Ohanian haben damit in den späten 1990ern begonnen. Sie brachen ein Tabu, indem sie die große Depression anhand dieses neoklassischen Wachstumsmodells untersuchten. Mithilfe derselben Methode untersuchten wir - mehrere Personen - 16 große Depressionen. Bei der gegenwärtigen amerikanischen Depression handelt es sich ebenso wenig wie bei den italienischen Depressionen in den 1930ern um besonders schwere Depressionen; sie erreichten ganz einfach nicht die Größenordnung, die wir für die Bezeichnung groß forderten. Diese Depressionen gehören nicht der Vergangenheit an. Ich könnte darüber hinaus eine ganze Reihe weiterer aufführen - im Zeitraum 1970 bis 1995 hatte die Schweiz ihre große Depression; außerdem Neuseeland. Die Depressionen in Chile und Mexiko begannen in den 1980ern; Chile hat sich erholt, Mexiko nicht. Es gibt im Zusammenhang mit der Depression viele ungelöste Rätsel. Was geschah in diesem Jahr 1930, warum investierten die Menschen nicht mehr? Sie bekamen kein Geld, das sie hätten investieren können, sagen Einige. Doch warum gönnten die Unternehmen ihren Eignern diese riesigen Ausschüttungen? Die Dividenden stiegen ins Unermessliche. Investitionen für Unternehmen werden hauptsächlich durch einbehaltene Gewinne finanziert. Sie hatten also Zugang zu dem Geld, sonst hätten sie es nicht an die Eigner ausschütten können. Dieses Rätsel hat mich lange beschäftigt. Ich glaube, es war 1976, als ich in Madison, Wisconsin, beim Sommermeeting der Econometric Society die Arbeit von LeRoy-Porter über diese überschießende Volatilität hörte. Unabhängig davon macht Shiller dieselbe Beobachtung. Das Rätsel ist immer noch ungelöst. Sollte es jemand von Ihnen lösen, rufen Sie mich bitte an. Den langfristigen Pfad habe ich bereits erwähnt. Ein weiteres großes Rätsel: Warum lassen sich aus Offenheit im Handel derart große Gewinne erzielen? Eaton und Kortum haben eine wirklich aufregende Entwicklung im Handelsverkehr angestoßen, passend zu den Mikrobeobachtungen auf Unternehmensebene. Sie gehören zur Tradition der komparativen Vorteile. Es gibt die steigenden Gewinne des von Krugman auf den internationalen Handel ausgeweiteten Dixit-Stiglitz-Modells. Und es gibt das klassische Modell. Übrigens: Wenn man auf Beobachtungen beschränkt ist, auf beobachtete Flüsse, ermöglichen all diese Modelle kleine Handelsgewinne. Diese Abbildung gefällt mir; das sind Zahlen aus Madison, die GGDC-Geary-Khamis-Kaufkraftparität. Produktivität der EU im Verhältnis zur USA - ich verwende Produktivität, da in jüngerer Zeit die Arbeitszeit in Europa vergleichsweise zurückgegangen ist. Etwa 50 Jahre lang, vor dem zweiten Weltkrieg, erreichte die Produktivität der Westeuropäer nur 55 % der Produktivität der Amerikaner. Seit den Römischen Verträgen von 1957 holten die ursprünglichen sechs EU-Mitglieder den Produktivitätsrückstand auf und fielen auch nicht mehr zurück. Warum? Die später Beigetretenen, meine Freunde aus Polen... das ist eines der wichtigsten, bedeutendsten Länder dieser Gruppe; gestern beim Abendessen lernten wir einige Vertreter aus Estland kennen, und wir hatten eine faszinierende Diskussion. Sie holen rasch auf. Das ist das Pro-Kopf-BIP. In Westeuropa, ebenso wie in Japan, liegt es bei etwa 70 %. Doch die prognostizierten Gewinne aus der Offenheit im Handel sind viel kleiner. Sie sehen also diesen großen Gewinn, Ihre Theorie sagt aber diesen Betrag voraus, was tun Sie jetzt? Sie können sich so lange am Kopf kratzen, bis er kahl ist. Wenn es nicht der Handel ist, was ist es dann? Nun, Ellen McGrattan und ich, wir erweiterten das Modell auf... Schumpeter sagte, zur Endogenisierung der technischen Entwicklung seien Monopoleinkünfte erforderlich. Deshalb stürzt sich jeder auf das monopolistische Wettbewerbsmodell. Wir entwickelten eine andere Herangehensweise, eine, die im Wettbewerbsgleichgewicht bleibt - die konvexen Kegel, die wir in der Makroökonomie verwenden, auf denen die gesamte Wachstumszerlegung beruht - es ist ganz einfach, mit den Daten, den Erweiterungen zu interagieren. Wir führten das Konzept eines Standorts ein. Und es gibt Standorterträge. Wir fügen außerdem die kombinierte Produktion hinzu. Wir erhielten viel größere Gewinne, aber sie waren immer noch viel zu klein. Das war es also nicht. Anscheinend ist die Verbreitung von Wissen sehr wichtig; man gibt alles daran, das zu verwenden und auf produktive Art zu modellieren. Eine andere Sache ist der Wettbewerb. Empirisch gesehen ist der Wettbewerb mit höherer Produktivität verbunden. Unsere Eisenminen in Nord-Minnesota verdoppelten 1982 ihre Produktivität - ohne neue Technik, einfach durch eine Änderung der Arbeitsvorschriften. Wie ist es dazu gekommen? Die brasilianischen Minen wurden in Betrieb genommen, und allein diese Wettbewerbsdrohung reichte schon aus, die Produktivität der Minen in Nord-Minnesota, in Kanada und, wenn wir schon dabei sind, in Schweden zu steigern. In Australien passierte es erst zehn Jahre später, als die indischen Erzminen in Betrieb genommen wurden. Das ist empirisch, nicht theoretisch. Und es ergibt eine bessere Theorie darüber, warum diese dezentralen Mechanismen empirisch so viel besser funktionieren. Ich komme zum Schluss. Mein Auftrag an die nächste Generation von Ökonomen, an Sie, lautet: Machen Sie unsere Wissenschaft noch besser. Ich weiß, dass Sie das tun werden, und ich glaube, dass es Ihnen Spaß machen wird. Wir haben einen schönen Beruf, die Gesellschaft behandelt uns großartig. Wir leben länger, wir müssen uns nicht in diese angespannten Unternehmen begeben... und sobald Sie als Studentin oder Student Ihr Examen bestanden haben, vom ersten Jahr an, sind sie Kolleginnen und Kollegen. Und ich lerne sehr viel von ihnen. In jedem Kurs, den ich gebe, sage ich den Studenten, dass ich mehr lernen will als sie. Auch der Zeitpunkt, den Sie sich dafür ausgesucht haben, in diesem Bereich tätig zu werden, ist gut gewählt. Und die kleinen Finanzkrisen, die Wirtschaftskrisen waren gut für uns; viele helle Köpfe wollen jetzt Wirtschaftswissenschaftler werden. Sie sind der Lebensnerv einer wirtschaftswissenschaftlichen Fakultät. Vielen Dank.


This is the golden age of aggregate economics. So much has been learned, and so much more remains to be learned. Economists use theory and economic statistics to construct a model economy and determine the quantitative answer to a given question. The model used, which is an instrument to draw scientific inference, is an abstraction of a complex reality. Economists following this discipline come up with the same answers independent of their political persuasions. I will briefly review the successes of this methodology in explaining why economies display business cycle fluctuations. I will review work that uses this methodology to answer questions in financial economics, in trade, in development, in prosperity and depressions, and in public finance. I will discuss deviations from theories that need resolution as well as the successes. The nature of shocks is important. With totally free preferences and technology, general equilibrium theory is vacuous. A model can be constructed which gives any answer that might be sought.
Micro observations are increasingly used to test the aggregate model being used. Everyone using this methodology finds that only a high willingness of the aggregate household(s) can account for the aggregate behavior of labor supply. The micro observation for full-time, continuously working males is that there is little variation in hours worked associated with variation in compensation per hour. This suggests to those ignorant of aggregation theory that the aggregate willingness is small. If the variation in labor supply is primarily in the number working and not in hours per working person, aggregation theory predicts that the aggregate labor supply elasticity should be as it is, much larger than the labor supply elasticity of the people being aggregated.
Some important puzzles remain: Why are the empirically determined gains from openness so much bigger than those predicted by any of the three trade models? Why is the stock market so volatile? What gave rise to the Great Depression? Why is there now such great disparity in average consumption across countries?