I should say this last academic event,
that's open for the general public, for all participants, here in Lindau.
Tomorrow will be in Mainau.
This panel continues a tradition that was started three years ago.
To have a discussion on the origins of the research and the significance
of the research, that has been the subject of a prize.
In this case it's not just one prize, but two prizes.
Namely, the prize in 1996, for analysis of incentives in situations with asymmetric information,
and the prize in 2007, for theory of mechanism design.
And I should say right away that there are two other prizes that are also related,
namely the one in 1994, equilibrium in non-cooperative games.
And the one in 2001 on markets with asymmetric information.
One of the interesting features
that might suggest that the split is inappropriate, is that there is one condition floating around
which is known by now as the so-called Spence–Mirrlees condition,
which links Mike Spence's work on markets with asymmetric information
and Jim Mirrlees' work on optimal taxation.
The common feature was incentives, but the 2001 prize was all about markets.
Whereas the prize here is not about markets, but to some extent about governments,
to some extent about welfare economics.
I'll explain that and I think the Laureates themselves will explain it even more as we go along.
We should, in this context, remember, that for both of those prizes there is one person missing.
For 1996 it's William Vickrey,
who actually died between the announcement and the ceremony.
For 2007 it's Leo Hurwicz, who died, I believe, in the year after he was given the prize.
Before I hand over to Jim, to talk about his research, I'll make a few brief remarks on
the research of Vickrey and Hurwicz.
Vickrey was very much, and he wrote in the early 60's, to give you an impression of timing,
he was very much concerned with what you can do in terms of government policy.
When you don't know people's preferences, people's abilities,
and how does asymmetric information affect what the government can do,
and also affect the effects of any measure that the government might take.
He worked on three different areas.
Taxation.
I suspect that Jim will be linking up on that.
Public sector pricing and the thing for which he has become most famous is auction design,
he invented the so-called Vickrey Auction.
The question is, what can a seller of an object get if he puts it up for auction?
If the seller knows what the object is worth to the different buyers,
he'll go to the buyer with the highest valuation and will say "well you pay me your valuation minus epsilon".
So basically the seller collects what it is worth to the buyer who values the object most.
If he doesn't, well think of an auction.
The buyer with the highest valuation if he knows that he has the highest valuation,
what's he going to do?
If he knows that he has the highest valuation, he's going to shade his bid.
Is there anything one can do about that?
Well, not really.
Is there any auction, any other design that one might use in order to improve what can be collected?
Well, not really.
But Vickrey had the interesting idea that if the buyers know their valuations,
then how much is the buyer with the highest valuation going to shade?
Well down to the level of the second highest valuation,
plus perhaps some epsilon that we're going to neglect, because he knows that
nobody else is going to overbid him then.
So that's the basis of the idea of the Vickrey auction.
The so-called second price auction.
Ask each person how much the object is worth to you, to this person,
award the object to the person who values it most,
and let this person pay the price named, the value named by the second highest bidder.
It turns out, that this procedure, has the interesting feature that for every participant,
truth telling is an optimal strategy.
And not only that, it's an optimal strategy, regardless of what the others do,
which is where we link up with the '94 prize.
Many of these situations are situations of strategic interdependence.
Where what one person thinks of doing, depends on what this person expects others to be doing.
Vickrey's second price auction was the first example of what is now known as a dominant strategy mechanism.
A procedure where what each person wants to do is independent of what the others want to do.
And, there are some interesting features associated with the second price auction
and with dominant strategy auctions in particular under constellations of asymmetric information
even between the bidders themselves.
I expect that Roger Myerson is going to say a little bit more about that.
So, let me now turn to Leo Hurwicz.
Leo Hurwicz was concerned with theories that competitive markets,
are wonderful mechanisms for processing information about what should be done.
This goes back to Hayek who made precisely this claim.
And he asked the asked the question "what does that actually mean?"
We're used to drawing for a single market a supply schedule, a demand schedule,
and then we have an intersection and we have equilibrium transactions and an equilibrium price.
Well if that's all there is to it, why not just have a planner,
assign everyone the equilibrium transactions and that's it.
There's no element of information processing in this,
but suppose that beforehand, we do not know, what supply schedules and demand schedules are.
Then the theory tells us, we get different points of intersections
and our planner doesn't know, which is the right one.
So the notion that the planner can tell what should be done, doesn't work.
Hayek is right on that one.
But does a market system know it?
By just drawing supply and demand schedules, we haven't provided an apparatus
for dealing with that question.
So Hurwicz articulated the problem in a different way.
He asked, suppose we have the participants transmit messages to whoever is wanting this system.
And, whoever is wanting the system, think of a big computer programme
that gets these messages as input and then provides suitable output is going to assign some results.
What messages will people deliver?
How do they depend on how the computer is programmed?
That leads to notions of incentive compatibility and notions of implementability.
We can only implement certain outcomes,
like points of intersection of supply and demand curves depending on what these curves are.
If we have a system of messages, since the people find it appropriate to convey messages in such a way
that these outcomes are actually realised.
Now, you can immediately see that the problem of game theoretic interaction
enters in a very dramatic way and we are again back to the issue of game theoretic interdependence.
The important contributions of Vickrey and Hurwicz, were for Vickrey to introduce the problem
of policy towards asymmetric information together with the construct of the second price auction.
For Hurwicz, to articulate the problem of what do we mean by the notion
that this social system processes information appropriately and gives desirable results,
including of course, a market system.
On that note, I want to end my sketch of these two scholars' contributions
and hand over to Jim, who will talk about his own research on taxation and incentives.
I want to mention these very important contributions of Vickrey and Hurwicz just straight away.
I approached these questions,
in what seem to me, to be, a slightly more concrete situation.
Peter Diamond and I were working on optimal taxation.
I would, I think on this occasion, like to put that rather more grandly.
We were really on our project to reconstruct welfare economics an a proper sense.
Because welfare economics as it had been taught to us,
just talked about how you could achieve something that was Pareto efficient.
And it never got as far as in Samuelson, it certainly did as maximising your welfare function,
that's actually having a criterion that would allow you to select amongst different things.
Remember that, Pareto efficient allocations can be quite dreadful.
You can have people starving and things like that.
That wasn't what one wanted.
So if you had, around with welfare functions, then of course the standard treatments
would tell you to use lump sum transfers.
There were a number of really interesting papers that got some way away from that.
Certainly Paul Samuelson on social indifference curves was one of the papers that stimulated
when to ask, well, "So, if you can't do lump sum transfers, why was that?"
What were they really? What was the difficulty?
That was of course what led us simply to jump in to thinking about taxation, following Frank Ramsey,
who back in the 1930's, had on Pigou stimulation started a theory of optimal commodity taxation.
But of course none of these things were very explicitly in the same kind of general setting,
as you would have in Arrow–Debreu.
So that was what we were doing.
I think we got quite a long way with that.
I'm going to make this a little bit more personal, than what you were saying there,
because one of the mysteries in what I was up to back then, is why wasn't Peter and I who were doing this together.
It was actually, it seemed to me then, only a relatively small step to go from
talking about optimal commodity taxation and there's material in our joint papers
about effectively, an income tax situation where you might have something more complicated.
But still there seemed to be a nice feeling.
Speaking as somebody who likes differential equations and non-linear functions and things like that.
One could have non-linear taxation and be more explicit about asking
what sort of shape could a non-linear tax schedule be, if you could do it.
No reason why you shouldn't have a non-linear tax schedule.
But the interesting thing was, when one came to try to analyse that question
of course, the right sort of context to place it in, was to have a continuous distribution of people
with types spread all over, from sort of, low wage to high wage.
Without any particular limit and you wanted to...
At first I thought that would be a perfectly straightforward optimization problem,
that you have to maximise something, that the obvious one to use was integral of the utilities of the people.
Subject of course to some production constraint.
I'm not sure if it was the first thing, but I think for at least the entertainment value,
it should be treated as the first thing.
What I did was to say well, "What would things be like if we were to use a model,
which, unlike most of the papers discussing these issues of welfare maximisation
had simply a single thing, like income, and gave arguments for equalising income for example?"
So let's have a model where, as you saw this morning, utility would be a function of consumption
and work that people do, labour supply.
Actually the particular model that I was using was like that, but you took it that people varied
and the productivity of the hours of work.
So, it was hours of work that was in the... [inaudible]... besides consumption.
The first thing to do, should have been, simply to say "what's the right answer
and what are the lump sum taxes that you'd want?"
The answer, provided that people had normal labour supply in the technical sense, was that the
higher the productivity, the ability of people, the lower should their utility be, and the outcome.
Well of course you see, nothing could be less incentive-compatible than that.
Why should people reveal the fact that they had high ability,
if having high ability would consign you to having a lower utility.
You could surely manage if you had to pass a test in order to give the right grade
that could be used as the basis for lump sum taxation.
You would fail any exam that anyone put to you.
I know I'm making the absurd assumption that people are egotistical, selfish, rational people,
but I'm not the only economist who's had that assumption.
You see this is driving one straight to incentive compatibility,
which is of course what Leo Hurwicz had been doing in another way,
but it still didn't immediately get written out that way.
So you then go onto the problem saying "No there's just going to be a tax schedule,
there's just going to be consumption as a function of the amount that people earn."
So you won't use any information about people's types.
So that's just a matter of writing down what that means and solve the equations.
Write it down. What a mess.
At this point I will bring Vickrey in to the story, in a way that he should have played
a more important part for me than he did.
I knew a number of his papers and I was a great admirer
and he certainly had conveyed these concepts of incentive compatibility and so on and some of the things I had read.
But in an economic journal paper in 1945, he had pretty much defined this optimal income tax problem.
Perhaps I've said enough, to sketch.
And, he'd written down some first order conditions and said "I don't see what to do with these, it's a mess."
He essentially got the same mess that I got years later, more than 20 years later,
but fortunately I wasn't prepared to give quite up so easily.
I dare say that was because computers existed by my time.
And, so I thought well at least that's a possibility of computing some answers.
Then I realised that the statement that people are maximising subject to a budget constraint,
that doesn't involve their type in any way.
It was the equivalent to saying that each person chooses what he's doing
in preference to what anyone else is going to be doing in the equilibrium.
So that's the public finance equilibrium with incentive compatibility,
the term I didn't use, but there it was.
And the point of that was of course that then, pretty much instantly,
set others an envelope condition that says the derivative of maximised utility
with respect to the type of the individual, the ability of the individual,
is going to be equal to the partial derivative of the utility, with respect to the type of the individual.
Then you look at it and say
It's just the same sort of thing.
Going to be no problem with that.
Well of course you think a bit and realise there are problems.
But I'm sure, I've pretty much run out of time.
So I can barely mention what the problem... So much of the time in dealing with this paper
was spent on proving rigorously that certain things couldn't happen.
That indeed, it was valid to have the envelope condition under the assumptions that I was prepared to make.
Creating a computer programme, that was before I had learned any computer languages.
It really worked by getting our computing assistant in Nuffield College
to do it and then I got some research assistants, who did it and then I would,
and nothing would work, so I'd go through it and say "No, no, no, you've got to change it to this."
And it worked.
But, it wasn't simply a straightforward control problem, because you had to cheque to see
whether perhaps a whole group of people of different skill levels would actually
choose the same consumption and labour supply levels.
So there were interesting complications, but not of a kind that one would get a Nobel Prize for sorting out.
And at last, here is where I better end.
We got the first computations of what an optimal tax schedule should be like.
I mean 25% of people should be induced not to work.
The thought crossed my mind that this might not be a publishable result.
What I had done of course, and I think this is what you'd might expect
to do yourselves, if you were engaged in a similar exercise,
was that I'd taken the simplest distribution of skills that seemed reasonable.
One in which the mean of the logarithm of ability was equal to the standard deviation
of the logarithm of the ability.
If inequality is rising, one day that might be the right answer.
Can you hear? No.
How about now? Is that okay?
When the four of us were deciding how we would organise this panel, we decided that I would talk
about Nash implementation.
And that's what I'm going to do, but I'd just like to say a word first about how I got into mechanism design.
Actually into economics in the first place.
It was by accident.
I was studying math in college, which I enjoyed, but for some reason I wandered
into an economics course, which was taught by Kenneth Arrow.
I didn't know who Arrow was at the time, I certainly found out later.
It so happened that in this course he talked both about Vickrey and about Hurwicz.
So I saw the second price auction
and I saw Hurwicz's conceptualization of the mechanism design problem almost simultaneously
and I thought this was wonderful.
And I changed direction and I ended up doing a PhD with Ken Arrow and working on mechanism design myself.
So, let me turn to Nash implementation and I've prepared some slides,
because I wanted to show you an example.
Martin mentioned that one of the beautiful properties of the second price auction is that,
in that auction, it's a dominant strategy to reveal your true valuation for the good being sold.
And that means, that the second price auction implements an efficient allocation,
because the buyer who has the highest valuation, will bid his valuation and therefore
actually be allocated the good.
So, this is a dominant strategy implementation of the efficient social choice function, if you like.
Well, unfortunately there are many circumstances in which dominant strategy implementation
is not possible and let me give you such an example.
Let's look at a society.
It's a very small society, which consists of two people.
Alice and Bob.
Alice and Bob are consumers of energy and there's an energy authority,
whose job it is to figure out what kind of energy Alice and Bob are going to consume.
There are four choices: gas, oil, nuclear power and coal.
And the energy authority has to pick just one of these, it's too expensive to have more than one.
Now, what the energy authority would like to do is to choose an energy source which accords
with Alice and Bob's preferences, but Alice and Bob may have different preferences
and furthermore, the energy authority may not know what those preferences are.
Let's imagine that there are two possibilities, two states of the world.
In state 1, Alice likes gas the most and the oil and then coal and then nuclear power.
And similarly for Bob, in state 1 and in state 2 they have the
preference rankings that I've indicated on the slide.
That would suggest that in state 1, if the energy authority knew that state 1 was the actual state, it would choose oil.
That looks like a pretty good compromise between what Alice and Bob want.
Whereas in state 2, gas looks like a pretty good compromise.
But, the problem as I said, is that the authority doesn't know the states.
Now, it would be nice if the authority could just go to Alice and Bob and say
But the problem is that, both Alice and Bob have an incentive to misrepresent and that's pretty easy to see.
Notice that Alice in both state 1 and state 2 prefers gas to oil.
So Alice has an incentive to try to make the authority think that state 2 is the actual state,
because then the authority will presumably choose gas.
So she'll always say gas, and you can check that Bob always prefers oil to gas,
so he always has the incentive to say state 1; the poor energy authority will have
no idea what the actual state is.
Bob says state 1, Alice says state 2.
So, dominant strategy implementability is not possible,
but there's still something we can do and this 2x2 matrix is the solution.
That's a game or a mechanism, in which Alice chooses rows and Bob chooses columns
and the outcome, the energy that's actually adopted is the intersection of their two choices.
So, if Alice chooses the bottom row and Bob chooses the left column the outcome will be nuclear power.
Now, I'd like to show you that this little mechanism actually implements
the energy authorities' goal, which is to get oil in state 1 and gas in state 2. And why is that?
Well, suppose that state 1 is the actual state.
Now, Alice and Bob know their preferences, so they know which state is the actual state.
Look at it from Alice's point of view, if she anticipates that Bob is going to choose the left column
then she's going to want to choose the top row.
Why? Because in state 1, she prefers oil to nuclear power and if she chooses the top row, she'll get oil,
if she chooses the bottom row, she'll get nuclear power.
She'll choose the top row.
The anticipation that Bob will choose the left column, is well-founded because actually,
Bob will want to choose the left column regardless of what Alice does.
If Alice chooses the top row, Bob will go left, because he prefers oil to coal
and if he thinks that Alice is going to choose the bottom row, he'll go left,
because Bob prefers nuclear power to gas.
So, in other words, Alice going top, Bob going left, is a Nash-Equilibrium,
leading to the optimal outcome.
In fact, you can show, it's not hard to show, that it's the unique Nash-Equilibrium of this game.
And, I won't go through the argument, but you can also cheque that in state 2,
Alice choosing the bottom row and Bob choosing the right column,
is the unique Nash-Equilibrium and that leads to gas, which is the social optimum in state 2.
So, in other words:
This mechanism implements the designers' goals.
Now this is just an example.
You might wonder, as I did:
How, if you didn't already know that this mechanism worked, you could find such a mechanism
other than experimenting and trying lots of mechanisms out?
At the time I came into the subject, there were some brilliant examples
of mechanisms, which implemented important social choice functions.
So, David Schmeidler had a beautiful implementation of the Walrasian social choice function.
That's the social choice function which, given people's preferences
and producers production functions, it implements the competitive equilibrium outcome
in an incentive-compatible way.
And Leo Hurwicz had done the same thing for the Lindahl correspondence.
But I was wondering, could we look at the question more generally?
So, here is a general statement of the problem.
The social planners' goal, or the social function to be implemented
is a function from states of the world, which the designer doesn't know, to outcomes.
In the little example that I showed you, the possible outcomes were the different choices of energy.
And a mechanism is just a game where each player has a strategy set, or a message space,
and their choices of strategies or messages lead to some outcome.
And a Nash-Equilibrium of this mechanism as in the example, is just a configuration of strategies,
such that each player is maximising his or her payoff, given what the others are doing.
So no unilateral deviations pay.
We say that the mechanism implements the social choice function,
if the set of Nash equilibrium outcomes coincides with the set of optimal outcomes for every possible state.
So that's the general problem.
That problem, by the way, was stated by Leo Hurwicz.
Leo looked at important examples, like Lindahl, but did not look at the general, didn't make an attempt at asking
And I went about it by trying out lots and lots of examples over an embarrassingly long period of time.
And at the end of the story I discovered that the key thing that's implementable
which social choice functions had in common, was that they shared a monotonicity property.
And this monotonicity property says the following.
Suppose that in some states outcome A is optimal.
And now, suppose we change the states.
We change people's preferences in such a way that outcome A doesn't fall in anybody's preference ordering vis-a-vis B.
So in state theta A is optimal.
In state theta prime A doesn't fall vis-a-vis any other outcome B in anybody's preference order.
Then monotonicity insists that A should also be optimal in state theta prime.
And this turns out to be the key to Nash implementability.
You can satisfy that equation up at the top only if monotonicity is satisfied
and with a couple of other relatively weak conditions or at least relatively weak in many circumstances,
you can also find a mechanism, and there's an explicit algorithm for finding a mechanism, which will
satisfy the equation at the top.
So that was the story with Nash implementability.
Since then, the monotonicity idea has been extended to other equilibrium concepts,
some getting perfect equilibrium, ex-post equilibrium, trembling hand perfect equilibrium for game theory aficionados.
And also notably to Bayesian equilibrium which I believe that Roger will be talking about next.
So, thank you.
Do you want to say anything about the temporal relation for when
the brilliant insight on monotonistic became relative to your thesis being submitted?
to suddenly see the whole thing clearly and I thought we should all know that.
And then suddenly, what nobody saw before becomes clear.
I get to talk about the Bayesian side of the mechanism design subject, as it was honoured in 2007.
I should say, Leo really worked principally on the... Eric was talking about an example,
the Nash implementability where the normal assumption in what you just heard was,
the individuals in the economy or the society share information, but the coordinator who's trying to help them, doesn't know.
The Bayesian approach that I'll talk about now, is where the individuals in sight
just have different information and the coordinator doesn't know anything either,
but is quite devious in communicating with them or can be potentially devious in approaching them separately.
And Leo Hurwicz worked principally on the Nash side.
I worked principally on this Bayesian side and Eric's worked on both. So I get to do this one.
To talk about the history... And it's such a pleasure to be able to talk about the history of these ideas.
As Martin said we... Precursors, both Eric and I, look at us, we were the same generation,
we were following Leo Hurwicz.
I want to also mention, as Eric in graduate school, I was studying Leo Hurwicz's writings very carefully.
I was at the same time, not very far, not many blocks away, studying also John Harsanyi's writings
and I'll try to emphasise what's important about that.
Leo Hurwicz clearly, as Martin said, was influenced by Hayek, who, in his classic 1945 article,
noted that the debates about capitalism versus socialism didn't seem...
The theoretical debates about superiority
of capitalism or socialism didn't seem to be going anywhere, because whatever he said on prices
in favour of the free market system, the socialists could say the socialist planners
could just talk about prices also.
And that's where Hayek realised whatever's going on, it's about communication.
It's about information is decentralised in the economy and coordination needs to be...
The coordination of resources and production must use information
from everyone in the economy and use information that no one person has.
And perhaps it would be very difficult, certainly before the age of modern computers
for the central ministry to collect all that information and perhaps there's something more fundamental.
By the way, Hayek then went on to say that he thought among the economists
who were the worst about understanding that it's about communication
were the mathematical economists of his day.
Which was not a statement about mathematics, but simply the state of the art in a particular part of the profession.
Leo Hurwicz understood that mathematics is very flexible
and if there's something fundamental we are missing about how to think about something,
we ought to be looking for a mathematical way to do it.
Whatever Hayek might think.
The other important, as Jim mentioned.
The precursor was Paul Samuelson's 1954 paper which observed in brief
that when you're trying to find out how much public goods we should produce and you go around asking people
Well, if it's free, they might exaggerate how much they want it and if they have to pay
the amount that they say they might want, they might understate how much they want it
and there seems to be an incentive problem and he remarked that it's just not going to work.
Lindahl and other theories are going to give people the wrong incentives.
And that of course was the idea that both you and Hurwicz were clearly inspired by.
Leo Hurwicz's 1972 paper, in brief, looked at private good allocations and realised,
everybody thought public goods were hard, but private goods, those we know how to do markets for.
He said "no actually, the private good has the same incentive problem or can."
That certainly if you have the only information about the cost structure in your industry,
you might have an incentive to misrepresent it to people, so as to achieve the monopoly price.
So, the information was available in private good markets as well,
and that was Leo's brilliant insight that the problem was one of communication,
but of incentives to communicate, and his phrase incentive compatibility crystallised things.
And then there was the problem of what did incentive compatibility actually mean
and it took a few years, in the 1970's for Leo and others, like Eric and I and many others,
to sort of realise that some of us were interpreting it one way and some the other.
The Bayesian approach.
Let me just back up and say, on the history, I want to talk about Harsanyi.
Actually, it occurs to me, from the Nobel prize, let me back up and say
the title mechanism design theory is in the English translation,
with the Swedish academy of sciences accused us of participating in.
And it's a term that, I use that kind of terminology in my papers as Leo and Eric, I know you do.
But, I had a paper where I boldly said this mechanism design theory paper
was a paper about game design; it's about nothing else, as a single game, but designing a game.
It occurs to me that the same terminology was more appropriately applied to what
Al Roth and Lloyd Shapley's Nobel prize, game design, market design.
I think what we're talking about is the theory of design of communication systems or coordination systems.
I like to think of it as a theory of optimal mediation.
Where a mediator is going to go back and forth between people and enlarge the possibilities,
their strategic possibilities, because what you say to the mediators is like
and that's creating some strategic options.
What to say and the mediator will then react and perhaps carry some information back to others,
perhaps some social decisions might be controlled by the mediator or perhaps individuals in society
have some inalienable effort variables they control and how should we think about this.
I would like to say, I think what, the part of the subject that I embrace.
I think that it's really about understanding efficiency.
Go back to Pareto, someone who didn't win a Nobel prize, because they didn't exist when he lived.
Understanding what Pareto efficiency means, when we start talking about transactions
among people who have different information and who have difficulty trusting each other.
But of course you were just talking about a different part,
so now I know why that phrase isn't on your website to describe what mechanism design might mean,
but certainly for the Bayesians.
I want to emphasise the problem as I sought as being "what do we mean by efficiency?".
What should economists mean by efficiency of a market or a society
or an organisation where some transactions are occurring,
among people, who have different information and have difficulty trusting each other?
I want to include in that both have difficulty trusting each other's testimony about what they privately know.
And perhaps, have difficulty trusting each other about what they promise to do.
if I can't see what you're doing, if I can't see how hard you're working
and you can't see how hard I'm working.
Harsanyi wrote a classic paper in 1967, it's a long three-part paper and he's gradually
exploring what can we mean about games where people, at the time the game is played,
actually have different information.
And, that clearly has to be a general model of transactions among people who have different information.
Before, the signalling and economics information prizes of 2000 or 2001.
talking about people having different information.
The idea, before the late 1960's...
Vickrey in 1961 is the earliest paper I can think of that seriously, analytically deals with
transactions where people have different information.
Almost everything in formal economic analysis assumes everybody has the same information
and almost everything certainly before 1961.
And in the 1970's it becomes something we all want to understand better
and many of us almost independently come to it.
To me, Harsanyi's attempt to formulate a general model of games with incomplete information.
He goes through a number of steps where he says, you could give the person something
that they know, that other people don't know, but then you have to say what does the...
Player 1 knows something that player 2 doesn't know, but you have to ask what does player 2
believe about what player 1 knows.
And what does player 1 believe what player 2 believes and what does player 2 believe about
what player 1 believes player 2 believes and so on.
And the model got more and more complicated and then he cut the Gordian knot and said:
Here's the general model. We'll have a set of players.
Which we'll assume is common knowledge, everyone knows that everyone knows it and so on.
And, for each player there's a set of choices that are common knowledge,
there's a set of types that are common knowledge and everyone's payoff might depend on
his or her and everyone else's choices and types.
The type is a random variable that describes the private information of an individual.
A player's type is whatever that player knows at the time the game is played
that is not common knowledge among everyone in the society, in the game.
And then, we have to put a probability structure on.
The simplest way to do it, is to sort of simply put a joint probability distribution on the types.
A joint distribution on the types of all the players and that was Harsanyi's general model.
To me, William Vickrey's paper does a brilliant analysis of what we've later called a Bayesian Game,
ever before Harsanyi.
I suspect, I wasn't really in the profession in the interim.
I wasn't in the profession in the interim. Period.
I suspect in the interim between 1961 and when people started reading Harsanyi
a lot of people would have looked at Vickrey's paper and said "it's about auctions."
I haven't been to an auction lately, so I don't really care very much about it, but perhaps you have.
Clearly Vickrey understood, it was about information and planning
and after people had studied Harsanyi's general model, then auctions, especially with the
techniques that Vickrey taught us, that Vickrey exhibited so early,
where a beautiful example of a general Bayesian game in which there are prices and,
in which prices are going to be formed, based on information.
Information of the bidders, is going to affect their bids, but as a result of the game there will be a price.
So here is price and allocation of resources, who wins the object and gets the allocation?
Depends on the rules of the game and Vickrey began studying them.
He found the first of many revenue equivalence results, in his case, that the first and the second
price auction that were so interesting, happened to give the seller the same expected revenue,
that was interesting.
When you look at it from a general Harsanyi viewpoint, suddenly you're not surprised to see
in George Akerlof's early paper on markets for lemons,
the type of the seller was information about the qual...
I'm selling my car to you, I'm player one you're player two, who's going to buy my old car.
Perhaps, if we can agree on a price, but I have private information about
how many times it's broken down in the last year.
I know something about its quality, so my type is I might know I have a high quality car
or a low quality car and suddenly if you buy the car from me, your payoff depends on my type.
That doesn't happen in the private values model, that was what Vickrey looked at in his classic paper.
The private values model is good, but that can have common value auctions.
And putting all those together, winner's curse effects wouldn't exist in private values model,
where everyone knows what the thing they're buying is worth to them.
Whereas there's uncertainty about the quality of the object being sold,
then suddenly people have to worry about what did other people know, when they made the bid that they made.
So, Harsanyi's general model, opened the door to assimilating that and many other things into a common framework,
to seeing all these things, all these applications and signalling
and insurance adverse selection models of the Rothschild-Stiglitz classic paper.
All of them as cases in some sense, that could be modelled if you had finitely
many people in the market as Bayesian games.
So, to me the general... What Leo Hurwicz then taught us, was to think about...
Under some circumstances and I think Eric's paper with Dasgupta and Hammond early on,
was one of several discoveries of the revelation principal and I was independently working on it.
They understood that for different solution concepts, sometimes the revelation principal applied.
sometimes it didn't.
The revelation principal said,
for any Bayesian equilibrium you could imagine of any communications process that the mediator
might set up when intervening in a Harsanyi-Bayesian game,
there would exist an equivalent honest equilibrium where everyone tells...
The mediator confidentially says to everyone "what's your type" and then if people have
private decisions to make about effort, tells people confidentially "this is what you should do"
after collecting all of this private information.
If there are some general social decisions that the mediator controls, then the mediator makes those choices.
The mediator can simulate any other equilibrium of any communication system,
by just using plans, mechanisms or decision rules that make honesty and obedience an equilibrium.
If everyone thinks everyone else will be honest, no one has an incentive to lie.
And that's our Bayesian interpretation of Leo Hurwicz initial idea of incentive compatibility.
Why is that important?
What's really going on I think, is...
The revelation principal and Hurwicz's definition of incentive compatibility
that suddenly made the question of finding the, for whatever social welfare function you might write down.
The social welfare function could be simply give the most to me, I want the highest expected utility
and everyone else has to just, you know, live it.
Or we could have an average, of our respective payoffs.
Whatever social welfare function, greedy or asymmetric or symmetric we might choose to write down.
The best you can do for that social welfare function, can be achieved by just considering
these honest and obedient plans, where nobody has any incentive to lie or disobey the mediator.
To lie to the mediator when providing information or to disobey the mediators recommendations about efforts.
And, subject to these incentive constraints.
The constraints I just said, the incentive constraints that you shouldn't want to deviate, by lying or disobeying.
Those incentive constraints are from a wide-class of elementary examples, easy to write down.
So, I would argue suddenly what we had in economics, was a formal mathematical structure
in which we could see that part of the economic problem was incentive constraints.
Incentives to get people to provide information that they know privately.
The problem of providing people incentives to exert efforts that no one else can directly observe.
In the economic problem, in all previous generations, the core part of the problem was resource constraints.
Satisfying the wants of humanity are limited, because we only have so much arable land,
only so much clean water, only so much coal that we can dig out,
only so many trained, skilled physicians in the world, and so on.
Those resource constraints are associated with prices,
but the incentive constraints, that we also have different information.
Those were absolute... So in some sense I want to argue we were adding with incentive compatibility
with Leo's idea of incentive compatibility, especially in its Bayesian context where it became rather simple to apply.
We were enriching our understanding of the economic problem to include incentive constraints.
The other side of it was, and let me just say, the paper that I think, if I could put an addendum
into the 2007 Nobel citation.
I wish I could add a reference to my paper with Bengt Holmström in 1983,
where I think we were trying to pull it all together.
The first half of that paper, is specifically addressing the question, let's now go through and say
The first idea is Hurwicz's core suggestion, core number one suggestion,
that we're not going to talk about a specific allocation, but rather, how in the market,
to say that a market is efficiently designed.
What we want to talk about is, how the allocation of resources depends on people's information.
What Eric called a social choice function, or you could call it an allocation rule.
And then, we can identify that, with a class of mechanisms that implement it and then we say,
it's not the allocation that's efficient or inefficient,
it's the way allocations depend on information, the function from information space
to allocation space, that is or isn't inefficient.
And its efficiency, Bengt and I argued in that paper, should be subject to incentive constraints
and we argued that perhaps, the right time to evaluate people's welfare
is under most interpretations of these models, is when they already have their information
about their private information, but don't know each other, is what we call the interim stage.
The last thing I want to say, is that there were technical results about the revenue equivalence result.
In auction theory, that I mentioned, is one of several results in my paper with Mark Satterthwaite,
an impossibility of an easy integral for determining what kinds of bilateral trades were or were not feasible.
But what I think is really more important, the fundamental was the idea of the informational rent
and this gets back, I think Jim was talking about it.
That, because I have private information, certain of my types cannot be denied.
If you're going to give my worst type an incentive to participate...
If you're going to give my least skilled type an incentive to participate, not exploit,
my least skilled type, or give him an incentive to run off into the wilderness,
then my more skilled types are going to have to do better.
And if you're going to treat me well, with my real type,
then my more skilled types, that I really am, are going to have to be treated even better.
And that rose in the beginning... I think the idea of it's the mechanism
that's efficient or it isn't, incentive constraints are real and are a part of the economic problem
and the people's private information may give them rents, that society cannot expropriate.
These are some of the big ideas, that this was all about.
Let me give one reaction or make one comment as a user of these results.
This is something that's common to I think the three presentations, except Roger,
you didn't actually express it at all though.
There was a paper in the Journal of Economic Theory by yourself and Mark Satterthwaite, which has a version of that.
That's impossibility.
Many people in this room probably know what's called the Coase theorem.
We can all deal with externalities at whatever, if only we have sufficient bargaining.
All the problems we have are problems of assigning property rights and making sure that whatever
the bargaining game or bargaining procedure is, is sophisticated enough so that it can actually handle the problem.
Now the Myerson–Satterthwaite theorem says that if you have mutually asymmetric information
and if it is not known whether it's worthwhile to have a trade or not.
Not commonly known whether it's worthwhile to have a trade or not.
Then, it just may not be possible to design a bargaining game so that you get an efficient outcome.
Meaning the Coase theorem presumes something about information asymmetry not being a problem.
Why am I so impressed by that?
Because it's a statement about games that we don't even know.
The statement is, you cannot design and I'm not underestimating your talents.
You cannot design a game that will implement an efficient allocation.
And in the "only if" part of Eric's presentation you also had an impossibility theorem.
If you have a social choice function that doesn't satisfy monotonicity,
then no matter what you do, you cannot design a game, that provides Nash implementation
in that social choice function.
And of course, Jim's results on income taxation
also have impossibility theorems, namely you cannot get incentive compatibility and extractments.
The really striking feature, and this is where I think mechanism design
is actually a bit more than just applied game theory.
The really striking feature is that you get results that are about arbitrary games,
that try to capture the essence of the information constraints, as Roger called it.
That must be taken into account in thinking about, what a society, a group of people should do
in order to deal with coordination problems.
But, I don't want to prolong the discussion up here any longer, and would now like to ask for questions from the floor.
Or comments.
Can you please go to the microphone?
Who, do the panel think, has the right knowledge and incentives
to monitor banks risk-taking and discipline their behaviour?
Is it regulators, is it shareholders or is it creditors?
Rather than the policy hat.
I would say, you have just defined a very interesting research programme.
And I would add the concern, make sure that the design problems that we're thinking of
are dealt with in a reasonably robust way, so that if the nature of the social interactions changes
between today and next week, whatever we design today, won't become obsolete.
But let me also go back to Peter Diamond's methodological comment, this morning.
I'm saying this now as a person who's both doing theory and working in policy applications.
Each theoretical model, each version of the auction problem, each version of a bargaining problem,
each model of competition, is as I like to call it, one entry, one animal in our zoo of models.
And, when I have an applied problem, the first thing I have to decide is,
which member of the zoo or which collection of members of the zoo are relevant for thinking about
this particular problem at hand?
Now, for the problem that you suggested, I would say that concerns about
excessive risk-taking as a function of borrowing; might be one of the animals in the zoo that we should be entering.
There are others as well, but I don't actually believe in theory being descriptive.
Theory gives us a set of modes of thinking about things
and on that, I cannot do better than refer you to the Marshall quotes that
Peter Diamond had put up this morning.
about incentives for management in general that also can apply to
understanding different forms of corporate finance in terms of optimising incentives
for a manager who has inalienable control over something.
Obviously capital requirements are an attempt to give the right incentives to owners.
Concerned about no bail out is to give better incentives to monitor creditors.
I argued this morning at the breakfast that if you write down a model that assumes
that a regulator can do something with private information using the kind of techniques that I just talked about,
if he's doing confidential communication,
if you apply that, and then interpret that my mediator of my model as one of your regulators,
you might be in great danger and I might be in great danger if I follow my own prescription,
because there's enough money in the financial system to corrupt
any small number of public official.
And in some sense, I would argue,
there's another incentive constraint that I don't necessarily know how to easily model.
That's something about transparency and democracy is needed to ultimately make credible
regulatory commitments to do one thing or another as the function of information
about the banking system.
That a lack of transparency...
There may be moral hazard at the regulator level and if you assume that away, you might be missing something important.
Since I stopped before I went on to moral hazard.
Which I think is interesting.
What we think we know about moral hazard is that,
if some optimum with moral hazard were to be implemented, it should be done by
incredibly complex contracts with exclusional clauses, saying you can't have another one.
We have observations about people creating securitized contracts which are then traded, which are clearly not
of the nature, of the sort of contract that AIG would have been writing on these things.
So it was as though that the answer to the question is posed isn't one that a theorist could come up with.
That's saying in principal.
It looks as though there should be a sort of self-policing solution to the existence of moral hazard.
But, the idea that any of us in particular managers or mortgage lenders,
are going to have their whole activity governed by some contract which has been written with all possible eventualities in it,
just doesn't make sense.
It's not clear that one can go the kind of route that your question's suggested.
the fact that we are not going to write these theoretically optimal contracts,
means that in the end, we have to rely on regulation.
The regulator has to internalise the... The externality that the contracts won't be, because they're not optimal.
was that there's a trade-off between insurance and moral hazard, with the risk sharing and moral hazard.
When I share risks then I have less incentive to work hard.
Perhaps before 2008 we should have been worried about seeing such creativity in finding new ways
to share mortgage risks so broadly and thinly.
It's an incentive constraint problem.
We're still waiting for the real model.
We're just talking.
although I was a long time ago trained as an economist.
It seems to me that moral hazard is being researched in one aspect only,
but through the financial crisis perhaps it should have become evident there was another aspect of moral hazard.
Boards, demanding or abandoning decision making to executive management,
because of not lack of information, but lack of competence.
So one aspect of moral hazard, is when you're bound to make a decision
and you pass that opportunity to another agent, simply because you're not comfortable enough
with making that decision.
I wonder whether you could comment on that.
is one that was written on with great effect, many years ago by Berle and Means.
Who pointed out that the modern publicly held corporation has a moral hazard problem.
The advantage of having a widely held corporation is that you can
raise lots of capital and the disadvantage is that it's very difficult to control management.
If there are lots of little shareholders.
Since you gave very interesting discussions of the intellectual history of incentive theory
and mechanism design and social choice theory and so on, which was instructive.
I wonder if you could say a little bit about what you think, still needs to be done in these areas.
What are the important things about this, that aren't known.
What are the important things that would be very useful for people to think about?
When someone has private information and this is guiding the mechanism design,
it's a very subtle problem that Eric and I have both written about.
And my views have not achieved broad acceptance and the last time I presented them
I confessed there were some theorems there, that just seemed so elegant there must be something to them,
but I didn't exactly understand why either.
has come back to prominence recently with Mylovanov.
which people are currently working on about where there's a long way to go, that I happen to find exciting.
One is what's sometimes called robust mechanism design.
One of the features of mechanism design as applied to specific models, specific settings,
is that the optimal mechanism can often be rather complicated,
maybe rather sensitive to the particular details of that setting.
That means, that unless we know the setting with great precision,
we're not going to be able to get the mechanism quite right.
This is a problem, that Bob Wilson pointed out many years ago
and it's now called the Wilson Critique and it's one that people have embraced recently.
The idea is to design mechanisms which may not be optimal in any given setting,
but which perform well, in a large variety of settings.
And so, for example, there's a series of papers, by Dirk Bergemann and Stephen Morris.
some of which they've collected together in a volume on robust mechanism design.
There's lots more to be done along those lines.
Then there's the question of limited rationality or bounded rationality.
Once you get into Nash implementation or Bayesian implementation,
where what you do is highly dependent on what you expect others to do.
The question of whether real life agents can actually perform the optimizations required.
Particularly if the game is reasonably complicated.
And so, it's important to consider, to what extent will a mechanism continue to work
or at least perform reasonably well when agents are making mistakes or misperceiving what other agents are doing.
The bounded rationality programme in mechanism design is an interesting one too.
It's very hard, because our modelling attempts in the area of bounded rationality, behavioural economics
are diffuse, that is for each possible behavioural problem, we have a separate little model.
And so, at the moment, if you wanted to build a mechanism that was robust to all of those possible behavioural difficulties,
you would have to employ 12 different behavioural theories or thereabouts, which is clearly unmanageable.
I think some progress in behavioural economics itself may be necessary to make the critical steps in mechanism design,
but that's clearly an important programme as well.
People may have noticed that my inclination is to go for,
I'd better not say realistic situations, but more concrete examples and so on.
I'm going to try to show a particular instance which has always struck me
as a real puzzle I would love to get properly sorted out.
And I'm not sure what the nature of the sorting out would be.
If we go the next step beyond the income tax theory that I told you all about earlier on.
There are different directions you can go and they all seem to lead to the bounded rationality problem.
I'll mention one of these.
That instead of dealing with asymmetric information, that is to say,
assuming people have private information and the uncertainty is still something that
whatever there is to be known, somebody knows it.
Moral hazard we treat as saying the people in the economy actually don't even know their own abilities.
This doesn't sound initially quite so reasonable, but if you think that many of the real decisions
about labour supply have taken a long time, before are in like, what subject you're going to do at university or whatever.
Then there's clearly quite a lot of uncertainty, which gives you moral hazard.
If you do the simple thing and take the same particular model that I'd use for income taxation
and do it with a moral hazard instead of asymmetric information.
That's not a really hard and fast distinction, but I think I said enough to indicate what I mean.
Then you'd find that you can get arbitrarily close to the first best.
Obviously I mean in the particular specification of the model.
And you do this, by having threats of very severe punishment if you happen to produce very little.
If the individual, that you're kind of talking about, does that,
well I think credit where it's due, Peter Diamond more or less immediately pointed out
that this means that you are really exploiting the theory of rational behaviour under uncertainty, in an unreasonable way.
There's an extremely small probability that you would be hit very hard.
And, if that event doesn't happen, you will get the first best consumption level and everybody gets the same.
So you're supposed to do an expected utility calculation of incredible precision.
This is the kind of situation where we're quite sure that people would have bounded rationality.
Well what does one do about that?
I could give you other instances and indeed I've played around with models of bounded rationality,
hoping that they would throw some light on this.
It's a fairly standard problem in a lot of these areas that the model quickly gets
rather complicated and I'm a believer in simple models
and I want to stop when it gets too complicated, but i think this gives you lots of opportunities for interesting things.
My recommendation would be to look for a version of this that has a realistic feel to it.
We've been talking about mechanism design from the perspective of some welfare maximizer.
Now, there is an important research programme in the economics of institutions in contract theory,
which is to explain institutions and contracts as quote unquote
The moment we're thinking of that, we're using mechanism design as a tool,
not of normative analysis, but of descriptive analysis.
Which of course raises fundamental issues of its own.
One aspect to which I wanted to point here, is that if you do the mathematics properly,
typically, you get some crazy stuff.
Solutions to incentive problems and to mechanism design problems
usually are much more complicated than the arrangements we see in the real world.
So, the claim that the analysis is descriptive, always requires an additional non-craziness assumption.
Let's assume we use this maximisation subject to incentive constraints and a non-craziness condition.
Jensen and Meckling, a combined risk-taking and effort choice problem as explaining the way in which a firm is funded.
If you think about the actual incentive contract it's much more complicated than what they have.
so important so you don't have to appeal to....
Can we draw the link between the implicit non-craziness assumptions
that are made in the contract theoretic and institution theoretic literature and bounded rationality, more explicit.
I'm not sure we've done that as at actually yet.
I want to close this panel with a story.
Which is motivated by a remark that Roger made about trade-offs between incentives and insurance.
At some point, in the mid-90's, I was travelling in the US
and I was talking to people about the changes in housing finance, that had taken place in the US.
And I was told very enthusiastically, including by some of our colleagues,
about this great new device called securitization.
And my response was, I think this is of course wonderful.
If you get a bank in Japan or a bank in Germany, to share in some of the fundamental risks,
such as interest rate risks associated with housing finance in the Midwest,
that provides for a greater extent of risk sharing.
But this bank in Japan,
doesn't really know about whether the property in Iowa is good, whether the buyer of this property
is a good risk or a bad risk.
And at that point, I received and not just once, but on a number of times, the answer
of such mortgages together, in a big package and then by the law of larger numbers, risk disappears."
Which was the typical confusion, linguistic confusion, between risk as deviation from the mean
and risk as a probability of something bad happening.
At some level I think we see their moral hazard at work, or we've seen moral hazard at work.
At another level I think we also see the benefits
about being very precise, about the language we use as we write down the incentive problems
and the mechanism design that's being chosen.
And on that note, I want to close this session and thank everybody,
thank in particular the panellists, for your contributions. I've learned a lot.
Ich sollte sagen, zur letzten akademischen Veranstaltung,
die für alle Teilnehmer hier in Lindau öffentlich ist.
Morgen werden wir auf der Insel Mainau sein.
Das Panel führt damit eine Tradition fort, mit der vor drei Jahren begonnen wurde.
Eine Diskussion über die Anfänge der Forschung und die Bedeutung
von Forschung, die Gegenstand einer Auszeichnung wurde.
In diesem Falle ist es nicht nur eine Auszeichnung, sondern es sind zwei.
Nämlich der Preis von 1996 für die Analyse von Anreizen in Situationen mit asymmetrischen Informationen
und der Preis von 2007 für die Mechanismus-Design-Theorie.
Ich sollte auch sofort anführen, dass es zwei andere Preise gibt, die damit in Zusammenhang stehen,
nämlich der von 1994, Gleichgewicht in nicht-kooperativer Spieltheorie.
Und der Preis von 2001 zu Märkten mit asymmetrischen Informationen.
Eine interessante Eigenschaft,
die nahelegen könnte, die Trennung sei unangemessen, ist, es gibt eine Bedingung, die sich herumbewegt,
und bislang als die sogenannte Spence–Mirrlees-Bedingung bekannt ist,
welche Mike Spences Arbeit zu Märkten mit asymmetrischer Information
und Jim Mirrlees Arbeit zur optimalen Besteuerung miteinander verknüpft.
Die gemeinsame Eigenschaft waren Anreize, beim Preis von 2001 ging es aber nur um Märkte.
Der Preis hier handelt aber nicht von Märkten, sondern es geht dabei in gewisser Hinsicht um Regierungen und
zum Teil um Wohlfahrtsökonomie.
Ich werde das erklären und denke, die Nobelpreisträger werden dies im Folgenden noch ausführlicher erläutern.
Wir sollten uns in diesem Zusammenhang erinnern, dass für beide der Preise eine Person fehlt.
Für das Jahr 1996 handelt es sich dabei um William Vickrey,
der in der Zeit zwischen der Bekanntgabe und der Feier verstarb.
Für 2007 handelt es sich um Leo Hurwicz, der, glaube ich, ein Jahr nach Empfang des Nobelpreises starb.
Ehe ich an Jim weitergebe, damit er über seine Forschung berichtet, möchte ich einige kurze Anmerkungen zur
Forschung von Vickrey und Hurwicz machen.
Vickrey, er schrieb in den frühen 60er Jahren darüber, damit Sie eine Vorstellung von der Zeit haben,
war sehr beunruhigt darüber, was man in Hinblick auf Regierungspolitik tun könnte.
Wenn man die Präferenzen von Menschen nicht kennt, die Fähigkeiten der Menschen,
und wie asymmetrische Informationen das beeinflussen, was eine Regierung unternehmen kann,
und wie es auch die Wirkungen jeder der von einer Regierung ergriffenen Maßnahme beeinflussen kann.
Er schrieb über drei verschiedene Gebiete.
Besteuerung
Ich vermute, Jim wird darauf eingehen.
Öffentliches Preisrecht und, was ihn am berühmtesten machte, das Auktionsdesign,
er erfand die sogenannte Vickrey-Auktion.
Die Frage lautet, was kann der Verkäufer eines Objekts dafür erhalten, wenn er dieses versteigert?
Wenn der Verkäufer weiß, was das Objekt verschiedenen Käufern wert ist,
geht er zum Käufer mit der höchsten Bewertung und wird ihm sagen: „Gut, du zahlst mir deinen Wert minus Epsilon“.
Der Verkäufer kassiert also den Wert, den der Käufer, der das Objekt am höchsten bewertet, geben will.
Bekommt er ihn nicht, kann man über eine Auktion nachdenken.
Der Käufer mit der höchsten Bewertung, falls er weiß, dass er die höchste Bewertung hat,
was wird er tun?
Wenn er weiß, dass er die höchste Bewertung hat, wird er sein Angebot verschleiern.
Gibt es irgendetwas, was man dagegen tun kann.
Nun, nicht wirklich.
Gibt es irgendeine Auktion, irgendein anderes Design, das man verwenden kann, um zu verbessern, was man kassieren kann?
Nun, nicht wirklich.
Doch Vickrey hatte den interessanten Gedanken, falls die Käufer ihre Bewertungen kennen,
wie stark wird dann der Käufer mit der höchsten Bewertung verschleiern?
Nun, bis zur Ebene der zweithöchsten Bewertung,
plus vielleicht ein bisschen Epsilon, was wir vernachlässigen werden, denn er weiß,
kein anderer wird ihn dann überbieten.
Das ist also der grundlegende Gedanke der Vickrey-Auktion.
Die sogenannte Zweitpreisauktion.
Fragen Sie jede Person, wie viel ihr das Objekt wert ist, also dieser Person,
vergeben Sie das Objekt an die Person, die es am höchsten bewertet,
und lassen Sie diese Person den genannten Preis zahlen, den Wert, den der zweithöchste Bieter genannt hat.
Es zeigt sich, dieses Verfahren hat für jeden Teilnehmer die interessante Eigenschaft,
die optimale Strategie ist, die Wahrheit zu sagen.
Und nicht nur das, es ist eine optimale Strategie, unabhängig davon, was die anderen tun,
und hier ist die Verbindung zum Nobelpreis '94.
Viele dieser Situationen sind Situationen strategischer Interdependenz.
Was eine Person zu tun gedenkt, hängt von ihrer Erwartung ab, was andere tun werden.
Vickreys Zweitpreisauktion war das erste Beispiel dafür, was jetzt als Mechanismus der dominanten Strategie bekannt ist.
Ein Verfahren, bei dem das, was jede Person tun möchte unabhängig davon ist, was die anderen tun wollen.
Und es gibt in Verbindung mit der Zweitpreisauktion einige interessante Eigenschaften,
Und besonders mit dominanten Strategie-Auktionen unter den Konstellationen asymmetrischer Informationen,
und das sogar zwischen den Bietern selbst.
Ich denke, Roger Myerson wird dazu noch etwas mehr sagen.
Ich wende mich nun Leo Hurwicz zu.
Leo Hurwicz befasste sich mit Theorien, dass Wettbewerbsmärkte wunderbare Mechanismen sind,
Informationen darüber zu verarbeiten, was getan werden sollte.
Dies geht auf Hayek zurück, der genau diesen Anspruch erhob.
Und er stellte die Frage: „Was bedeutet dies tatsächlich?“
Gewöhnlich zeichnen wir für einen einzelnen Markt einen Lieferumfang, ein Nachfrageverhalten,
und dann haben wir eine Schnittmenge und Gleichgewichtstransaktionen und einen Gleichgewichtspreis.
Wenn es nichts Weiteres ist, warum haben wir nicht einfach einen Planer,
ordnen jedem seine Gleichgewichtstransaktion zu und das wär’s.
Es gibt darin kein Element der Informationsverarbeitung,
doch im Voraus angenommen wissen wir nicht, was Lieferumfänge und Nachfrageverhalten sind.
Dann sagt uns die Theorie, wir erhalten verschiedene Schnittmengen
Und unser Planer weiß nicht, welches die richtige ist.
Die Ansicht des Planers was zu tun ist, funktioniert nicht.
In diesem Punkt hat Hayek Recht.
Doch weiß das ein Marktsystem?
Indem nur Lieferumfänge und Nachfrageverhalten skizziert werden, haben wir kein Instrumentarium,
um diese Frage zu behandeln.
Hurwicz artikulierte das Problem auf andere Weise.
Er fragte, angenommen, wir lassen die Teilnehmer Nachrichten an die senden, die dieses System wünschen.
Und wer auch immer dieses System will, denken Sie an ein großes Computerprogramm
das diese Nachrichten als Eingabe erhält und dann geeignete Ausgabe bietet und einige Ergebnisse zuordnen wird.
Welche Nachrichten werden die Menschen liefern?
Wie sehr sind sie davon abhängig, wie der Computer programmiert ist?
Das führt zu Begriffen der Anreizkompatibilität und zu Begriffen der Durchführbarkeit.
Wir können nur bestimmte Ergebnisse umsetzen,
wie Punkte der Schnittmenge von Angebot- und Nachfragekurven, je nachdem um was es sich bei den Kurven handelt.
Ich habe ein Nachrichtensystem, da die Leute es für angemessen halten, Nachrichten so zu vermitteln,
dass diese Ergebnisse tatsächlich realisiert werden.
Sie können jetzt unmittelbar sehen, das Problem der spieltheoretischen Interaktion
erhält auf sehr dramatische Weise Zugang und wir sind wieder bei dem Problem der spieltheoretischen Interdependenz.
Die wichtigen Beiträge von Vickrey und Hurwicz waren, für Vickrey war es das Problem
der Politik gegenüber der Informationsasymmetrie einzuführen, zusammen mit dem Konstrukt der Zweitpreisauktion.
Für Hurwicz, das Problem anzusprechen, was wir unter dem Begriff verstehen,
dass dieses soziale System Informationen angemessen verarbeitet und wünschenswerte Ergebnisse bietet,
mit eingeschlossen natürlich ein Marktsystem.
Damit möchte ich meine Skizze der Beiträge dieser beiden Gelehrten abschließen
und an Jim weitergeben, der über seine eigene Forschung zu Besteuerung und Anreiz sprechen wird.
Ich möchte diese beiden sehr wichtigen Beiträge von Vickrey und Hurwicz gleich erwähnen.
Ich habe mich diesen Fragen bei einer,
wie mir schien, etwas konkreteren Situation genähert.
Peter Diamond und ich arbeiteten zur optimalen Besteuerung.
Ich würde dies bei dieser Gelegenheit gerne etwas umfassender ausdrücken.
Wir wollten mit unserem Projekt unbedingt Wohlfahrtsökonomien im eigentlichen Sinne rekonstruieren.
Denn Wachstumsökonomien, so wie man es uns lehrte,
behandeln nur, wie man etwas erreichen kann, das Pareto-effizient ist.
Und es reichte niemals weiter als bis Samuelson, es tat dies sicherlich als Maximierung Ihrer Wohlfahrtsfunktion,
das hieße ein Kriterium haben, das es gestattet unter verschiedenen Dingen auszuwählen.
Beachten Sie, Pareto-effiziente Allokationen können ziemlich grässlich sein.
Es kann sich dabei um hungernde Menschen handeln und dergleichen.
Das war nicht, was man wollte.
Wenn man das, um die Wohlfahrtsfunktionen herum, hatte, dann sagten einem natürlich die Standardansätze,
man solle pauschale Ausgleichszahlungen verwenden.
Es gab eine Anzahl wirklich interessanter Abhandlungen, die sich davon etwas entfernt haben.
Gewiss war Paul Samuelsons Abhandlung zur sozialen Indifferenzkurve eines der Papiere, das anregte
die Frage zu stellen: “Wenn keine Ausgleichszahlungen vorgenommen werden können, warum ist das so?“
Was waren sie wirklich? Was war die Schwierigkeit?
Das war es natürlich, weshalb wir uns darauf stürzten über Besteuerung nachzudenken, und folgten dabei Frank Ramsey,
der in den 1930er Jahren durch Anregung Pigous eine Theorie optimaler Verbrauchsgut-Besteuerung begann.
Doch natürlich war nichts davon bei dem gleichen allgemeinen Setting sehr explizit,
so wie es bei Arrow–Debreu gewesen wäre.
Das also war es, was wir taten.
Ich denke, wir haben hier einen ziemlich langen Weg zurückgelegt.
Ich werde etwas persönlicher werden, als was man hier sagte,
denn eines der Rätsel mit dem ich es damals zu tun hatte war, warum Peter und ich, die daran arbeiteten, es nicht gemeinsam taten.
Es war tatsächlich, so schien es mir damals, nur ein relativ kleiner Schritt,
den man vom Reden über optimale Verbrauchsgut-Besteuerung machen musste und es gibt Material in unseren gemeinsamen Abhandlungen
über Effektivität, eine Einkommenssteuersituation, bei der man etwas Komplizierteres haben könnte.
Doch es gab da scheinbar noch immer ein angenehmes Gefühl.
Ich rede hier als einer, der Differentialgleichungen und nichtlineare Funktionen und solche Sachen mag.
Man könnte nichtlineare Besteuerung haben und expliziter fragen,
welche Gestalt könnte ein nichtlinearer Steuertarif haben, wenn man dies vornehmen könnte.
Es gibt keinen Grund, weshalb es keinen nichtlinearen Steuertarif geben kann.
Interessant war aber, wenn es dazu kam, diese Frage zu analysieren,
welches der richtige Kontext ist, in den dies zu stellen sei, natürlich die kontinuierliche Verteilung von Leuten haben,
etwa mit einer Streuung von Typen von überall, von Niedriglöhnen zu hohen Einkommen.
Ohne eine bestimmte Grenze und man möchte…
Zuerst glaubte ich dies sein ein perfektes, einfaches Optimierungsproblem,
dass man etwas maximieren muss, bei dem offensichtlich das Integral der Versorgungswirtschaft der Menschen zu verwenden war.
Natürlich vorbehaltlich einiger Produktionseinschränkungen.
Ich bin mir nicht sicher, ob dies das erste war, aber ich denke, zumindest für den Unterhaltungswert
sollte dies als das Erste behandelt werden.
Ich sagte: „Gut, wie sähe es aus, wenn wir ein Modell verwenden,
das, anders als bei den meisten Ausführungen, die diese Probleme der Wohlfahrtsmaximierung diskutieren,
nur eine einzige Sache hätte, etwa das Einkommen, und beispielsweise Argumente zur Ausgleichung des Einkommens gäbe?“
Nehmen wir also ein Modell, bei dem, wie Sie heute Morgen gesehen haben, Nutzen eine Funktion des Konsums wäre
und die von Menschen erbrachte Arbeit, Arbeitsangebot.
Das bestimmte Modell, das ich verwendete, war derart, man verwendete es aber so, dass die Menschen variierten
sowie die Produktivität der Arbeitsstunden.
Es waren also Arbeitsstunden die in … [nicht hörbar] … neben dem Verbrauch.
Als erstes hätte man einfach sagen sollen: „Was ist die richtige Antwort und
was sind die Pauschalsteuern, die man möchte?“
Die Antwort, vorausgesetzt die Menschen haben ein normales Arbeitsangebot im technischen Sinne, war,
dass je höher die Produktivität ist, die Fähigkeit der Menschen, desto niedriger sollte ihr Nutzen sein, und das Ergebnis.
Sie sehen natürlich, nichts könnte weniger anreizkompatibel sein als dies.
Warum sollten Menschen die Tatsache offenlegen, dass sie über hohe Fähigkeit verfügen,
wenn hohe Fähigkeiten darin enden, einen niederen Nutzen zu haben.
Sie könnten dies sicher bewältigen, wenn Sie einen Test absolvierten müssten, um die richtige Benotung zu geben,
die als Grundlage für ein Pauschalbesteuerung verwendet werden könnte.
Sie würden bei jeder Prüfung durchfallen, der man Sie unterziehen würde.
Ich weiß, dass ich die absurde Vermutung aufstelle, die Menschen seien egoistisch, selbstsüchtig, rational,
ich bin aber nicht der einzige Ökonom mit dieser Vermutung.
Sie sehen, dies bring einen direkt zur Anreizkompatibilität,
was natürlich das ist, was Leo Hurwicz auf eine andere Art getan hat,
es wurde aber nicht unmittelbar in dieser Weise ausgearbeitet.
Man führt also das Problem weiter aus und sagt: „Nein, es wird nur einen Steuertarif geben,
es wird nur Verbrauch als eine Funktion des Betrages geben, den die Leute verdienen.“
Sie werden also keine Angaben zu den Typen der Menschen verwenden.
Das ist nur eine Sache des Niederschreibens, der Bedeutung und des Lösens der Gleichungen.
Schreib es auf. Was für ein Durcheinander.
An diesem Punkt bringe ich Vickrey ins Spiel, auf eine Art, dass er für mich eine wichtigere Rolle
hätte spielen könne, als er dies tat.
Ich kenne eine Anzahl seiner Abhandlungen und war ein großer Bewunderer,
und er hat sicherlich diese Konzepte der Anreizkompatibilität mitgeteilt und so weiter und einige der Dinge, die ich gelesen habe.
Doch in einem Wirtschaftsmagazin hat er im Jahre 1945 dieses optimale Einkommenssteuer-Problem weitgehend definiert.
Vielleicht habe ich, um zu skizzieren, genug gesagt.
Und er schrieb einige Erstbestellungsbedingungen nieder und sagte: „Ich weiß nicht, was ich damit anfangen soll, es ist ein Chaos.“
Er hatte im Wesentlichen das gleiche Durcheinander erhalten, das ich mehr als 20 Jahre später erhielt,
doch war ich glücklicherweise nicht bereit, so leicht aufzugeben.
Ich wage zu sagen, das hatte damit zu tun, dass es zu meiner Zeit Computer gab.
Und so dachte ich, zumindest ist das eine Gelegenheit einige Antworten zu errechnen.
Dann realisierte ich, die Aussage, die Menschen gemäß einer Budgetbeschränkung maximieren,
beinhaltet in keiner Weise ihren Typ.
Man könnte auch sagen, dass jede Person sich vorzugsweise für die Handlung entscheidet,
die auch jede andere innerhalb des Gleichgewichts vornehmen wird.
Das also ist das öffentliche finanzielle Gleichgewicht mit Anreizkompatibilität,
diesen Begriff habe ich nicht verwendete, aber da war er.
Und der Punkt dabei war natürlich, dass dann so ziemlich unmittelbar
andere eine Umhüllungsbedingung festlegen, die besagt, dass die Ableitung der Nutzenmaximierung
hinsichtlich des Typs des Individuums, der Fähigkeit des Individuums,
der partiellen Ableitung des Nutzens, bezüglich des Typs des Individuums, gleichen wird.
Man sieht sich das an und meint:
Es ist in etwa das Gleiche.
Damit wird es kein Problem geben.
Nun, man denkt natürlich etwas nach und erkennt, dass es Probleme gibt.
Ich bin mir aber sicher, mir bleibt nicht viel Zeit.
Ich kann also kaum erwähnen, was das Problem… Ein Großteil der Auseinandersetzung mit dieser Abhandlung
wurde darauf verwendet, streng nachzuweisen, dass gewisse Dinge nicht geschehen konnten.
Dass es in der Tat richtig war, die Umhüllungsbedingung unter den Annahmen zu haben, die ich zu machen bereit war.
Ein Computerprogramm wurde erstellt, ehe ich irgendeine Computersprache erlernt hatte.
Es gelang wirklich, unseren Informatikassistenten vom Nuffield College zu gewinnen,
das auszuführen und dann bekam ich ein paar Forschungsassistenten, die sich dem annahmen und dann machte ich es
und nichts funktionierte, ich sehe es mir noch einmal durch uns sage: „Nein, nein, nein, es muss dahingehend geändert werden.“
Und es funktionierte.
Es war aber nicht ein einfaches Steuerungsproblem, denn man musste darauf achten,
ob eventuell eine ganze Gruppe mit verschiedenen Fähigkeitsniveaus tatsächlich
die gleichen Niveaus von Verbrauch und Arbeitsangebot wählen würden.
Es gab also interessante Komplikationen, doch nicht von der Art, für deren Lösung man einen Nobelpreis erhält.
Und schließlich ende ich hier am besten.
Wir erhielten die ersten Berechnungen darüber, wie ein optimaler Steuertarif aussehen sollte.
Ich meine, 25% der Leute sollten veranlasst werden, nicht zu arbeiten.
Mir ging durch den Kopf, dass dies möglicherweise kein zur Veröffentlichung geeignetes Ergebnis sein könnte.
Was ich natürlich tat, und ich denke, das ist es, was Sie
von sich selbst erwarten würden, wenn Sie es mit einer ähnlichen Übung zu tun hätten,
ich nahm die einfachste Qualifikationsverteilung, die vernünftig schien.
Eine, bei der der Mittelwert des Logarithmus der Fähigkeit der Standardabweichung
des Logarithmus der Fähigkeit entsprach.
Wenn Ungleichheit zunimmt, könnte das eines Tages die richtige Antwort sein.
Hören Sie mich? Nein.
Wie ist es jetzt? Ist das in Ordnung?
Als wir vier uns entschieden, wie wir dieses Panel organisieren wollen, entschieden wir, dass ich
über die Umsetzung nach Nash reden würde.
Und das werde ich tun, doch möchte ich zuerst ein Wort darüber sagen, wie ich zum Mechanismus-Design kam.
Eigentlich zuerst zur Wirtschaftswissenschaft.
Das geschah durch Zufall.
Ich studierte am College Mathematik, was mir Freude machte, doch aus irgendeinem Grund
besuchte ich einen Kurs in Wirtschaftswissenschaft, den Kenneth Arrow hielt.
Ich wusste damals nicht, wer Arrow war, das fand ich natürlich später heraus.
Es traf sich, dass er in diesem Kurs über beide, Vickrey und Hurwicz sprach.
Ich erfuhr also fast gleichzeitig von der Zweitpreisauktion
und von Hurwiczs Konzeptualisierung des Mechanismus-Design-Problems
und dachte, dies sei wunderbar.
Ich wechselte die Studienrichtung und machte schließlich meinen Doktor bei Ken Arrow und arbeitete selbst am Mechanismus-Design.
Lassen Sie mich nun auf die Umsetzung nach Nash zurückkommen, und ich habe einige Folien vorbereitet,
denn ich möchte Ihnen ein Beispiel zeigen.
Martin erwähnte, eine der schönen Eigenschaften der Zweitpreisauktion sei,
dass es bei dieser Auktion eine dominante Strategie ist, seine wahre Bewertung zu enthüllen, ehe die Ware verkauft wird.
Das bedeutet die Zweitpreisauktion realisiert eine effektive Allokation,
denn der Käufer mit der höchsten Bewertung wird mit seiner Bewertung bieten und daher
die Ware zugewiesen bekommen.
Das ist eine Umsetzung der dominanten Strategie der effektiven sozialen Auswahl-Funktion, wenn Sie so wollen.
Leider gibt es viele Umstände, bei denen die Umsetzung der dominanten Strategie
nicht möglich ist und lassen Sie mich dafür ein Beispiel geben.
Schauen wir uns eine Gesellschaft an.
Es ist eine sehr kleine Gesellschaft, die aus zwei Menschen besteht.
Alice und Bob.
Alice und Bob sind Energieverbraucher und es gibt eine Energiebehörde,
deren Aufgabe es ist, herauszufinden, welche Art Energie Alice und Bob verbrauchen werden.
Es gibt vier Auswahlmöglichkeiten: Gas, Öl, Atomkraft und Kohle.
Und die Energiebehörde muss nur eine davon auswählen; es ist zu teuer, mehr als eine zu haben.
Was die Energiebehörde jetzt gerne täte wäre, eine Energiequelle zu wählen,
die mit der Präferenz von Alice und Bob in Einklang steht, aber Alice und Bob haben unterschiedliche Präferenzen
und darüber hinaus weiß die Energiebehörde vielleicht gar nicht, welches diese Präferenzen sind.
Stellen wir uns vor, es gibt zwei Möglichkeiten, zwei Zustände auf der Welt.
In Zustand 1 mag Alice Gas am liebsten und das Öl und die Kohle und die Atomkraft.
Ähnliches gilt für Bob, in Zustand 1 und in Zustand 2 haben sie das Präferenzranking,
welches ich auf der Folie angegeben habe.
Das würde dafür sprechen, in Zustand 1, falls die Energiebehörde wüsste, dass Zustand 1 der tatsächliche Zustand ist, würde sie Öl wählen.
Das sieht wie ein ziemlich guter Kompromiss zwischen dem aus, was Alice und Bob wollen.
Hingegen sieht im Zustand 2 Gas wie ein guter Kompromiss aus.
Das Problem ist aber, wie ich bereits sagte, die Behörde kennt die Zustände nicht.
Es wäre schön, würde die Behörde einfach zu Alice und Bob gehen und sagen:
Das Problem ist aber, beide, Alice und Bob haben einen Anreiz, falsch darzustellen, und das kann man leicht sehen.
Beachten Sie, Alice bevorzugt in beiden, im Zustand 1 und im Zustand 2 Gas vor Öl.
Daher hat Alice einen Anreiz, zu versuchen der Behörde weiß zu machen, Zustand 2 sei der tatsächliche Zustand,
weil die Behörde dann voraussichtlich Gas wählen wird.
Sie wird also immer Gas sagen und man kann prüfen, dass Bob immer Öl dem Gas vorzieht,
daher hat er immer den Anreiz den Zustand 1 zu benennen, die arme Energiebehörde wird keine Ahnung haben,
was der tatsächliche Zustand ist.
Bob sagt Zustand 1, Alice sagt Zustand 2.
Die Umsetzung einer dominanten Strategie ist also nicht möglich,
es gibt aber noch immer etwas, was wir tun können und diese Lösung ist die 2x2 Matrix.
Das ist ein Spiel oder ein Mechanismus, in dem Alice Zeilen wählt und Bob wählt Spalten
und das Ergebnis, die Energie, die angenommen wird, ist die Schnittmenge von ihren zwei Auswahlmöglichkeiten.
Wenn Alice sich also für die untere Zeile entscheidet und Bob wählt die linke Spalte, wird das Ergebnis Atomkraft sein.
Ich möchte Ihnen jetzt zeigen, wie dieser kleine Mechanismus tatsächlich das Ziel
der Energiebehörden umsetzt, nämlich Öl in Zustand 1 und Gas in Zustand 2 zu bekommen. Und warum ist das so?
Nun, angenommen Zustand 1 ist der tatsächliche Zustand.
Alice und Bob kennen ihre Präferenzen, sie wissen also, welches der tatsächliche Zustand ist.
Sehen wir es uns von Alices Standpunkt an, wenn sie annimmt, dass Bob die linke Spalte wählt,
dann wird sie die obere Zeile wählen wollen.
Warum? Weil der Zustand 1, sie bevorzugt Öl vor der Atomkraft und sie wählt die obere Zeile, sie bekommt Öl,
wählt sie die untere Zeile, bekommt sie Atomkraft.
Sie wählt die obere Zeile.
Die Annahme, dass Bob die linke Spalte wählt ist sehr fundiert,
denn Bob wird die linke Spalte wählen, gleichgültig was Alice tut.
Wenn Alice die obere Zeile wählt, wird Bob nach links gehen, denn er zieht Öl der Kohle vor
und wenn er glaubt, Alice wird die letzte Zeile unten wählen, wird er nach links gehen,
da Bob Atomkraft dem Gas vorzieht.
Mit anderen Worten, Alice geht nach oben, Bob geht nach links, es ist ein Nash-Gleichgewicht,
das zum optimalen Ergebnis führt.
Tatsächlich kann man zeigen, und das ist nicht schwer, dass es das einzigartige Nash-Gleichgewicht dieses Spiels ist.
Und, ich werde dieses Argument nicht durchnehmen, aber man kann das auch in Zustand 2 prüfen,
Alice wählt die Zeile unten und Bob wählt die rechte Spalte,
Das ist das Nash-Gleichgewicht, das zu Gas führt, dem sozialen Optimum in Zustand 2.
Also, in anderen Worten:
Dieser Mechanismus setzt die Ziele des Designers um.
Das ist jetzt nur ein Beispiel.
Sie werden sich vielleicht fragen, so wie ich es tat:
Wie, wenn man nicht bereits wusste, dass dieser Mechanismus funktioniert, konnte man einen solchen Mechanismus
anders als durch Experimentieren und das Ausprobieren einer Menge von Mechanismen finden?
Zu der Zeit, als ich begann, mich mit diesem Thema zu befassen, gab es einige brillante Beispiele von Mechanismen,
die wichtige soziale Auswahl-Funktionen umsetzten.
David Schmeidler hatte eine schöne Umsetzung von Walras sozialer Auswahl-Funktion.
Das ist die soziale Auswahlfunktion, die den Menschen Präferenzen gibt
und Produzenten-Produktionsfunktionen, es setzt das Ergebnis des Wettbewerbsgleichgewichts
auf eine anreizkompatible Art um.
Und Leo Hurwicz hat das Gleiche für die Lindahl-Korrespondenz vorgenommen.
Ich fragte mich aber, ob man diese Fragen nicht etwas allgemeiner behandeln könnte.
Hier also eine allgemeine Aussage über das Problem.
Das Ziel des sozialen Planers oder die soziale Funktion, die umgesetzt werden soll,
ist eine Funktion von Zuständen der Welt, die der Designer nicht kennt, in Ergebnissen.
In dem kleinen Beispiel, das ich Ihnen zeigte, waren die möglichen Ergebnisse die verschiedenen Auswahlmöglichkeiten bei Energie.
Und ein Mechanismus ist nur ein Spiel, bei dem jeder Spieler eine Reihe von Strategien hat oder einen Nachrichten-Raum,
und ihre Wahl der Strategien oder Nachrichten führt zu einem Ergebnis.
Und ein Nash-Gleichgewicht dieses Mechanismus, wie im Beispiel, ist nur eine Konfiguration von Strategien,
von der Art, dass jeder Spieler sein oder ihr Ergebnis maximiert, angesichts dessen, was die anderen tun.
Einseitige Abweichungen zahlen sich also nicht aus.
Wir sagen, der Mechanismus setzt die soziale Auswahlfunktion um,
wenn die Reihe der Nash-Gleichgewichtsergebnisse mit der Reihe der optimalen Ergebnisse für jeden möglichen Zustand übereinstimmt.
Das also ist das allgemeine Problem.
Dieses Problem wurde übrigens von Leo Hurwicz dargelegt.
Leo sah sich wichtige Beispiele an, wie Lindahl, er sah sich aber nicht das Allgemeine an, er unternahm nicht den Versuch zu fragen:
Ich nahm mich dessen an, indem ich jede Menge Beispiele während eines beschämend langen Zeitraums ausprobierte.
Am Ende der Geschichte entdeckte ich, der Schlüssel zur Umsetzbarkeit,
den soziale Auswahlfunktionen gemein hatten war, sie teilten eine Monotonieeigenschaft.
Und diese Monotonieeigenschaft sagt Folgendes.
Angenommen bei einigen Zustandsergebnissen ist A optimal.
Und jetzt, angenommen, wir ändern die Zustände.
Wir ändern die Präferenzen der Menschen auf eine Art, dass das Ergebnis A unter keine der Präferenzordnungen gegenüber B fällt.
Im Zustand Theta ist A optimal
Im Zustand Theta (Strich) fällt A gegenüber irgendeinem anderen Ergebnis B nicht in die Präferenzordnung von irgendjemanden.
Dann besteht die Monotonie darauf, A solle in Zustand Tetra (Strich) optimal sein.
Und dies erweist sich als Schlüssel zur Nash-Umsetzbarkeit.
Man kann diese Gleichung oben nur erfüllen, wenn die Monotonie erfüllt wird
und mit zwei anderen relativ schwachen Bedingungen, oder zumindest relativ schwach in vielen Sachlagen,
kann man auch einen Mechanismus finden und es gibt einen klaren Algorithmus einen Mechanismus zu finden,
der die Gleichung oben erfüllt.
Das also war die Geschichte mit der Nash-Umsetzbarkeit.
Seither wurde die Idee der Monotonie auf andere Gleichgewichtskonzepte erweitert,
einige erhalten ein vollkommenes Gleichgewicht, ex-post Gleichgewicht, Trembling-Hand-perfektes Gleichgewicht für Spieltheorie-Aficionados.
Insbesondere auch das Bayes-Gleichgewicht, über das, soweit ich weiß, Roger als nächstes reden wird.
Ich danke Ihnen.
Möchten Sie etwas über die zeitliche Beziehung sagen,
als die brillante Erkenntnis über Monotonie durch die von Ihnen eingereichten Dissertation relativiert wurde?
um auf einmal dies Gesamte klar sehen zu können und ich denke, das kennen wir alle.
Und auf einmal, was niemand zuvor sah, wird auf einmal deutlich.
Ich werde über den Bayes-Aspekt des Mechanismus-Design-Themas sprechen, das 2007 ausgezeichnet wurde.
Ich sollte sagen, Leo arbeitete hauptsächlich an der… Eric sprach über ein Beispiel,
die Nash-Umsetzbarkeit, bei der die normale Annahme von dem was Sie gerade gehört haben war,
dass Individuen in der Wirtschaft oder Gesellschaft Informationen teilen,
der Koordinator aber, der versucht, ihnen zu helfen, weiß nichts davon.
Der Bayes-Ansatz, über den ich jetzt spreche, ist, wenn die sichtbaren Individuen
einfach unterschiedliche Informationen haben und der Koordinator weiß ebenfalls nichts,
ist aber bei seiner Kommunikation mit ihnen ziemlich unaufrichtig oder kann potentiell unaufrichtig sein,
indem er sich ihnen getrennt nähert.
Leo Hurwicz arbeitete hauptsächlich mit der Nash-Seite.
Ich arbeitete hauptsächlich auf dieser Bayes-Seite und Eric hat mit beiden Ansätzen gearbeitet. Daher ist mir das hier zugefallen.
Um von der Geschichte zu reden… Und es ist solch ein Vergnügen über die Geschichte solcher Gedanken zu sprechen.
Martin sagte, wir… Die Vorläufer, sowohl Eric und ich, sehen Sie uns an, wir sind die gleiche Generation,
und wir folgten Leo Hurwicz.
Ich möchte auch erwähnen, wie Eric in der Graduiertenschule, studierte auch ich die Schriften von Leo Hurwicz sehr sorgfältig.
Damals war ich nicht weit entfernt, nur wenige Blocks entfernt und studierte ebenfalls die Schriften von John Harsanyi
und ich möchte hervorheben, was daran wichtig ist.
Leo Hurwicz war, wie Martin sagte, deutlich von Hayek beeinflusst, der in seinem klassischen Artikel von 1945 anmerkte,
dass die Debatte über Kapitalismus versus Sozialismus nicht….
Die theoretische Debatte hinsichtlich der Überlegenheit
von Kapitalismus oder Sozialismus schien nirgendwo hinzuführen, denn was er über Preise
zugunsten des freien Marktsystems sagte, da meinten die Sozialisten, die sozialistischen Planer
könnten ebenso über Preise reden.
Und hier erkannte Hayek, was auch immer stattfindet, es geht um Kommunikation.
Es geht um Informationen, die in der Wirtschaft dezentralisiert sind und Koordination muss…
Die Koordination der Ressourcen und der Produktion muss Informationen
von allen innerhalb der Ökonomie nutzen, und muss Informationen nutzen die niemand hat.
Und es wäre für das zentrale Ministerium sicherlich vor dem Zeitalter der modernen Computer
sehr schwierig gewesen, alle diese Informationen zu sammeln und vielleicht gibt es da noch etwas Grundlegenderes.
Übrigens führte Hayek weiter aus, und sagte, er glaube, dass die Ökonomen
die am wenigsten verstehen konnten, dass es um Kommunikation ging,
die mathematischen Ökonomen seiner Zeit waren.
Das war keine Aussage über Mathematiker, sondern einfach eine Zustandsbeschreibung eines bestimmten Segments der Profession.
Leo Hurwicz verstand, dass Mathematik sehr flexibel ist
und wenn es etwas Grundlegendes gibt, das uns bei einer Überlegung fehlt,
solle man nach einer mathematischen Methode suchen, um dies zu tun.
Was auch immer Hayek darüber denken mag.
Das andere Bedeutende, wie von Jim erwähnt.
Der Wegbereiter war Paul Samuelsons Abhandlung von 1954, in der beobachtet wurde:
Man versuchte herauszufinden wie viel öffentliche Güter produziert werden sollen und man fragte die Leute:
Nun, wenn es umsonst ist, werden sie vielleicht übertreiben, wie sehr sie es sich wünschen und wenn sie dafür
den Betrag zahlen müssen, den sie zu zahlen bereit sind, werden sie vielleicht ihren Wunsch herunterspielen,
und da scheint es ein Anreiz-Problem zu geben und er merkte an, dass es einfach nicht funktioniert.
Lindahl und andere Theorien werden den Leuten die falschen Anreize geben.
Und das war natürlich der Gedanke, von dem ihr beide und Hurwicz eindeutig inspiriert wart.
Leo Hurwiczs Abhandlung von 1972, kurz gesagt, sah sich die privaten Mittelzuweisungen an und erkannte,
jeder denkt, öffentliche Güter seien hart, aber private Güter, von denen wissen wir, wie für sie Märkte gemacht werden.
Er sagte “tatsächlich haben private Güter das gleiche Anreizproblem, oder können es haben.“
Wenn man als einziger Informationen über die Kostenstruktur in der eigenen Branche hat,
hat man vielleicht einen Anreiz, diese gegenüber anderen falsch darzustellen, um den Monopolpreis zu erzielen.
Die Information war auch in den Märkten der privaten Güter verfügbar
und das war Leos brillante Einsicht, dass das Problem ein Kommunikationsproblem sei,
jedoch eines der Anreize zum Kommunizieren, und sein Ausdruck der Anreizkompatibilität kristallisierte die Dinge.
Dann war da das Problem, was Anreizkompatibilität eigentlich bedeutet
und es dauerte ein paar Jahre, bis in den 1970ern Leo und andere, wie Eric und ich und viele andere,
irgendwie realisierten, dass einige von uns dies auf eine Art und die anderen auf die andere Weise interpretierten.
Der Bayes-Ansatz.
Lassen Sie mich ausholen und etwas zur Geschichte sagen; ich möchte über Harsanyi sprechen.
Es fällt mir durch den Nobelpreis auf, lassen Sie mich zurückgehen und sagen,
der Titel Mechanismus-Design-Theorie ist in der englischen Übersetzung,
die schwedische Akademie der Wissenschaften beschuldigte uns, daran beteiligt zu sein.
Es ist ein Begriff, ich verwendete diese Art Terminologie in meinen Abhandlungen, so wie Leo und Eric; ich weiß, dass ihr das tut.
Ich hatte aber ein Arbeitspapier, in dem ich kühn behauptete,
diese Abhandlung zur Mechanismus-Design-Theorie sei eine Abhandlung über Spieldesign,
es handelt von nichts anderem als einem einzelnen Spiel, jedoch vom Entwickeln eines Spiels.
Es schien mir, die gleiche Terminologie würde sich richtiger auf
Al Roths und Lloyd Shapleys Nobelpreis, Spieldesign, Marktdesign, anwenden lassen.
Ich glaube, wir reden über die Theorie des Designs von Kommunikationssystemen oder Koordinationssystemen.
Ich denke daran gerne als eine Theorie der optimalen Vermittlung.
Bei der bewegt sich ein Vermittler zwischen den Menschen hin und her und erweitert die Möglichkeiten,
ihre strategischen Möglichkeiten, denn was Sie dem Vermittler sagen, ist etwa:
und dadurch ergeben sich strategische Optionen was zu sagen ist.
Und der Vermittler wird dann reagieren und vielleicht einige Informationen an die anderen weitergeben,
vielleicht werden einige soziale Entscheidungen durch den Vermittler gesteuert oder vielleicht haben Individuen in der Gesellschaft
einige unverzichtbare Aufwandsvariablen, die sie kontrollieren und über die sie bestimmen, wie wir darüber denken sollen.
Ich möchte sagen, den Teil des Gegenstandes, den ich annehme
ist das Verständnis von Effizienz.
Zurück zu Pareto, einem dem kein Nobelpreis verliehen wurde, da dieser Preis, als er lebte, nicht existierte.
Verstehen, was Pareto-Effizienz bedeutet, wenn wir beginnen über Transaktionen zwischen Menschen zu reden,
die unterschiedliche Informationen und unterschiedliches Vertrauen zueinander haben.
Aber du hast natürlich nur über einen anderen Teil geredet,
jetzt weiß ich also, warum sich dieser Ausdruck nicht auf deiner Website befindet, um zu beschreiben,
was Mechanismus-Design bedeuten könnte,
aber sicherlich für die Bayesianer.
Ich möchte das Problem unterstreichen, das ich als „Was meinen wir mit Effizienz“ ansehe.
Was sollten Ökonomen unter der Effizienz eines Marktes oder einer Gesellschaft
oder einer Organisation verstehen, innerhalb derer einige Transaktionen stattfinden,
zwischen Menschen, die unterschiedliche Informationen haben und denen es schwerfällt, einander zu vertrauen?
Ich möchte beifügen, beide haben Schwierigkeiten einander hinsichtlich der Aussage der anderen, über deren private Kenntnisse, zu vertrauen.
Und vielleicht haben sie Schwierigkeiten einander zu vertrauen, dass sie das umsetzen, was sie versprochen haben,
wenn ich nicht sehen kann, was du tust, wenn ich nicht sehe, wie schwer du arbeitest
und du nicht siehst, wie schwer ich arbeite.
Harsanyi schrieb 1967 eine klassische Abhandlung, es ist ein langes Arbeitspapier in drei Teilen und er erkundet schrittweise,
was wir über Spiele sagen können, wenn Menschen, während der Zeit, in der man das Spiel spielt,
unterschiedliche Informationen haben.
Es muss eindeutig ein allgemeines Modell von Transaktionen zwischen Menschen mit unterschiedlichen Informationen sein.
Davor, die Nachrichtenübermittlungs- und Informationsökonomiepreise von 2000 und 2001
über Menschen mit verschiedenen Informationen.
Der Gedanke vor Ende der 1960er…..
Vickreys Abhandlung von 1961 ist die früheste Abhandlung, die ich kenne, die sich ernsthaft, analytisch mit
Transaktionen auseinandersetzt, bei denen Menschen über unterschiedliche Informationen verfügen.
Fast alles geht in der formalen Wirtschaftsanalyse davon aus, dass jeder die gleichen Informationen hat,
und sicherlich alles, was vor 1961 geschrieben wurde.
In den 1970 wird es zu etwas, das wir alle besser verstehen wollen,
und viele von uns kamen fast unabhängig voneinander darauf.
Für mich war es Harsanyi Versuch, ein allgemeines Spielmodell mit unvollständigen Informationen zu formulieren.
Er geht eine Anzahl Schritte durch und sagt, man kann den Personen etwas geben,
von dem sie wissen, dass das andere Leute nicht wissen, doch dann muss man sagen, was macht…
Spieler 1 weiß etwas, was Spieler 2 nicht weiß, aber man muss fragen, was Spieler 2
glaubt, was Spieler 1 weiß.
Und was glaubt Spieler 1, das Spieler 2 glaubt, und was glaubt Spieler 2,
das Spieler 1 glaubt Spieler 2 würde es glauben und so weiter.
Und das Modell wurde immer komplizierter und dann zerschlug er den Gordischen Knoten und sagte:
Hier ist das allgemeine Modell. Wir haben eine Anzahl Spieler.
Wir nehmen allgemein bekanntes Wissen an, jeder weiß, dass jeder es weiß und so weiter.
Und jeder Spieler hat eine Reihe an Auswahlmöglichkeiten, die allgemein bekannt sind,
es gibt einen Satz Typen, die allgemein bekannt sind und jedermanns Erfolg kann von
seiner oder ihrer und allen anderen Auswahlmöglichkeiten und Typen abhängen.
Der Typ ist eine Zufallsvariable, die die privaten Informationen eines Individuums beschreibt.
Der Typ eines Spielers ist, was immer der Spieler zur Zeit, während der das Spiel gespielt wird, weiß,
dieses ist, im Spiel, kein allgemeinbekanntes Wissen innerhalb der Gesellschaft.
Und dann müssen wir eine Wahrscheinlichkeitsstruktur aufstellen.
Am einfachsten ist es, wenn man eine gemeinsame Wahrscheinlichkeitsverteilung der Typen vornimmt.
Eine gemeinsame Verteilung der Typen aller Spieler, das war Harsanyis allgemeines Modell.
Für mich ist William Vickreys Abhandlung eine brillante Analyse von dem, was wir später ein Bayes-Spiel nannten,
noch vor Harsanyi.
Ich glaube, alles was in der Zwischenzeit passiert war, kenne ich nicht so gut,
da ich noch nicht wissenschaftlich tätig war.
Ich vermute, in der Zwischenzeit zwischen 1961 und als die Leute begannen Harsanyi zu lesen,
hatten viele Leute sich Vickrey Abhandlung angesehen und gesagt: „Es geht um Auktionen.“
Ich war in letzter Zeit bei keiner Auktion, ich mache mir nicht viel daraus, Sie vielleicht aber.
Vickrey, richtig verstanden, ging es dabei um Information und Planung,
und nachdem die Leute Harsanyis allgemeines Modell studiert hatten, dann Auktionen,
besonders mit den Techniken, die uns Vickrey lehrte, die Vickrey so frühe darlegte,
da gab es ein schönes Beispiel eines allgemeinen Bayes-Spiels, bei dem es Preise gibt und,
in dem Preise auf der Basis von Informationen gebildet werden.
Informationen der Bietenden, die ihre Angebote beeinflussen werden, doch als Ergebnis des Spiels gibt es einen Preis.
Hier ist also Preis und Ressourcenallokation. Wer gewinnt das Objekt und erhält die Allokation?
Das hängt von den Spielregeln ab und diese begann Vickrey zu untersuchen.
Er fand das erste von vielen Erlös-Äquivalenz-Ergebnissen, in seinem Falle, dass die Erst- und die Zweitpreisauktion,
das war so interessant, dem Verkäufer dieselbe erwartete Einnahme gab,
das war interessant.
Wenn man es von einem allgemeinen Harsanyi-Blickpunkt aus sieht, ist man auf einmal nicht überrascht,
in den frühen Abhandlungen George Akerlofs über die Märkte von Zitronen zu sehen,
die Typen der Verkäufer waren über die Qualität informiert….
Ich verkaufe dir meinen Wagen, ich bin Spieler 1 und du bist Spieler 2, der mein altes Auto kaufen wird.
Vielleicht können wir uns auf einen Preis einigen, ich habe aber private Informationen darüber,
wie häufig er im letzten Jahr Pannen hatte.
Ich weiß etwas über die Qualität, mein Typ ist also, ich könnte wissen, dass ich ein hochwertiges Auto habe,
oder ein minderwertiges Auto und auf einmal, wenn du den Wagen von mir kaufst, dann hängt dein Ergebnis von meinem Typ ab.
Das geschieht in dem Private-Werte-Modell, danach schaute Vickrey in seiner klassischen Abhandlung.
Das Private-Werte-Modell ist gut, aber es kann gemeinsame Wert-Auktionen haben.
Und wenn man alles das zusammennimmt, würden Gewinner-Flüche nicht im Private-Werte-Modell existieren,
bei dem jeder weiß, wieviel ihnen die Sache, die sie kaufen, wert ist.
Wo hingegen Unsicherheit hinsichtlich der Qualität des zu kaufenden Objekts besteht,
müssen sich Leute plötzlich Sorgen darüber machen, was andere Leute wissen, wenn sie ein Angebot abgegeben haben.
Harsanyis allgemeines Modell öffnete also die Tür, dies und viele andere Dinge in einem gemeinsamen Rahmen zu assimilieren,
um alle diese Dinge zu sehen, alle diese Anwendungen und Signalisierung
und Versicherungs-Antiselektionsmodelle der klassischen Rothschild-Stiglitz-Abhandlung.
Alle davon in gewissem Sinne als Fälle, die sich modellieren ließen,
wenn man endlich viele Menschen im Markt als Bayes-Spiele hat.
Für mich ist das allgemeine… Was uns Leo Hurwicz lehrte, war darüber nachzudenken…
Unter gewissen Umständen und ich glaube, Erics Abhandlung, zusammen mit Dasgupta und Hammond,
war schon früh eine von mehreren Entdeckungen des Offenbarungsprinzips und ich arbeitete unabhängig von ihnen daran.
Sie verstanden, für verschiedenen Lösungskonzepte musste manchmal das Offenbarungsprinzip angewendet werden,
manchmal auch nicht.
Das Offenbarungsprinzip beinhaltet,
für jedes Bayes-Gleichgewicht, das man sich bei allen Kommunikationsprozessen vorstellen kann,
die der Vermittler planen kann, wenn er bei einem Harsanyi-Bayes-Spiel interveniert,
gäbe es ein entsprechend ehrliches Gleichgewicht, in dem jeder sagt…
Der Vermittler fragt jeden vertraulich: „Was ist dein Typ“, und dann, wenn die Leute
private Entscheidungen über eine Bemühung treffen müssen, sagt er den Leuten vertraulich: „Sie sollten das tun“,
nachdem er alle die privaten Informationen gesammelt hat.
Sollte es einige allgemeine soziale Entscheidungen geben, die der Vermittler kontrolliert, dann trifft der Vermittler diese Wahl.
Der Vermittler kann jedes andere Gleichgewicht jedes Kommunikationssystems vortäuschen,
indem er einfach Pläne, Mechanismen oder Entscheidungsregel verwendet, die Ehrlichkeit und Gehorsam zu einem Gleichgewicht machen.
Wenn jeder denkt, die anderen sind ehrlich, hat keiner einen Anreiz zu lügen.
Das ist unsere Bayes-Interpretation von Leo Hurwiczs ursprünglichem Gedanken zur Anreizkompatibilität.
Warum ist das wichtig?
Was wirklich stattfindet ist, glaube ich…
Das Offenbarungsprinzip und Hurwiczs Definition der Anreizkompatibilität
wirft plötzlich die Frage auf, eine soziale Wohlfahrtsfunktion jedweder Art zu formulieren.
Die soziale Wohlfahrtsfunktion könnte einfach die sein, mir das Meiste zu geben; ich möchte den am höchsten zu erwartenden Nutzen
und alle anderen haben das einfach zu akzeptieren.
Oder wir könnten einen Durchschnitt unserer entsprechenden Ergebnisse haben.
Welche soziale Wohlfahrtsfunktion auch immer, gierig oder asymmetrisch oder symmetrisch, wir zum Niederschreiben eben wählen wollen.
Das Beste, das man für diese soziale Wohlfahrtfunktion tun kann, lässt sich erreichen,
indem man einfach diese ehrlichen und treuen Absätze beachtet, bei denen keiner einen Anreiz hat,
gegenüber dem Vermittler zu lügen oder ungehorsam zu sein.
Dem Vermittler gegenüber lügen,
wenn man Informationen zur Verfügung stellt oder ungehorsam bei Empfehlungen des Vermittlers bezüglich Bemühungen sein.
Und den Anreiz-Einschränkungen unterliegen.
Die Einschränkungen nannte ich gerade, die Anreiz-Einschränkungen, dass man nicht ablenken sollte, indem man lügt oder ungehorsam ist.
Diese Anreiz-Einschränkungen kommen von einer breiten Klasse grundlegender Beispiele, die sich leicht niederschreiben lassen.
Ich würde also plötzlich einwenden, was wir in der Ökonomie hatten, war eine formale mathematische Struktur,
anhand derer wir sehen konnten, dass ein Teil des ökonomischen Problems die Anreiz-Einschränkungen war.
Anreize, damit die Leute Informationen bereitstellen, die ihnen persönlich bekannt sind.
Das Problem den Leuten Anreize zu bieten, damit sie Anstrengungen unternehmen, die sonst keiner direkt beobachten kann.
Beim ökonomischen Problem, bei allen vorhergehenden Generationen, waren der Kern des Problems ressourcenbedingte Einschränkungen.
Die Befriedigung der Bedürfnisse der Menschheit hat Grenzen, denn wir haben nur eine bestimmte Menge an Ackerfläche,
nur so viel sauberes Wasser, nur so viel Kohle, die man ausgraben kann,
nur so viele geschulte, qualifizierte Ärzte auf der Welt und so weiter.
Diese ressourcenbedingten Einschränkungen sind mit Preisen verbunden,
doch bei den Anreiz-Einschränkungen handelt es sich auch darum, dass wir verschiedene Informationen haben.
Diese waren absolut… In gewissem Sinne möchte ich behaupten, wir haben mit der Anreizkompatibilität,
mit Leos Idee der Anreizkompatibilität, ergänzt, besonders in seinem Bayes-Kontext,
innerhalb dessen sich dies ziemlich einfach anwenden lies.
Wir reicherten unser Verständnis des ökonomischen Problems an, um die Anreiz-Einschränkungen einzubeziehen.
Die andere Seite war, und ich möchte sagen, das Arbeitspapier, an das ich denke, wenn ich einen Nachtrag
zur Zitierung des Nobelpreises 2007 geben könnte...
Ich wünschte, ich könnte in meine Abhandlung noch Bengt Holmström von 1983 als Referenz hinzufügen.
In Holmströms Paper, so glaube ich, haben wir versucht, alles zusammenzuführen.
Die erste Hälfte der Abhandlung thematisiert besonders die Frage, wir gehen das jetzt durch und sagen:
Der erste Gedanke ist Hurwiczs Kernvorschlag, Kernvorschlag Nummer 1,
dass wir nicht über eine bestimmte Allokation sprechen werden, sondern eher, wie im Markt,
sagen, ein Markt ist effizient konzipiert.
Worüber wir reden wollen ist, wie die Allokation der Ressourcen von den Informationen der Menschen abhängt.
Das, was Eric eine soziale Auswahlfunktion nennt, oder du nennst es eine Allokationsregel.
Dann können wir es, anhand einer Klasse von Mechanismen die das umsetzen, bestimmen und sagen,
nicht die Allokation ist effizient oder ineffizient,
es ist die Art, in der Allokationen von Informationen abhängen, die Funktion vom Informationsraum
zum Allokationsraum, welche eventuell ineffizient ist.
Und seine Effizienz, Bengt und ich haben es in diesem Arbeitspapier dargelegt, die den Anreiz-Einschränkungen unterliegen sollte,
und wir legten dar, dass vielleicht die richtige Zeit, das Wohl der Menschen zu bewerten,
bei den meisten Interpretationen dieser Modelle die ist, wenn sie bereits über die Informationen
ihrer privaten Informationen verfügen, sich aber nicht kennen, was wir das Zwischenstadium nennen.
Als Letztes möchte ich sagen, es gab technische Ergebnisse zum Erlös-Äquivalenz-Ergebnis.
In der von mir erwähnten Auktionstheorie ist eines von mehreren Ergebnissen in meiner Abhandlung mit Mark Satterthwaite
die Unmöglichkeit eines einfachen Integrals, um zu bestimmten, welche Arten bilateraler Geschäfte durchführbar oder nicht durchführbar sind.
Was meiner Ansicht nach aber noch wichtiger ist, grundlegend war der Gedanke der Informationsprämie,
und da kommen wir wieder zurück, ich glaube, Jim hat darüber geredet.
Da ich private Informationen habe, können bestimmte Typen von mir nicht in Abrede gestellt werden.
Wenn Sie meinem schlechtesten Typ einen Anreiz zur Teilnahme geben…
Geben Sie meinem unqualifiziertesten Typen einen Anreiz zur Teilnahme, nicht ausgeschöpft,
mein unqualifiziertester Typen, oder geben Sie ihm den Anreiz, sich einfach davonzumachen,
dann müssen meine besser qualifizierten Typen sich besser schlagen.
Und wenn Sie mich, und meinen realen Typen, gut behandeln,
dann müssen meine höher qualifizierten Typen, die ich wirklich bin, sogar noch besser behandelt werden.
Das tauchte zu Beginn auf… Ich glaube die Idee davon ist der Mechanismus,
das ist effizient oder es ist es nicht, Anreiz-Einschränkungen sind real und ein Teil des ökonomischen Problems
und die privaten Informationen von Menschen könnten ihnen Prämien geben, welche die Gesellschaft nicht zu enteignen vermag.
Dies sind einige der großen Gedanken, um die es hier ging.
Ich möchte als Nutzer dieser Ergebnisse eine Stellungnahme oder einen Kommentar abgeben.
Ich denke, dies ist den drei Präsentationen gemein, ausgenommen Rogers,
du hast das überhaupt nicht dargestellt.
Es gab von dir und Mark Satterthwaite eine Abhandlung im Journal of Economic Theory, die eine Version davon enthielt.
Das ist unmöglich.
Viele Leute hier im Raum kennen vermutlich das, was das Coase-Theorem genannt wird.
Wir können alle wie gehabt mit Externalitäten umgehen, wenn wir über eine ausreichend starke Verhandlungsposition verfügen.
Alle die Probleme, die wir haben, sind Probleme der Übertragung von Eigentumsrechten und dem Sicherstellen,
dass, was immer auch das Verhandlungsspiel oder der Verhandlungsablauf ist, es ausreichend differenziert sein wird,
mit dem Problem umzugehen.
Das Myerson–Satterthwaite-Theorem sagt nun aus, wenn man gegenseitig asymmetrische Informationen hat
und es bekannt ist, ob ein Handel sich lohnt oder nicht.
Es ist nicht allgemein bekannt, ob ein Handel sich lohnt oder nicht.
Dann lässt sich möglicherweise kein Verhandlungsspiel konstruieren, mit dem man ein effizientes Ergebnis erhält.
Das heißt, das Coase-Theorem setzt bei Informationsasymmetrie voraus, sie sei kein Problem.
Warum bin ich davon so beeindruckt?
Weil es eine Aussage über Spiele ist, die wir nicht einmal kennen.
Die Aussage lautet, man kann kein Design schaffen und ich unterschätze deine Fähigkeiten nicht.
Man kann kein Spiel entwerfen, das eine effiziente Allokation umsetzt.
Und im dem Teil “nur wenn“ der Präsentation von Eric, gab es ebenfalls ein Unmöglichkeitstheorem.
Wenn man eine soziale Auswahlfunktion hat, die Monotonie nicht befriedigt,
ganz gleich, was Sie unternehmen, man kann kein Spiel konstruieren, welches die Umsetzung nach Nash
in dieser sozialen Funktion bietet.
Und natürlich, Jims Ergebnisse zur Einkommensbesteuerung
enthalten ebenfalls Unmöglichkeitstheoreme, nämlich, dass man keine Anreizkompatibilität und Extractments erhalten kann.
Das wirklich hervorstechende Merkmal, und hier glaube ich, Mechanismus-Design
ist wirklich etwas mehr als nur angewandte Spieltheorie,
das wirklich hervorstechende Merkmal ist, man erhält Ergebnisse, bei denen es um willkürliche Spiele geht,
die versuchen, das Wesen der Informationsbeschränkungen zu erfassen, wie Rogers es nennt.
Das muss bedacht werden, wenn man darüber nachdenkt, was eine Gesellschaft, eine Gruppe von Menschen tun sollte,
um mit Koordinationsproblemen fertig zu werden.
Ich möchte hier die Diskussion aber nicht in die Länge ziehen und bitte nun um Fragen aus dem Publikum.
Oder Kommentare.
Kommen Sie doch bitte ans Mikrofon.
Wer, glauben Sie im Panel, verfügt über das richtige Wissen und Anreize,
die Risikoübernahme von Banken zu überwachen und ihr Verhalten zu disziplinieren.
Sind es Aufsichtsbehörden, Interessensgruppen oder die Gläubiger.
Nicht so sehr den Politik-Hut.
Ich würde sagen, Sie haben gerade ein sehr interessantes Forschungsprogramm definiert.
Und ich möchte hinzufügen, sorgen Sie dafür, dass die Design-Probleme, über die wir nachdenken,
auf eine vernünftige und robuste Art beachtet werden, damit, wenn sich die Beschaffenheit der sozialen Interaktionen
zwischen heute und nächster Woche ändert, was auch immer wir heute entwerfen, dann nicht hinfällig ist.
Ich möchte aber auch auf Peter Diamonds methodologischen Kommentar von heute Morgen zurückkommen.
Ich sage dies jetzt als jemand, der sowohl theoretisch arbeitet und bei politischen Anwendungen tätig ist.
Jedes theoretische Modell, jede Version des Auktionsproblems, jede Version einer Verhandlungslösung,
jedes Modell des Wettbewerbs ist, wie ich das gerne nenne, ein Zugang, ein Tier in unserem Zoo der Modelle.
Und wenn ich ein anwendungsorientiertes Problem habe, muss ich als Erstes entscheiden,
welches Zoo-Mitglied oder welche Mitgliedern des Zoos sind relevant,
um über dieses bestimmte Problem nachzudenken.
Bei dem Problem, auf das Sie hinweisen, würde ich sagen, das betrifft
eine übermäßige Risikoübernahme als eine Funktion der Kreditaufnahme,
und könnte eines der Tiere des Zoos sein, in den wir eintreten sollten.
Es gibt auch andere, ich glaube aber nicht an eine beschreibende Theorie.
Theorie gibt uns einen Satz von Modi, wie man über Dinge denken kann,
und was das betrifft kann ich nichts Besseres tun, als auf die Marshall-Zitate verweisen,
die Peter Diamond heute Morgen angeführt hat.
zu Anreizen für das Management im Allgemeinen, was auch auf das Verständnis
verschiedener Formen von Unternehmensfinanzierung in Hinblick auf die Optimierung von Anreize
für einen Manager, der unveräußerliche Kontrolle über etwas hat, angewendet werden kann.
Selbstverständlich ist Kapitalbedarf ein Versuch, dem Besitzer die richtigen Anreize zu geben.
Bei der Sorge um einen Haftungsausschluss sind bessere Anreize zu geben, um Gläubiger zu kontrollieren.
Ich habe heute Morgen beim Frühstück argumentiert, dass, wenn man ein Modell niederschreibt, bei dem angenommen wird,
ein Regulator könne etwas mit privaten Informationen anfangen, indem die Art Techniken angewendet werden, von denen ich sprach,
falls er vertrauliche Kommunikation betreibt,
wenn man das anwendet und dann interpretiert, dass der Vermittler meines Modells einer Ihrer Regulatoren ist,
könnten Sie in großer Gefahr sein und ich könnte in großer Gefahr sein, folgte ich meiner eigenen Verordnung,
denn im Finanzsystem befindet sich genügend Geld,
jede kleine Anzahl Amtsträger zu korrumpieren.
Und in gewisser Weise würde ich argumentieren,
es gibt noch eine andere Anreiz-Einschränkung, von der ich nicht unbedingt weiß, wie sie sich einfach modellieren lässt.
Das hat etwas mit Transparenz und Demokratie zu tun, die benötigt werden, letztendlich glaubhaft zu machen,
dass regulative Verpflichtungen das eine oder andere als die Funktion von Informationen
über das Bankensystem unternehmen.
Das ist ein Mangel an Transparenz…
Es kann auf der regulativen Ebene ein moralisches Risiko geben, und wenn man darauf nicht eingeht, könnte einem etwas Wichtiges entgehen.
Da ich aufgehört habe, ehe ich auf moralisches Risiko eingehen konnte.
Was, glaube ich, interessant ist.
Wir glauben über moralisches Risiko folgendes zu wissen,
sollte ein Optimum an moralischem Risiko umgesetzt werden, müsste dies über
unglaublich komplexe Verträge mit Ausschlussklauseln geschehen, die besagen, man kann keinen anderen haben.
Wir machten Beobachtungen über Menschen, die verbriefte Verträge geschaffen haben, die dann gehandelt wurden, die eindeutig nicht
von der Art sind, die Art Vertrag, die AIG über diese Dinge aufgesetzt hätte.
Das war ein Gedanke dazu, dass die Antwort auf die gestellte Frage keine ist, die sich ein Theoretiker ausdenken könnte.
Soweit grundsätzlich.
Es scheint dennoch, als müsste es so eine Lösung zur Selbstkontrolle geben, was die Existenz des moralischen Risikos betrifft.
Doch der Gedanke, dass irgendeiner von uns, insbesondere Manager oder Hypothekengeber
ihre gesamten Aktivitäten durch einen Vertrag diktiert bekommen, in dem alle möglichen Eventualitäten niedergelegt sind,
macht keinen Sinn.
Es ist nicht klar, ob jemand den Weg einschlagen kann, den Ihre Frage nahelegt.
die Tatsache, dass wir diese theoretisch optimalen Verträge nicht schreiben werden,
bedeutet, wir müssen uns letzten Endes auf Regulierungen verlassen.
Der Regulator muss internalisieren…. Die Externalität, welche die Verträge nicht bieten, denn sie sind nicht optimal.
es gibt einen Ausgleich zwischen Versicherung und moralischem Risiko, der Risikoteilung und dem moralischen Risiko.
Teile ich Risiken, habe ich weniger Anreize hart zu arbeiten.
Vielleicht hätten wir vor 2008 besorgt sein müssen, eine solche Kreativität beim Entwickeln von neuen Wege zu beobachten,
Hypothekenrisiken so weit und eng zu teilen.
Es ist ein Problem der Anreiz-Einschränkung.
Wir warten noch immer auf das reale Modell.
Wir reden nur.
auch wenn ich vor langer Zeit zum Ökonom ausgebildet wurde.
Mir scheint, moralisches Risiko wird nur unter einem Aspekt untersucht,
durch die Finanzkrise hat sich vielleicht aber gezeigt, dass es einen anderen Aspekt des moralischen Risikos gab.
Vorstände, die Entscheidungsfindung von der Geschäftsleitung verlangen oder aufgeben,
und zwar nicht aus Mangel an Informationen, sondern aus mangelnder Kompetenz.
Ein Aspekt des moralischen Risikos ist also, wenn man daran gebunden ist, eine Entscheidung zu treffen
und gibt diese Gelegenheit an einen anderen Vertreter weiter, einfach, weil man sich nicht zutraut,
diese Entscheidung zu treffen.
Könnten Sie dazu etwas sagen?
über das vor vielen Jahren Berle und Means geschrieben haben, und weitreichenden Einfluss ausübten damit.
Sie haben darauf hingewiesen, dass die modernen Publikumsgesellschaften ein moralisches Risikoproblem haben.
Der Vorteil ein Unternehmen mit breit gestreutem Aktienkapital zu haben ist,
man kann eine Menge Kapital aufnehmen und der Nachteil ist, das Management lässt sich sehr schlecht kontrollieren.
Wenn es eine Menge kleiner Aktionäre gibt.
Da Sie sehr interessante Diskussionen zur intellektuellen Geschichte der Anreiztheorie
und dem Mechanismus-Design, der sozialen Auswahltheorie und so weiter geführt haben, was sehr aufschlussreich war,
frage ich mich, ob Sie etwas darüber sagen könnten, was Sie glauben, dass es auf diesem Gebiet noch zu tun gibt.
Was sind die wichtigen Dinge, die nicht bekannt sind.
Was sind die wichtigen Dinge, über die nachzudenken für die Menschen sehr nützlich wäre?
Wenn jemand private Informationen hat und diese das Mechanismus-Design lenken,
ist das ein sehr subtiles Problem über das Eric und ich geschrieben haben.
Und meine Ansichten haben keine breite Akzeptanz erreicht und als ich sie das letzte Mal vortrug,
ich gestehe, da gab es dabei einige Theoreme, die einfach so elegant schienen, dass etwas an ihnen dran sein müsste,
ich habe aber auch nicht genau verstanden warum.
das glücklicherweise kürzlich durch Mylovanov wieder in den Vordergrund getreten ist.
an denen Leute derzeit arbeiten, bei denen der Weg noch weit ist, und die ich spannend finde.
Die eine ist, was man manchmal robustes Mechanismus-Design nennt.
Eines der Merkmale des Mechanismus-Designs, so wie es bei spezifischen Modellen, spezifischen Settings angewendet wird ist,
der optimale Mechanismus kann oft ziemlich kompliziert sein,
vielleicht eher empfindlich gegenüber bestimmten Details des Settings.
Das bedeutet, falls wir das Setting nicht mit großer Präzision kennen,
werden wir den Mechanismus nicht ganz richtig erfassen.
Dies ist ein Problem, auf das Bob Wilson vor vielen Jahren hingewiesen hat,
und wird jetzt die Wilson-Kritik genannt und dessen sich die Leute kürzlich angenommen haben.
Die Idee ist, Mechanismen zu konstruieren, die in einem gegebenen Setting nicht optimal sind,
die aber in einer großen Vielfalt an Settings gute Leistung erbringen.
Und so gibt es beispielsweise eine Reihe von Abhandlungen von Dirk Bergemann und Stephen Morris,
einige davon haben sie in einem Band über robustes Mechanismus-Design zusammengetragen.
Es gibt diesbezüglich noch sehr viel mehr zu tun.
Dann ist da die Frage der begrenzten Rationalität oder der eingeschränkten Rationalität.
Sobald man sich mit der Umsetzung nach Nash oder der Bayes-Umsetzung befasst,
hängt das, was man tut, stark von dem ab, was man glaubt, dass andere es tun.
Die Frage, ob reale Vertreter tatsächlich die erforderliche Optimierung leisten können.
Insbesondere wenn das Spiel einigermaßen kompliziert ist.
Und so ist es wichtig zu bedenken, in welchem Umfang wird ein Mechanismus weiterhin wirken,
oder zumindest einigermaßen gute Ergebnisse liefern, wenn die Vertreter Fehler machen oder das, was andere Vertreter tun, falsch wahrnehmen.
Die eingeschränkten Rationalitätsprogramme im Mechanismus-Design sind ebenfalls interessant.
Es ist sehr schwer, da unsere Modellierungsversuche in dem Bereich der eingeschränkten Rationalität, Verhaltensökonomie
unscharf sind, so dass wir für jedes mögliche Verhaltensproblem ein getrenntes kleines Modell haben.
Daher, im Augenblick, wenn Sie einen Mechanismus aufbauen wollen, der gegenüber all diesen möglichen Verhaltensschwierigkeiten robust ist,
müsste man 12 verschiedene Verhaltenstheorien oder so ungefähr einsetzen, was eindeutig nicht machbar ist.
Ich denke, in der Verhaltensökonomie selbst könnte es notwendig sein, wichtige Schritte beim Mechanismus-Design vorzunehmen,
das ist eindeutig ebenfalls ein wichtiges Programm.
Man hat vielleicht bemerkt, dass es meine Tendenz ist, mich um,
ich sage lieber nicht realistische Situationen, aber um konkretere Beispiele und so weiter zu kümmern.
Ich werde versuchen, einen konkreten Fall zu zeigen,
der mir immer als ein echtes Rätsel erschien, das ich gerne geklärt hätte.
Und ich bin mir nicht sicher, welcher Art dieses Klären sein könnte.
Wenn wir den nächsten Schritt jenseits der Einkommenssteuer-Theorie machen, von der ich Ihnen vorhin erzählte.
Da gibt es verschiedene Richtungen, die man gehen kann und die scheinen alle zum Problem der eingeschränkten Rationalität zu führen.
Ich erwähne eine der Thesen.
Dass, statt sich mit asymmetrischen Informationen auseinanderzusetzten, also zu sagen,
angenommen, die Leute haben private Informationen und die Unsicherheit ist immer noch,
dass was auch immer es zu wissen gibt, keiner Kenntnis davon hat.
Moralisches Risiko behandeln wir als würden wir den Menschen in der Wirtschaft sagten,
sie würden ihre eigenen Fähigkeiten nicht einmal kennen.
Das klingt Anfangs nicht ganz vernünftig, wenn man aber bedenkt, dass viele der realen Entscheidungen
zum Arbeitskräfteangebot viel Zeit in Anspruch genommen haben,
ähnlich wie die, welches Fach werden Sie an der Universität studieren, oder was auch immer,
dann gibt es da deutlich eine Menge an Ungewissheit, aus der moralisches Risiko entsteht.
Will man es einfach und nimmt das gleiche besondere Modell, das ich für die Einkommensbesteuerung verwendet habe,
und wendet es stattdessen auf moralisches Risiko statt asymmetrische Informationen an,
ist es keine wirklich schwere und schnelle Unterscheidung, ich denke aber, ich habe genug gesagt, um anzudeuten, was ich meine.
Dann entdeckt man, man gelangt willkürlich nahe ans erste Beste.
Ich meine in der besonderen Spezifikation des Modells.
Und man macht dies mit sehr harten Strafandrohungen, für den Fall, dass man sehr wenig produziert.
Wenn die Person, von der man hier spricht, dies tut,
nun ich denke, Ehre wem Ehre gebührt, Peter Diamond hat mehr oder weniger unmittelbar darauf hingewiesen,
dies bedeutet, man nutzt wirklich, auf eine unvernünftige Art und Weise, die Theorie rationalen Verhaltens bei Unsicherheit.
Es besteht eine extrem geringe Wahrscheinlichkeit, dass es einen hart treffen könnte.
Und wenn dieses Ereignis nicht eintritt, erhält man das erstbeste Konsumniveau und jeder bekommt das Gleiche.
Man erwartet also von Ihnen eine Nutzenberechnung von unglaublicher Genauigkeit.
Dies ist die Art Situation, bei der wir ziemlich sicher sind, dass die Menschen eine eingeschränkte Rationalität zeigen würden.
Was macht man dagegen?
Ich könnte Ihnen andere Umstände nennen und ich habe tatsächlich mit Modellen eingeschränkter Rationalität herumgespielt,
in der Hoffnung, dies würde etwas Licht darauf werfen.
Es ist so ziemlich ein Standardproblem in vielen dieser Bereiche,
dass das Modell schnell recht kompliziert wird und ich glaube an die einfachen Modelle
und möchte aufhören, wenn es zu kompliziert wird, ich denke aber, dies gibt einem eine Menge Gelegenheiten für interessante Dinge.
Meine Empfehlung wäre, nach einer Version zu suchen, bei der man ein realistisches Gefühl hat.
Wir haben über Mechanismus-Design aus der Perspektive einiger Wohlfahrtsmaximierer gesprochen.
Es gibt da ein wichtiges Forschungsprogramm Institutionenökonomie in der Vertragstheorie,
dabei sollen Institutionen und Verträge als notiert nicht notiert erklärt werden
In dem Augenblick, in dem wir daran denken, verwenden wir Mechanismus-Design als ein Instrument,
nicht zur normativen Analyse, sondern zur beschreibenden Analyse.
Was natürlich eigene, grundlegende Probleme aufwirft.
Ein Aspekt, auf den ich hier hinweisen möchte ist, wenn man seine Mathematik richtig macht,
bekommt man gewöhnlich verrücktes Zeugs.
Lösungen von Anreizproblemen und Probleme des Mechanismus-Designs
sind gewöhnlich viel komplizierter, als die Anordnungen, die wir in Wirklichkeit sehen.
Wenn man also fordert, dass die Analyse beschreibend ist, erfordert dies immer eine zusätzliche Annahme der nicht-Verrücktheit.
Nehmen wir an, wir verwenden diese Maximierung die der Anreiz-Einschränkungen unterliegt, und eine nicht-Verrücktheits-Bedingung.
Jensen und Meckling, ein kombiniertes Problem der Risikobereitschaft und Wahl des Aufwands, um zu erklären, wie eine Firma gegründet wird.
Wenn man an die tatsächliche Anreizregelung denkt, dann ist das viel komplizierter, als was uns vorliegt.
das so wichtig ist, damit man nicht bitten muss um…
Können wir eine Verbindung zwischen den impliziten Annahmen der nicht-Verrücktheit,
die in der vertragstheoretischen und der institutionstheoretischen Literatur und der beschränkten Rationalität vorgenommen wird,
mehr explizit herstellen?
Ich bin mir aber nicht sicher, ob wir das schon gemacht haben.
Ich möchte dieses Panel mit einer Geschichte abschließen.
Sie wurde durch eine Bemerkung angeregt, die Roger über Abstimmungen zwischen Anreizen und Versicherung machte.
Irgendwann, Mitte der 90er Jahre, reiste ich durch die USA
und sprach mit Menschen über die Veränderungen bei der Hausfinanzierung, die in den USA stattgefunden hatten.
Und mir wurde sehr enthusiastisch, auch von einigen unserer Kollegen,
von diesem großartigen neuen Mittel berichtet, das Securitisation genannt wurde.
Meine Reaktion war, das ist natürlich wunderbar.
Wenn man eine Bank in Japan oder in Deutschland dazu bekommt, einige der grundlegenden Risiken zu teilen,
etwa das des Zinsrisikos, das mit der Hausfinanzierung im mittleren Westen verbunden ist,
bietet das einen größeren Umfang der Risikoteilung.
Doch diese Bank in Japan
weiß nicht wirklich, ob dieses Grundstück in Iowa gut ist oder ob der Käufer dieses Grundstücks
ein gutes oder schlechtes Risiko ist.
Und an diesem Punkt bekam ich nicht nur einmal, sondern viele Male die Antwort,
in einem großen Paket, und durch das Gesetz der großen Zahl, verschwindet das Risiko.“
Das war die typische Verwirrung, Sprachverwirrung zwischen Risiko als Abweichung vom Mittelwert
und Risiko als eine Wahrscheinlichkeit, dass etwas Schlimmes passiert.
Auf einer Ebene sehen wir ihr moralisches Risiko am Werk oder, wir haben moralisches Risiko am Werk gesehen.
Auf einer Ebene glaube ich, sehen wir auch die Vorteile sehr präzise zu sein,
hinsichtlich der Sprache, die wir verwenden, wenn wir Anreizprobleme niederschreiben
und hinsichtlich des Mechanismus-Designs, das gewählt wird.
Und mit diesen Worten möchte ich diese Sitzung schließen und jedem danken,
besonderen Dank den Panelmitgliedern für ihre Beiträge. Ich habe viel gelernt.