計量経済学 ブログトップ
前の10件 | -

レポートの作業の様子と愚痴。 [計量経済学]

大学院に入ってからグループワークをやたらやるんですよ。

単純に宿題の量が多くて、答えの導入にディスカッションが必要だからグループワークになる訳なんだけれども、本当にグループワークって相手次第なんすね。今回改めて恐ろしさを味わいました。(まだ終わってはいないのだけれども。。。)

いやですね、計量経済学のタームペーパーを期末試験で書いてた訳なんだけれども、いつもグループワークを一緒にするドイツ人のニルスが美人に取られてしまったので、フィンランド人とグループを組まされた訳です。

彼とはそれまでのレポートをこなす時に2、3回喋ったことがあって、まぁ人の話をあんまり聞かない奴なんだよなという印象を持ってたのだけれど、まさかバカだとは思ってなかったんすよ。

もうこいつにはフリーライダーにバカに人の話聞かないわ散々でしたよ。。。というのとどんな感じでプロジェクトが進んで行ったのか?が今日のお話です

1.始動編
計量経済学の最後の授業でニルスを美人に取られ、第二候補だった中国人もノルウェー人のオタク男に取られ、さぁどうしたもんかと思っていたらフィンランド人のラルフ君がやって来て一緒にやろうと誘って来た。

正直人の話をあまり聞かない奴だなと思っていたので周りを見渡すも、俺と彼以外には完全にグループが出来ていたので仕方が無く了承。ここから地獄が始まる。。。

最初のミーティングで大まかなスケジュールを決める事に。イースターにやる気満々だった俺をまずしょっぱなの一言でぶち壊してくれた。

「俺明日からフィンランンドに帰るわ」

いや、おい、
まぁいいか、他の事を先にイースターで済ませてしまえば良いか、それで彼が帰って来てから本格的にやればおっけーさ。

「で、いつ帰ってくるの?」

「まだ決まって無いけど2、3週間くらいかな?(つまりイースター終了から1週間位。)
だからスカイプとメールで進めて行こうよ。」

いつ帰るか解らないって言う言葉に引っかかりつつも、まぁ良いかと了承。ただ、スカイプで通話しながらやると効率が酷く低いのは知っていたのでメールを主に使う事に。そして、フィンランド行きのバスが出る直前までに読まないといけない論文を読んで理解を確認する事に。

次の朝に会って論文の解釈を聞く。
手短に論文の内容を書くと、不確実性が投資に与える影響を会社のデータを使って分析しようという論文。
まず最初に概要と何を分析するのかが書いてあり、
次にデータの構造の問題(詳細は省略)からただ計量分析を用いるだけでは結果が正しいかが解らないという問題が指摘されており、
次にシミュレーションを用いてデータを生成してそのデータの計量分析結果がシミュレーションの使った条件をはっきり特定出来ているかを確認し、
最後に実際にイギリスのデータを利用して分析を試みる、
という流れだった。

結論だけ述べれば、レポートはシミュレーションで合格サインの出たモデルを用いて実際のデータを分析するだけで良いので、最後の分析のパートをメインに理解するべきだった。

しかし彼は何をはき違えたか、ひたすらシミュレーションデータのパートについて話す。
シミュレーションデータの構造について色々と意見を述べそれを20分近く辛抱強く聞いていた俺はこう思った。

こいつ多分このデータがシミュレーションから生成されてるって理解してねぇw

という事で早速このデータがシミュレーションである事を説明し、俺らが読まないといけないパートは最初と最後ですよという事を強く強調した。
そんなこんなで2回目のパートも終了し、論文の最後のパートにある分析結果の再現をそれぞれ始める事にした。

まぁ時間もあるから大丈夫でしょうと考えていた俺は他の授業に時間を費やして、イースターに入ると同時に自分で分析結果の再現を始めた。

しかし中々上手くいかない。

2日ほど悩むに悩んでいた所で、著者のページにデータと他の統計ソフトのプログラムコードが有るのを見つけ、その解析を初め、何とか近い結果の物を導きだした。

で、そのコードとかデータとか諸々を送った所こんな返事が。

「え、取り敢えず今の論文よく意味が分からないからもっと解りやすい情報を探してるよ!」

いやいやいやいやいやいやいやいやお前

そんなあるのか無いのか解らないもの探す前に目の前にある論文を少しでも理解する努力しろよw

と思いつつ忍耐強い俺は「解ったからデータの再現やって、結果が近いかどうかをコメントして。」とメール

しかし何日経ってもメールが帰ってこない。

しびれを切らした所で取り敢えず教授に結果が近いかどうかをメールで聞いた所、
なんとコードをくれたw

結局同じ日に彼からも「inconclusive(よくわかんね)」というメールが来るも、教授のメールをそのまんま転送して問題解決。




2. 恐怖のSIC data
コードを手に入れたは良い物の、それは分析するモデルを手に入れたという意味であって、データを手にした事にはならない。

実際に俺(ら)が分析したのはアメリカに置ける製造業のデータで、このデータ構造は参考にしている論文の物とは全く違う。
よってどうにかしてもとのデータと同じ構造になる様に作り替えなければいけない。
(すごい単純な例で言えば、もとのデータでは”利益”というデータがあったけれども、新しいデータには”売り上げ”と”費用”が入っていて”利益”はそれらの差分から求めなければならない。)


じつはこのデータにはとんでもない罠が仕掛けられていた。

この分析のキモは「不確実性が如何に投資に影響を与えるのか?」という物

もとのデータでは1年に置ける株価の変動率が標準偏差で割られた物が使われていた。(その1年では株価の変化がどのくらい大きかったのか?って事ね)

で、この不確実性って大体「何かが、1年の間にどのくらい変動したのか?」っていうデータで計られるのね。

それって日、週、若しくは月ごとのデータが計算に必要なんですよ。

けれども持っているデータは年ごとのデータ。

つまり、この不確実性のデータは全うな方法じゃぁまず手に入らないんです。

こんなの統計の初歩中の初歩で解るのに、何故か解ってくれない。

事あるごとに

「この方法はどうだい?(ドヤっ」

と月データが必要な物を持ってくる。そして辛抱強く10分くらい説明を聞き、

その度に「いや、月データ無いじゃん」

と突っ込む。

しかしながらどーにも解らないみたいなので、毎回計算モデルの推定にどの変数を使うつもりなのかを聞く。そして最後に彼は「あ、駄目だねと納得する。

これがを3回位繰り返した所で、

生産効率の変化(TFP)がもとのデータで使われている不確実性のデータと相関がある事が示された論文を著者のサイトから見つけ、さらにその変動値であるTFP shockがなんとラッキーな事に今のモデルからも推定が可能である事を見つける。(時系列回帰のAR(1)モデルでTFP と1年前のTFPを回帰分析してその誤差項をTPF shockとして扱う方法)

よっしゃあああああああああああああああと思い

GMMで分析して誤差項を求め、

不確実性の投資への影響を求める分析をした所一通り同じ結果がでた。

が、程なくしてSargan-Hansen test(GMMの根底条件が保持されているかを試す統計検定)が根底条件が駄目だという事を指し示しているのを見つける。

そして一晩寝て、朝起きて、どーにかTFPショックを推定出来ないかと悩んでいた所に妙計が降ってくる。

Dynamic Panel Dataを計算するにはGMMでなくともAnderson Hsiao Modelという方法もある。

しかしながら、この方法には一つ問題があった。

それは誤差項(u_t)ではなく誤差項(u_t - u_t-1)の差分が求まってしまうのだ。

そしてこの差分に魅力はあまり無い。これが問題で一度は使う事を諦めたのだけれども、ここで発想が降って来た。

もし、Anderson Hsiao Modelの推定が正しいのであれば、誤差項の差分(u_t - u_t-1)も正しく推定されてるという事だ。
じゃぁ合ってるかどうか解らないGMMを推定して、この誤差の差分を取ってみて、Anderson Hsiao と比べてみれば良いじゃん!

やばいwこれは天才的な発想をしてしまったんじゃないだろうか?



















とね、思ってたんすよ。この時は。
結局GMMの誤差は正しく推定されている、と思った俺(達)は分析を済ませて結果を理解しようかという段階まで至る。
で、ここでベットに潜りながらまた考えを巡らせ始めた。
あれ、えっと、
Sargan Hansen test(根底条件のチェック)が通らなかったんだよね?
根底条件はInstrumental Variableが有効であるという事だよね?
Anderson Hsiao modelもおなじ根底条件使ってるんじゃなかったっけ?
あれ?
なんでこんな単純な事に気がつかなかったんだろ?

ん?

え?

じゃぁAnderson Hsiaoの根底条件が正しいと言うのが立証出来なきゃ今持ってる推定結果は全部ゴミじゃん。


で、ベットから這い出ておそるおそる推定してみる。

ゴフ

黒だw

という事でまた降り出しに戻ってしまう。

その流れを説明して二つの選択肢が残されてる事を伝え、スカイプの導入をここから決意する。

1つはGMMに違うIV(根底条件)を投入して結果の改善を試みる。
もう1つはTFPショックの推定を業種ごとに全部やる。ただ、この方法だと230回近く分析しないといけないことになる。

前者はゴールにたどり着けるか解らない道で、
後者は無駄に230回も山を登っておりないとゴールにたどり着けない道。

そしてもとの論文の理論はこう言っていた。もし人間が決断を迫られるとき、それも投資の一部であり、その決断の価値が不確実で極端である場合、人間に取っては取り敢えず待ってみて何かが改善するのを見ようとする。と。

取り敢えずどっちが良いかを彼に聞いてみる事にしてメールを送った。
そして次の日帰って来たメールはアイデアがあるからスカイプこいというものだった、選択肢については一切触れられていなかった。

即スカイプで話し始めてアイデアを聞いた。そう、このときはまだ期待してたの。
そこで彼が話し始めたアイデアは月データが必要な物でいっぱいだった。
辛抱強い俺は5分程話を聞いて話を遮って、どんなモデルを使おうが、月データが無ければ推定出来ないのだから無理だ!という話をもう自分の母親でも理解出来るだろうと思うくらいに細かく説明した。

やっと彼は理解した。

やっとだ。

そして俺も理解した。

こいつはまず間違いなく自分で出したアイデアを自分でスクリーニングしてない。

だからこんなゴミみたいなアイデアをぽろぽろ産み出せるのだ。

おまけに俺のアイデアにまったく興味ない。全然チェックしたりしてない。

この辺で最悪残りは全部自分でやらないといけない事を覚悟する。





3. 尋問と拷問
GMMの結果のチェックくらいやってくれよと思っていたのだけれども、
結局ミスをしたのは自分だからと責任を感じ、
全ての産業に対して一つ一つ分析を行う事を決意。

何とかプログラミングの知識を活用してコマンドを作成し、TFPショックを推定する。

そして不確実性の影響を推定。

結果はなんと正の値だった。どー言う事かというと

不確実性が高いと投資する傾向にある。とい意味だ。

いや。逆じゃねーの?(汗

ただ、統計的に優位な結果ではあるし、他の変数は元のデータの分析結果と変わらないし何か理由があるのだろうと取り敢えず次に進む事に。


で、分析は完全に知識差が出る部分なので終止相手のアホなアイデアを否定しては次へと進むという手法をとる。
締め切りが近いのを良い事に13時間スカイプとかで序盤はくそアイデアを否定し続けて相手の精神を弱らせて、あとはひたすら作業的な事をして最後の方であらかじめメモしておいた意見を述べて押し通す。やってる事が尋問と変わらなかった気がするw
そしてこれを最後の1週間毎日行うのであったw

結論を作る際にも彼はまたゴミみたいな理論や分析を持ち出して来た。
一つの変数が変だと言って分析を始め、
散々「モデル構築の際の理論はあるんだよね?分析をどうやって行って行けば結果が得られるかのめどが立っているんだよね?」と確認したのに、
3時間くらい後でただデータを拷問にかけた様な結果を持って来た。(様々なデータがあるので組み合わせはそれこそ何百とあって、その中で無理矢理相関のあるモデルを作る事が可能。そう言った手法を拷問 tortureと言ったりします。英語でねw)

そこで遂頭の中の何かが切れてしまった。
誰かを頼れないという気持ちと、
目の前の問題の大きさと、
そして何よりここでつまずいてしまう事への恐怖に、
何かが耐えられなかった。

お前の持って来た分析結果はただデータを拷問にかけただけのゴミでしかなく、お前はただ単に俺の時間を無駄にしているだけだ。
そう告げてしまった。

そして次の日も彼は笑いながらまたゴミみたいな分析を持ってくるのだった。



最後の方は俺も相当に疲れていたのと、相手が(恐らくこちらの戦略に気がついて)作業をやたらまわしてくる様になったので、割とツメが甘くなって来ていた。

文章構成に関しては彼の方が英語が上手いという理由で任せる事にして、最後に俺が提出前に通しで見て提出するという事になった。

まぁ当然彼が大したチェックもする分けないだろうとタカを括っていたので、彼がOKと言った所で俺が全部提出前に修正してしまえば良いのだ。
大体の内容は一緒に作ったので問題ない。。。はずだった。

英語の文法等には問題は無い物の、核心を外れた解説や間違った理論。消されていた部分も大量にあった。許された時間は締め切りまでの3時間しか無く、その間にそれらの全てを直し何とか時間ギリギリに提出したのであった。





まぁ具体的に彼の何が駄目だったのかを一般化て行くと。

1、バカであるという事。
基本的に意見が明後日の方法を向いている。
恐らく読んで理解する事が出来ていない。

2、人の話を聞かないという事。
こちらの説明を何度遮られたか解らない。
ある時は説明の導入部分で遮られ、ある時は結論の直前で遮られる。
そして彼は完全に明後日の方向を向いて話を始める。
こっちは何かを説明する時に、導入 展開 結論 となる様に喋っていて、
それら全てが説明なのにそれを遮られてしまう。
おまけに、結論を先に行って「解らないからもっと説明してくれ」と言われて説明された場合にも同じ事をされる。

3、時間は守らない。
10分と言ったら1時間。
2時と言ったら5時。
時間通りだった事は結局1回も無かった。

帰ってくるという話だったのに、いつの間にかに帰ってこないということになってた。
そして話を聞いてみるとそれは元からそう言う予定だったそうな。
この話を聞いた時に殺意が芽生えた。

4、自分の意見を自分で確かめない。
彼は自分でチェックしていない意見で人の時間を損なわせる事を全く持って気にかけない。
糞な物を糞のまま出す。

5、人の意見を確かめない。
こっちは自分で確かめて問題が無かったから相手にも確かめてもらいたいのに、それが望めない。
確かめると言って確かめたふりしてるだけの事が殆ど。
そして相手はこっちを利用して意見を確かめる。
これだったら正直自分でやってるのと同じだった。

6、自分で出来る事を相手にやらせる。
相手は相手の方が頭がいいと基本思っているらしく、
どうやらこっちを雑用に使ってもやたらとコマンドを送ってはこれを分析しろ(自分でやらずに)とか言ってくる。



なんか出せばきりがないのでこの辺で。後はプレゼンだけだ。ふぅ。
こうはならない様に僕は僕でがんばるっす。
ただ

もう一生バカとグループワークなんてしねぇ
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:学問

投資と不確実性。 [計量経済学]

はいどーも。

Econometricsのタームペーパーでちょっと疲れたのでブログに逃げますw

まぁ書く内容はタームペーパーの内容なのだけれどもね。

今は不確実性が投資の決定に対してどのような影響を与えるか?を計量経済学のアプローチを使って研究するってのやってます。

投資って言われると人は証券やらなんやらとお金に絡む事ばかり考えがちなのだけれども、
経済学の定義では「未来に利益をもたらす物に自分の持てる何かを費やす」という行為が投資に当たるので実は日々の人々の決定は殆ど投資の定義に収まる物なんですねぇ。

例えば本屋へ行って何かしらの参考書を買ったりすれば、それは立派に投資に当たる訳です。なぜならその本を読むことによって未来においてその知識を使用することができる訳ですから。

ちょっと直感的ではないかもしれないのだけれども、今現在行っている行動を止める事も投資の一つに当たります。
例えば採算の合わない工場を潰す事や、何かの習い事を止めたりする事です。それらの行為を止めてしまえば今費やしてる時間や費用を今後支払わなくて住む訳ですから、これは立派に将来に置ける利益を増やしている事になります。

さて投資には大まかに3つの特徴が有ります。
1. 投資は部分的、若しくは完全に取り止めることができない。一度投資の決定をしてしまえば、投資する直前の状態へは戻れないという事です。
例えば本を買ったけど、何となく嫌になって返品しても時間というコストを支払っている事になります。後は、返品不可能な物を買ってしまえば完全に取り止めることができない訳です。
2. 投資には不確実性が伴う。例え投資を行ったとしてもその結果として得る物が何なのかは投資した時点では全く解らない訳です。例えば新しく工場を建てた直後に輸入規制が緩和されて海外から同じ商品が国内の市場に入ってくれば、それに対抗して値段を下げ結果的に工場の採算が合わなくなったりする訳です。
3. 投資するタイミングは投資する人にゆだねられている。投資はいつでも行えるので、”今の時点では投資しない”という選択肢が有る訳です。もし待っていれば何か状況が変わるかもしれないし、ひょっとしたら不確実性の内のいくらかがはっきりするかもしれないので待つ事が合理的な場合も有ります。


さて、こういった条件と定義の元で不確実性は一体どんな影響を投資に持つのでしょうか?
全てすっ飛ばして結果だけ言えば、
「不確実性が高い場合には、人(企業)はなるべく投資を避ける」
です。

リアルオプションとかの例を持って来ても良いのですけど面倒なのでwちょっと過激なので行きます。

実は経済学には自殺の経済学と言う分野が有ります。
そこでは自殺という行為を投資の一環と捉えて自殺に至るメカニズムをインセンティブから解明しようとしてます。

自殺というのは、自分の人生を負えることによってそれ以上の損失を押さえようとする”投資”です。
しかしながら、この投資は人には死後の事など解らないという理由から究極的に高い不確実性を持っています。
さらに、死を返品する事は不可能です。つまり、この投資は完全に取り止める事が出来ない訳です。

さて、自殺を考えた多くの人が殆ど自殺をしないのは何故なのでしょう?
理由は上の二点で、究極に不確実で取り止める事が出来ないという性質を持っているからです。
この結果、投資をする事無く待ってみて、何かが良い方向へ変わるかどうか?を観察するという選択肢が非常に高い価値を持つ様になります。

この例から何を言いたいのか?っていうと高い不確実性のもとでは人はなるべく投資せずに待つという選択肢を選ぶという事です。




さてさて、じゃーこれをどーやって計量経済学で分析すんのさ?っていう話になる訳です。
今僕が分析しようとしているのは企業の投資に付いてです。
本当は個人投資が良いのだけれどもデータの手に入りやすさは企業レベルの方が圧倒的に高いのでこっちにしてます。

不確実性は実際に観測する事は不可能なので、その企業の株価の変動をproxyとして使用しています。

企業の投資行動を説明するモデルに不確実性を投入してその統計的な有意性と係数の値を見て、統計分析の結論を出します。(ちなみにここでsystem GMM使いました)

結果から行けば係数は有意で、投資は不確実性が高いと減少する傾向に有るよという事が言えました。


で、そのままのデータ使ってもオリジナリティが無いという事で、今はアメリカの製造業の業種別データを使ってます。
そしたら株価データが中々見つからなくて困っているのですよ。まーこれは別の話なので。


あーそうだ、この研究が一体何の役に立つんすか?って話をしておかないと。
結論は「不確実性が高いと投資は減る」という物でした。
さて経済学をそれなりに真面目に勉強した事のある人はマクロ経済学の基礎くらいは覚えているのではないでしょうか?
不況下に置いて基本的に政府は二つの選択肢を持っています。拡張的財政政策か金融緩和政策です。
前者は政府が国債を発行してその金で投資しちゃおうという物で、後者は金利を下げることによって投資資金の調達を容易にして企業や個人にもっと投資をしてもらおうという物です。

さてじゃぁ政府が金融緩和政策を実行したとしましょう。
そして同時に不確実性が非常に高い状況を想定しましょう。(例えば不況による社会不安や海外諸国の台頭等々。)
果たして投資は政府が想定した通りに増えて行くでしょうか?ここまで読めばお分かり下と思いますがノーです。
個人的には日本の失われた10年ってこの高い不確実性の影響なんじゃねーの?って思うのですがそこはちょっと放っておきましょう。

じゃーじゃーもしここで不確実性と投資の関係性に付いて完全に解っていたとすれば、どんな政策をどの程度行えば良いか?という問いにも答えることができる訳です。
この研究の行き着く先はこれを出来る様になる事なわけです。

まぁ俺この研究そんなに興味ないんでこのペーパー終わったらやらないんですけどねw





なんとなく思った事。
人間って何かの決定を迫られた時に”何もしない”という選択肢を無意識的にしてしまう訳だけれども、
それを投資的に解釈すれば「先行きが不確実で、良い結果が出たとしても待ってみるという価値を超える程の利益も出ない」と言っているのと同じな訳ですよ。
場合によっては最も残酷な選択肢かもしれないですね。





reference
Uncertainty and Investment Dynamics, with Steve Bond and John Van Reenen, Review of Economic Studies, April 2007
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:学問

Anderson Hsiao estimatorとArellano Bond GMM estimatorについて。とちょっと感想。 [計量経済学]

最近こんな事勉強してこんな事思ってますよっていう日記です。
パネルデータの話をちょっと前にしたのですが、当然パネルデータメソッドも完璧ではないので色々と使って行くうちに問題が出てきました。
1980年代くらいからそれらが次第に解決されて行った訳ですが、そんな中に生まれたAnderson Hsiao estimatorとArellano Bond GMM estimatorという二つの天才的な推定方法についててきとーに解説しつつ最後になんか感想付けました。
説明の正確さはどーなんでしょ?w
最後に参考にした書籍と論文を乗っけておくので正確に知りたい人とか、宿題の答え探しでここにたどり着いた人なんかはそっちを参考にすると良いかと思います。


パネルデータは去年の投資比率が今年の投資比率にどのような影響を与えるのか?といった様なautoregressiveモデルを分析することができない。(つまり去年のyを今年のyに回帰させる様なモデル)

今年と去年の差を取ることによってUnobserved specific effect(つまりは企業の効率とか)であるaを消し去るFirst Differenceというパネルデータの推定方法に置いては

gmm1.png

知りたい値であるβは上の様な式になる。このβの右にくっついているよけいな式が0になれば、FDはバイアスの掛かっていない最適な推定方法だと言える。去年と今年のデータの差分の分散は0でない事は明白なので、分子にある供分散について考える。

gmm2.png

よってCov、供分散が0でなく、誤差項の分散の負の値である事が解る。よって負のバイアスが掛かっていると言えるのでFDは最適な推定方法という事は出来ない。


一方データとその平均との差分を取ることによってaを消すFixed Effectは、

gmm3.png

というβを持っているので、このβの横にあるよけいな物が0であれば最適と言える。例のごとく分散varは0にはならないので、Covについて考える。

gmm4.png

よって、このCovはゼロではなく、負の値となる。つまり、FEの推定値は負のバイアスを持っている事になる。(Random Effectは面倒なのでスキップw)

結局この二つが何を意味しているかというと、yの差分とuの差分はFDでもFEでも、どーにかこーにか相関してしまっている為にβにバイアスが掛かってしまう。じゃぁここで何が言えるのかというと、逆にそこの相関さえどーにかしてしまえばベータは推定可能だって言う事。

そこで出てくるのがInstrumental Variableっていう天才的な方法。下の一番目の様なモデルを推定しているとする。しかし、xとuが相関している為にβが推定することができない。そこで、xとは相関しているのだけれども(relevance)、uとは相関していない(endogeneity)という変数Z(Instrumental Variable; IV)を持って来てxと回帰分析させる。例えば賃金(y)を決定するモデルが在るとして、xに教育という変数を入れるとする。するとuには能力という物がはいっていると想定される。(だって賃金は能力に比率すると思いません?)そして困った事に、能力が高ければ(頭が良ければ)教育を受ける年数も質も向上すると考えられる。つまり、xとuが相関してしまっているのだ。
なので、ここで両親の教育年数という変数をZ(IV)として持ってくる。親の教育が良ければ子供にも教育を施すだろう、しかし子供は親の教育が高いからといって高い賃金を会社に要求する事は出来ない。


gmm5.png


で、ここでxとzで回帰分析をする。(2番目の式)
そしてx_predictedを作成する。回帰分析でθが推定されるので、Zにデータ入れてθ掛けて切片θゼロを足せば理論上の値であるx_predictedを求めることができる。
このx_predictedは二つの特徴を持っている。1つはxの予測値であるという事。もう一つは予測はuと全く関係のない変数を用いて行われたのでuとは相関を持たないという事。つまり、このx_predictedを一番目の式のxに代入してしまえば、uと相関している問題が解決されてしまうのでβを推定する事が可能になる訳です。

いやぁ天才w
これ作った奴はマジ天才。こんな単純な物の組み合わせで問題を解決してしまうなんて。。。

で、本題に戻りましょうw
このIV methodを使えば、今パネルデータのβにくっついているバイアスを消せちゃう訳です。なぜならそれはYit-1(さっきの式で言うx)とuの相関から来ているから。
で、問題なのは一体どの変数をIVとして使えば良いのだろう?という事。
答えは非常に単純でYit-2を使いましょうというもの。外部的な要素が過去の個のデータと相関する事は殆どなく、その一方でYit-1とYit-2はβという形で相関している。(はず。ここは推定が終わってみないと解らない。) よって一昨年のデータは去年のデータに対するIVになることができる。
この方法を作ったのがAndersonとHsiaoという人達なので、Anderson Hsiao estimatorと呼ばれる。

しかし、このAHではIVを一つしか使っておらず、幾らか問題があった為にもっとIVを導入しようという欲深い連中が現れ、Arellano Bond GMM estimatorというのが生まれた。
発想はとてもシンプルで、
Yit-1とYit-2が相関しててIVとして使えるならYit-3もYit-4もIVとして使えるじゃん。じゃあ使っちゃおーぜ。
というもの。
ただ発想とは打って変わって推定方法がとても複雑になった。
データを取る年数を増やすごとにIVの数が指数関数的に伸びて行くのでOLSの推定方式では数学的に答えが出せなくなってしまい、一般化したモーメント法(Generalized Method of Moment; GMM)でその解を出す必要が出て来た。

まずMoment Conditionを設定する。IV(Yit-2,Yit-3,Yit-4….)はuと相関していないという前提が在るので、それらを式にしてMoment Conditionとする。

gmm6.png



tが進むごとに使えるIVの数が増えて行くので、conditionの数も指数関数的に増えて行く。GMMの目的はこれらの条件を全て満たす様なβを求める事だ。
条件式は以下の形にまとめてしまう。Zは全てのIVを纏めた線形代数。

gmm7.png

で、この制約条件をなるべくイコールゼロに近づける様に最小化問題を解く。Wは何ぞや?という話は少し置いといて、FOCを作って最小化問題を解いてそれをβについて解くと2番目の式になる。(ここのつなぎはかなり無理あるなw)
WはOptimal Weighting Matrixと呼ばれる物で、共分散の逆数で、このβを最もefficient(正確に)にしてくれる物です。えーはっきり言って、ただのパラメータと思ってもらって結構ですw
このWさえ解ってしまえばZとYはデータとして持っているので、βを求める事が可能。

gmm8.png


しかしここに問題が一つ。Wはβを知らないと推定出来ないんですねぇ。そしてβはWを知らないと推定出来ない。
しかーし、もしここで誤差項uがhomoskedasticでautocoorelationが無いと想定出来るのであればweighting matrixは以下の手順で求めることができる。俗にOne-step approachと呼ばれるもの。理由?どっかの天才が思いつきました(爆


gmm9.png

しかーしもしhomoskedasticでないかautocorrelationが確認されたら、この方法は原則的には使うことができない。最初の式が有効ではないからだ。よってまたWとβのジレンマにはまることになる。
そこでWについて適当なスタートポイント(一般的なのはW=I)を設定する。そしてそれを使ってβを推定し、そのβ(式ではγになってるけどw)を使ってuの差分を推定する。


gmm10.png

で、差分をoptimal weight matrixの推定に使い、それでβをさっきと同じ様に推定する。これによってアナリティカルには推定出来なかったβが推定出来てしまうのですよ。この方法を俗にTwo-step approachと呼ぶ。

実はこのOne stepとTwo stepの間にはどっちを使うべきなのか?という論争があって、その決着は理論的にはまだ付いてない。今の所殆どの応用計量の論文がよりefficientな推定値が出るという事でOne stepを使っている。
実はOne step approachは理論的にはheteroskedasticityの場合には使えないのだけれども、実際にモンテカルロ方式なんかでシミュレーションしてみるとheteroskedasiticityの場合でもTwo-stepよりも正確だったりしちゃう。

なんか、こう、この流れってすごいなぁと思うんですよね。なんでかって言うと、まずパネルデータが思案されて、それを時系列分析に使おうとしてそしたら問題が出て、そこで諦めずにAnderson Hsiaoっていう新しい分析方法を見つけ出して、さらに精度を追求してArellano Bond GMMに至るというこの流れ。問題が起きてはそれを何とか頭をひねることによって解決するこの流れが素晴らしいと思う訳です。
GMMやAHを普段の考え方に導入するなんて事は無理な訳だけれども、答えが出なかったら考え方を変えてみるという発想が好きです。このくらい色々と粘って考えてみたいものですね。




※参考にしたもの

先日ついに第4版が発売された、A Guide to Modern Econometricsです。
5章でGMMについて、10章にAnderson Hsiao と Arellano Bond GMMについて乗ってます。
3章とはさほど差がないので、個の二つの章を参照するにあたっては第3版でも問題が無いと思います。

A Guide to Modern Econometrics

A Guide to Modern Econometrics

  • 作者: Marno Verbeek
  • 出版社/メーカー: Wiley
  • 発売日: 2012/02/14
  • メディア: ペーパーバック



Dynamic Panel Data Models: a guide to micro data method and practice
http://www.cemmap.ac.uk/wps/cwp0209.pdf
ボンド自身が書いたArellano Bond GMMの解説です。
最初はなんじゃこれ?って状態だったんですけど、上の教科書と合わせて読んで行くうちに割と理解出来る様になりました。1回具体例が入っているのがいい感じだと思います。そして無料というのも中々美味しい条件ですね。
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:学問

たまには計量経済学の話でも。 [計量経済学]

たまには計量経済学の話でもしましょう。
統計系の授業が面白いなーって思うのは、ある物事とか出来事とかを分解して理解しようとする時にデータを並べて分析を掛けるだけでは実は色々と問題があって、その問題をいかに解決するのか?っていう所があるからなんですよ。
それってつまり人間が物をあるがままに見て何も考えなければ、その問題を解決しないまま見て理解した気になってしまう事に他ならなくて、実は色々な所で間違えてるんだねって事なんだと思うんですね。

そんなお話の一例って所ですかね?


パネルデータってハイパー便利だよねって話。
計量経済学を勉強して行くと最小二乗法(OLS)ではどーにもこーにも行かない事が出てくる。
例えばクロスセクションのデータ(データを全て同じタイミングで別々の対象取ったもの)であれば普通のOLSでどーにかなる。
OLSmodel.jpg

例えばある一年に置ける所得と消費の関係性なんかを分析しようとすればOLSで問題ない(いや、本当はちょっとあるんだけど)

一方で時系列のデータ(データを別々のタイミングで同じ対象から取ったもの)であればこれらの時系列モデルでどーにかなる。(他にもARモデルとかなんかもあるけどさ)
TSmodel.jpg

じゃぁ別々のタイミングで別々の対象から取ったデータを分析したいと思った時はどーすんの?って話になった時にパネルデータが出てくる。
panelmodel1.jpg

ただデータの対象の次元iと時間の次元tを同時に導入するとひとつ問題が出てくる。同じ対象から幾つかのタイミングでデータを取れば、それらのデータにはその対象の特徴による影響を受ける事になる。(例えば企業の効率性はそれぞれで別個の物であったり、個人の能力もまたそれぞれで違ったりする)
すると上のモデルにはその個々の差a_iが導入される必要がある。
panelmodel2.jpg

しかしながら、多くのケースに置いてa_iはデータとして観測出来ない場合が多い。もしこのa_iをどうにか出来無ければ、つまり無視してそのままOLSを使用してしまえば、推定値は事実とは大きくかけ離れた物になってしまう。

panel2.jpg




系列1,2,3は3人の人間からデータを取っている事を示している。それぞれ点が4つあるのは4つの時点でデータを取得している。(系列4は線形近似を出す為に入れた物なので関係ないです)
もしYとXの関係が負でも、aが個人間で大きく異なってしまえばOLSの推定は上の図の線形近似の様に正の相関を示してしまう。(本当に知りたいのは系列ごとに存在している右下がりの線の傾き)

この問題を解決出来るのがパネルデータ分析って奴な訳です。で、どーすんのかというと、それぞれの変数の値からその平均をひいた物を新たな変数として分析に掛ける訳。
変数の上に棒があるものは平均を意味していて、データの取得対象ごとに平均値がそれぞれ違うのでiを付ける事によってそれを分けています。
例えば会社1が4つデータを持っているとすれば、その平均をまず計算してそれぞれのデータの値から平均を差し引いて、それを新たな4つのデータとすると。それを式として表しているのが下の物。(省略の為に説明変数Xは一個だけ、別に10個あってもおk)
panelfix.jpg


で、aが時間が経っても変わらないと仮定出来るならば(例えば会社の能力とか個人の能力って言うのは4年とかじゃ中々変われない)、上の式の通りa-aでその効果はこのモデルから消えてしまう。結果上の例からは右下がりの関係を導く事が可能になる!

お〜すげ〜
これ考えた人天才だよw

このパネルデータが便利だっいう理由はもう一つある。この分析方法を使えば幾らかのデータセット(調査結果)を一緒に分析する事が可能になっちゃう。だって別々の個人から別々のタイミングで取ったデータを分析する手法な訳だから。(同じ人から少なくとも2回はデータを取らないといけないにせよ)
現実世界では資金と時間の限界なんかから同一人物から長い間データを取り続ける事は出来ない。研究結果を20年も待ってられないし、かといって何千人規模のデータを何回も取れば研究費はあっという間に吹っ飛んでしまう。
これらの事は結局サンプル数の欠如に繋がる訳なんだけれども、パネルデータはそれを解決するのに大きく役立つわけなのですよ。べんりだね。

nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:学問

秘密にしてた事。 [計量経済学]

この4ヶ月間、友達に会うたびに「なにやってるの?」って言われてきました。

まぁ毎回「なんにもやってないよ~」とか適当なことを言っていたのですが、

実はずっと続けていたことがあって、先日それがまぁなんとか形に・・・そして習慣になったので、先日始めて今毎日何をしているのかを伝えました。

今はですね。自分の為の計量経済学の教科書を作っています。

計量経済学を使って何が出来るのか?とかは解っていて、それを用いた研究の仕方も解っていたのですが、統計理論をもうちょっとしっかり勉強してもっとちゃんと実証研究の方法についての理解を深めようと思いました。

でー教科書の Introductory Econometrics


Introductory Econometrics: A Modern Approach


を読んだのだけれども、もうちょっと理解をしっかりさせておきたかったので、この本をベースに自分で教科書を作ることにしました。

元々いつの日か教科書を書きたいと思っていたし、英語もやらないといけなかったので、独自の教科書の作成を英語でやるというのは専門と目標と英語を同時に進行させられる一石三鳥の神の一手だったわけです。(あとこれを見せればどんな教授も大体俺の話しに耳を傾けてくれるだろうという目論見も・・・)

とまぁそれが全行程の約半分ほどを過ぎ、基本編が終わりに差し掛かったのでそろそろ人に見せても恥ずかしくないなと思い、見せびらかすようになりました(笑

出来ればこれを自分で何回も改定して自分の言葉へ直していって、いつの日か本当に教科書にしてしまいたい。

そんな事を夢見つつ今日もひたすらノートに書き写すのでした。
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:学問

これからの勉強 [計量経済学]

はいどーも。

大学でお世話になった先生に「君一体これから何を勉強するんだね?」と首をかしげられ、

ちょっと自分でまとめる意味も込めてここに書いておこうかと思います。



えーとですね。

まず今まで勉強してきたことをざっと書きましょう。

僕は大学の最初の3年間で、マクロ経済学ってのを中心に勉強してきました。

国全体の経済がどんな仕組みで動いてるのか?っていう奴です。

3年目の最後の方にはゼミの影響もあって国際経済学と貿易論なんかも勉強し、

4年目には交換留学でアメリカへ行って、経済成長がどの様な要因で変化するのかというマクロ経済学の成長論、環境のコストを経済学で捉える環境経済学、そして統計学を勉強しました。

とまぁ、経済学の分野を幾つかはしごしてきたわけです。

で、帰ってきた5年目の5月ににどれを大学院で勉強しようかと悩みました。

いやぁすごいwあんだけ偉そうなことをブログで言っておいて何を大学院で勉強するか決めてなかったわけですからw

その時の可能性としてあったのは、

環境経済学

成長論

計量経済学

この3つだったわけです。

当時数学が全く出来なかったので、計量経済学に興味はあったものの恐らく大学院で勉強するのは無理だろうなぁと思っていました。

ということで環境経済学か成長論を基本的な計量経済学と組み合わせて研究するという、応用計量経済学という方向性へ行くのかなぁと考えていました。

じゃぁとりあえずやってみっか!という話になって一人で勝手に盛り上がっていたので、経済成長モデルを計量経済学で分析するというまぁコテコテの論文を自分なりに書いてみたわけです。

が、思ったほど面白くない。

立教にまともに教えてくれる先生が居なかったので論文見つけて(当然英語なわけで)、読んで、理論を教科書から勉強して、データもコツコツ自分で海外のデータベースから貰って、という過程その物を想定するところから始めて一人でコツコツやるわけです。

正直今思えば卒業論文で良くあれをやったなぁと・・

そして、いやぁ・・・コレは師匠いないとキツイよなぁと正直思っていました。

そんでもって結局面白いんだか面白くないんだか自分の中で結論が出ないままに論文が書きあがってしまったわけです。



で、一方の環境経済学の方はアメリカに居るときに論文を書いたことがあるのですけど、

その時は分析手法とか全く知らなかったのでかなりむちゃくちゃなのを書いていました。

カーナビの導入でCO2がどのくらい削減できるのかを算出して、そこから適切なカーナビ一つに対してどの位の補助金を環境対策費用として算出するべきか?という物

Excellent Idea!!! という評価をアメリカの教授に貰ったのだけれども、

まぁIdeaだけがExcellentだったなぁと・・・

ただコレは面白かった!いや二酸化炭素はそもそも温暖化には関係ないでしょうとか、そういう話は置いておいてだね。

建設的に物事を解決する方法として経済学と統計を使えるのは非常に面白いなぁと思ったわけです。

ただこっちは(も)立教では全く研究されていない。

結局こっちの研究は立教ではせずにただ論文だけを読む日々を続けていました。


とまぁ環境と成長の勉強と研究でウジウジやっている間に大学院の統計学兼計量経済学の授業へ出させてもらえる事になって、数学と統計がそれなりに出来るようになってきたわけです。

そーすると色々と欲が出てくるわけでして。

成長論も環境経済学も何となくやることは解ってる。

出来ればその両方を計量経済学の手法で実証してゆきたい。

ただどれか一つって言われても・・・ちょっとなぁ・・・決められないよなぁ。

じゃぁさ、

決めなきゃいいんじゃん(笑

たぶんPhD取るときには”これだぁ!”って言えないとまずいのだろうけど、

今?

オッケーオッケー。決めないで。

最悪両方やってしまえばいいんだよ、はっはっは。

経済成長と環境(若しくは資源)の関連性についてのモデル構築とその実証とかなんとかいって。




そんな事を去年の11月か12月に思いまして応用経済学のMAも考慮に入れ始めたわけです。

と、言う事でですね。

まだ何研究してゆくのかってあんまり決まっていませんw

ただ、何を勉強すんの?という話になるとコレははっきりしているわけです。

1,計量経済学(統計学)
コレは一番興味があるものなので当然。実際のデータと理論に整合性があるのかどうかを統計学(主に重回帰分析ですね)を使って調べるという物。
ただコレを勉強する上で一体何を分析するのか?という問題が出てくるので、何かしらと組み合わせないといけないのです。
そしてその”何か?”というのは何かしらの理論モデルでなくてはならないわけです。

2,経済学(主にミクロ)
コレも当然ですね、環境経済学のモデル・理論を勉強する上での基礎になるので。

3,環境経済学
コレに関してはどこまでやるのかわからないです。環境?資源?それすらも決まってないです。
ただ経済学の考え方で何かしらの問題を分析して客観的な意見を出すという事は非常に好きなので非常に興味があります。


とまぁこの3つですね。

まとめれば、ミクロ経済学を応用した環境経済学の理論モデルを計量経済学で実証する。ということですかね。

もうちょっと具体的になったらまた書きます。

八百長 [計量経済学]

最近の話題に乗ってみようかと。
http://pricetheory.uchicago.edu/levitt/Papers/DugganLevitt2002.pdf

最近相撲の八百長の話があって、ヤバイ経済学の話を思い出して今ならあの本で紹介されていた論文が解るのでは?ということで読んでみた。
ということで要約。
内容は本の方とほとんど一緒で新しい発見は何もなかったw
まぁ統計的な方法論とその諸結果が載っていたのだけれど、そっちに興味がある人は上のリンク参照ってことで。





題名は
Winning Isn't Everything: Corruption in Sumo Wrestlingです
相撲の八百長について計量経済学のアプローチで斬り込んでみるという論文。
え!?経済学で八百長なんか取り扱うの?って感じなんですけど取り扱うんですね~
経済学のこういう幅の広さがたまらなく好きです。


相撲に八百長があるのかどうか?それを見極めるためには八百長が起こりそうなケースをまず見極めてゆく必要がある。
相撲のトーナメントには66人の力士が参加し、1トーナメントにつき一人計15回の試合を行う。トーナメントの結果次第で力士はそのランクを上げることが出来るし、下がることもある。
だからトーナメントを何勝して終えるかは非常に重要。特に7勝と8勝のあいだには大きな差があって、8勝した力士はランクを上げて給料や待遇などが大きく改善されるが、7勝の力士にはその恩恵はほぼゼロ。
つまり、7勝7敗で最後の勝負に挑む力士に取って、最後の1勝はある程度の代価を支払ってでも欲しい物となる。

この論文では基本的に7勝7敗で望む最後の勝負のデータをできるだけ取得して、それらを回帰分析と基本的な統計分析にかけている。
確率論的に、15回試合をすれば7勝と8勝の力士の数はほぼ同じ値に近似する”はず”だ。
しかし、15試合を何勝して終えたか?というグラフをつくってみると(4枚目の左側)
あらびっくり。7勝の数が6勝より少なくなっており、8勝の数はその倍近くになっている。
これはサンプル数が60000のデータから作成されているグラフなので、この表れを偶然とみなすことはほぼ不可能だ。
つまり、7勝している力士にが8勝目を手に入れられる何らかの力が働いていると見るのが自然な流れだろう。

よってここに八百長の可能性を見出すことが出来る。(いや、7勝したらそこで勝負強さが出るなんて言い分もあり得るのだけど・・・)
でーちょっと回帰分析が入ってきて、すでに7勝した力士の勝率が何番目の試合であるかと大きな関係を持っていることが示される。
つまり、7勝0敗の時と、7勝7敗の時の勝率は違って、後者の時のほうが俄然高い。(これでもまだ勝負強さは否定出来ない気もする。)

じゃぁ八百長したらその報酬とはなんなのか?そこまでは統計は教えてくれない。が、
ある程度の推測が成り立つ
最後の一戦を八百長で勝利を譲ってもらい、無事に8勝を手にして15試合を終えた力士は、次の試合では高い確率で勝利を譲ってくれた力士に負ける。つまりそこで恩をチャラにしている。
そして、上の条件で年内に同じ力士と再び対戦する確率は72%ある。

さらに面白い傾向も見ることが出来る。
メディアが相撲の八百長などの報道をすると、これらのパターンは全て消失する。


結構端折ってるけれども結論。
かなり控えめな結論なのだけれど、
これらのデータと結果は相撲界に八百長が蔓延っている事を示唆している”かもしれない”。
だそうです。その割にはやけに自信たっぷりな序論を書いていたのだけれどもw

論文自体には、八百長試合で設けている奴らがいるっていう話が少し書いてあったのだけど、その辺は全部カット。面倒w




感想。
R~2の値が全体的に低いのが気になったけどそれは置いておこう。

やっぱこういうちょっと雑学的な論文をかけるから経済学はたまらなく面白いのだと思う。

不正を統計であばくっていう行為は最近され始めたのだけれども、まだまだ発展分野で、かなりの統計学者と計量経済学者が頭を悩ませているらしい。ある程度システムが決まっていて、ずるをする人の行動パターンが(つまりは犯罪手口が)分かっている場合にしか使うことが出来ない。

なんかニューヨークの工事の入札の不正を計量経済学者が暴いた、なんて時も不正入札者が入札終了後に最安値の少し下の額に札を書き換えるという手法が分かっていて、一番安い入札と二番目に安い入札の値段差の法則を見付け出してそれを切り口にしたらしい。

なんか日本にもこういう手法が使える事例がいっぱいある気がしてならない。

あーそうだ。これなんで相撲がトピックとして上がってる勝手いうと、理由は”分かりやすかったから”だそうな。これほどまでに不正が分かりやすいスポーツは世界何処を見渡しても無いらいい。
勝てば報酬に直結して、1対1。といった条件が適していたらしい。
つまりはこの時に世の中に存在している統計的な分析ツールと経済学のアイデアだと相撲しか扱えなかったのだろうね。今は幾らか進歩してるんだろうか?
まぁこれだけ頭のいい奴が8年も研究すりゃ、進歩するかw

これで思うのは、やっぱ今自分が使える研究手法で研究すると決めて、それに即したトピックを見つけるのも必要ですよねって言うこと。最近自分の統計学知識で扱える研究手法の狭さに落胆して勉強していたのだけれども、トピックを無理せずに少し違うものにしたっていいのかもしれない。そう思う。

えー次は・・・
どうすっかな。同じ人の論文を読むかまた別のにするか。

論文書いた [計量経済学]

先週の金曜日に論文を無事提出しました。

提出直前にまさかのハンコを忘たことに気がつき

あせりつつも「いや、買えばOKだ」と思うもののハンコを売っている場所を知らない

こういうときに頼れるちっちゃい奴チャイナに電話してハンコ売ってる場所を教えてもらい

無事提出

毎度ながらよくこう重箱の隅をつつく様な事を知っているよなぁと思う

つーか普通覚えてる物なのか?

まぁいいや。





今回は非常に多くの反省があったんですよ

内容は「経済成長理論における収束仮説の実証」

まー応用計量経済学の分野です

先ずは研究そのものについて

1、一人でやるもんじゃない。
これ切実。一人でやったもんだから、参考資料も実験計画も、論文自体も相当滅茶苦茶。
その研究を専門としている先生でなくとも1回話を聞いてもらって、何かしらのコメントを貰うべきだった。
まぁこれに関しては若干自分の意地もあったからしょうがないか。

2、実験計画よりも事前研究が先
いやね。研究始めた当初はとにかく回帰分析にデータぶち込んで見たかったんですよ。
だけどね、それは超間違いだった。
モデル作って結果も出してから、事前研究の論文が何の為に書かれているとかって事に気がつき始めて、
自分がただ闇雲に進んでいた事が解った。
うん、このおかげで2ヶ月くらいは”ぱぁ”になったね。
やるべき事は事前研究で、自分の研究する分野の全体像を掴んで一体今どんな研究がされているのか?を見るべきだった。
そうしないとオリジナリティも出せないし(だって何がオリジナルかわかんないんだもん)、効率のいい実験計画も立てれない。

3、論文は先ず全体から
これはかなり失敗した。つーかこれ苦手。
英語のライティングなんかでもよく言われてるんだけれども、全体から埋めて書いてゆくの苦手なのよね。
なんでだろ。よく考えてない証拠かw

4、結論ありきの実験をする
少なくとも結論のパターンは読んでおくべきだよね。
俺は結果から結論を作り上げたんだけれども、
結論から実験結果を想定して実験するべき
これはずるしろって話じゃなくて
想定できるくらいまでには事前研究を済ませておけって話。

つーか論文書いてから実験したっていいくらいじゃないか?って思った。


研究以外
1、なるべく人に見せる
今回校正してくれたのは2人だけ。
もっと見せるべきだった。
あとなるべく厳しい人に見せるべきだったね。

2、自分の研究の最も簡単な説明方法を常に把握しておく
これは超大事。
話の種的な意味もそうだし、奨学金の面接なんかで研究内容を必ず聞かれる。
俺はこれ失敗した。相手に全然伝わらなかった。
まぁ何故か結果的に奨学金もらえたんだけれども・・・




今回の反省点はそんなもんです。

マイクロクレジットのお話 [計量経済学]

mixiでマイクロファイナンス系の話をしたことがなかった気がしたので書く事にしました

って書いてたんだけどどう考えてもmixi向きの記事じゃないのでこっちに投稿w

つーかさ立教にムハマド・ユヌス着てたんだね。

まーちまたで人気があるマイクロファイナンスなんですが

マイクロファイナンスが何ですごいのか?っていうのを理解できている人って言うのはきっと日本人では殆どいない

多分近代経済学やっている人か統計やってる人位

それに当てはまらない人はいくらうんちく垂れ流しても多分解ってない

ついでになんでマイクロファイナンスが世界中にそう簡単には広まらないかっていう理由も同じだったりする

でーマイクロファイナンスがすごい理由ってのは

盛んなボランティア精神でもなければ

慈悲のような心でもないの

むしろ無慈悲かと思われるような徹底して貧者から搾り取ろうとする姿勢こそがすごいの

そしてそれを実現させられる統計モデルの存在こそがマイクロファイナンスが存続し続けられる理由

アフリカにおいて銀行って殆どヨーロッパ資本で

リスク計算なんかも殆どアフリカに直接対応してるようなものじゃないのね

だから基本的に貧者は金を借りる事ができない。貸すリスクが高すぎるから。

そこでアメリカでphdとってたユヌスは何パーセントの金利までだったら取っても返してもらえるかを考え始めて、データをとって、最終的に一つのモデルを作ったの。

そのモデル書こうかと思ったんだけれどもググっても出ないのでまた今度w

大まかに言えばその人の特徴(年齢・性別・出身地・家族構成)を変数に代入して行くと

この人は何%の確率でお金を返してくれますよって言うのが出るのね(本とはリスク指数ってのだけど)

そーすると適切な金利も自動的に決まる

で、結果的に金利が20%ですとか30%ですとかっていう話になる

つまりはちゃんとしたマイクロファイナンスって言うのはリスク管理が徹底していて、それに見合った金利を必ず付けてるの

だからしっかりとしたリターンが発生して、次の人にお金を貸せるようになる。

いわゆる善意型のマイクロファイナンスはただひたすら低金利で返すあての無い人にお金を貸して

資本金が尽きたら後は破産を待つのみ

一体どっちが良いのだろうね?

いやさ、前者ってお金持ってない人からお金巻き上げるって言う風に捉えられなくも無いわけじゃん。

とはいっても後者はどう考えても不毛すぎるとも思うし。


まぁまとめると

善意と熱意だけでなんかやったってダメでしょっていう事かなぁ

危ない妄想 [計量経済学]

さぁ今回も留学とは全く関係がありませんw

ちょっと絡めて書くけど

セイバーメトリクスって知っているかな?

これは野球において統計的な手法を用いて選手を分析してその選手の能力・特徴・そしてチームに対する貢献度を測るもの

メジャーリーグなんかでは2000年前後から結構使われるようになって今までは目立たなかったダイヤの原石的な選手をバンバン発掘してる・・・らしい(野球好きじゃないから具体的な選手とか知らないんだよね~)

さて

このセイバーメトリクスって奴は新人や高校生が将来どんな選手になるかも予測してくれる

そりゃそうだ

モデル作ってそこにその選手の変数を当てはめれば予想モデルは作れちゃうだろう

そしてそれが結構当たっていたりする(おまけに言えばコストもスカウトより安く済む)

じゃぁこのセイバーメトリクスって奴はガンガン使っていくべきなんだろうか?

Yes? No? どっち?

恐らくこれは賛否両論なんじゃないだろうか?

じゃぁこのセイバーメトリクスを実際の人生に当てはめてみたら?

不可能じゃないはず

野球って言うルールの制約条件の下で出てきたデータを分析して将来性を計る

それって教育というルールの制約条件下で出てきたデータを分析して将来性を計れるという事も意味する

え?教育なんかで人の将来性は計れないって?

じゃぁ何で人は教育を求めるのさ?

何で教育の質と収入は相関関係にあるのさ?

まぁここら辺は議論すれば色々とホコリが出てくる部分な気がするけれども

それはモデルを上手く作れば殆どの反論は回避できる(よって将来の自分に期待w)



このアイデアを使う事に対して。どう?

Yes? No? どっち?

これはきっとほぼ100%の人がNOって言うと思う

そんな方程式で人の人生を左右されてたまるかってな感じで


まぁご察しの通り僕の答えはYesだ。やるべき。

なぜなら社会的資源をより効率的に分配できる可能性が高まるから。

早い話皆が幸せになれるから

人の知能指数は正規分布に少数のはずれ値で形成されている

はずれ値はちょっと特異なのでこの時点でセイバーメトリクスからははずす

だってそれって現在でも社会的資源をただ食いする奴か、特別な環境を与えられる奴かのどちらかだから。

現在の教育はほぼすべての生徒に対して平均的な教育が与えられている

出来る奴も出来ない奴も勉強する事はそんなに変わらない

まぁ塾とかの影響もあってちょっと右上がりの曲線になっているとも思えるけどね



これって社会的に最適な資源分配とはいえないよね?

だって

頭のいい人にはまだまだ先に進める余力があって

頭の悪い人は全く付いてゆけない

ここで勘違いしないで欲しいのは頭の悪い人を全部粛清しちゃおうとか見捨てちゃおうって議論はするつもりが無いって事

粛清に関してはしない理由を述べるまでも無いと思う

見捨て無い理由は、見捨てた時の方が社会が負担するコストがより大きくなる可能性が高いから。

例えば犯罪者になっちゃったり、生活保護を受け続けて本格的に社会のお荷物になっちゃったりっていうコスト。

つまりどういう資源分配にするかって言うと、頭悪い人と良い人にはより社会的資源を集中させて、平均的な人達から資源をちょっと奪い取る。

そうすると下と平均の差が詰まって上はすその長い分布になる

靴を横から見た形みたいになると思う

この状態だと社会的にお荷物になってしまう人を減らせて

社会を前進させる人数とその質をより高める事ができる、社会を維持する人を確保しつつもね。

それでその最初の頭の良し悪し(というかは将来性の良し悪し)をセイバーメトリクス的な分析で決めてしまおうって言う考え。

分析で人生が決まってしまうとはあんまりだって言われそうだけれども

僕らの人生って結構限られた選択しか与えられてない

無限の可能性は見せられていても実際に取れる選択肢って言うのは余りにも少ない

だったらその選択肢を最初からもう少し正確に予測して無駄なくそこにたどり着けた方が良いのではないかな?

そんでもってそこで節約できた資源を必要としているところに分配する。

って考えなんですよ。



でもね

同時に

その無限の可能性を見れるっていう事にも確かに価値はあるのかもね

って思ってる

だってさ、それって人間の歴史の中でも類稀な要素なんだよね。

それを身分制でないにしろ、一方的に制限してしまう事に何かしらのデメリットって物が存在するんじゃないんだろうか?(例えば、その無限大の自由が一定の人間にやる気を与えていて、それを失ってしまう・・・とか)

こーゆー論文か本を将来書きたいけれども今の僕には無理だね

果たしてセイバーメトリクス的な分析をした時に僕はそれが出来る人として分類されるんだろうか?





はい、そこのこの8月末から留学生になろうかというあなた。

セイバーメトリクスが適応された社会においても、あなたは留学出来る資格を与えられると思いますか?根拠は?
前の10件 | - 計量経済学 ブログトップ

この広告は前回の更新から一定期間経過したブログに表示されています。更新すると自動で解除されます。