ヘッジファンドの何が問題か? -- このエントリーを含むはてなブックマーク

2008年は、多くのメインストリート(*1)の人達が
強欲な参加者で成り立つ金融システムが瓦解した年だと信じた年だった。
2009年は、市況自体は相当回復したが、
今でも多くの人がその信念を変えずにいる。

(*1)ウォールストリートとの対比の意味で。

まず金融危機にはいくつもの構造的な理由がある。
代表的なものをあげれば、
住宅ローン市場におけるプリンシパルとエージェントの利益相反問題、
投資家と格付け会社の利益相反問題、
投資銀行の経営者と株主の利益相反問題、等である。

それでは、統計学的な側面から見るとどうであろうか?

リーマンショック後、盛んに言われているのは、
「金融工学は金融危機を予測できなかった」
というものだ。

まず、金融工学と統計学では若干の立場の違いがある。
金融工学では、あくまで理屈付けが重要とされている側面が強い。
仮定を比較的たくさん置き、それを元に例えばデリバティブの価格を算出する。
市場参加者はその価格が正しいという前提を元に取引をする。
推論過程で使われる数学は非常に高度だが、
仮定の部分の検証は比較的弱い。
技術的な観点から見ると、
格付け会社による信用格付が歪められたのは
その弱みにつけ込まれたという側面が強いと思っている。

それでは仮定の部分を推定や検定という手法で割と厳しくチェックする
統計学的な方法がうまく経済危機を予測できたかと言うと
残念ながらこれもそうではなかった。
統計的な運用手法を駆使していた多くの投資銀行やヘッジファンドが損失を出した。
これは、統計モデルが十分に精緻でなかったということもあるが、
社会の不完全な仕組みによるところが大きい。

ヘッジファンドが大きな利益を出すことができるのは
破綻した場合の損失を政府や社会にヘッジすることで
大きなリスクを取ることができるからだ。

もちろん、あからさまなモラルハザードと分かるような
投資手法は各種のリスク規制の網にかかり実行することができない。

そこで、ヘッジファンド等の人々が取る手法が統計的な手法である。
過去の一定期間のデータから統計モデルを構築し、投資に用いる。
このモデルはデータから検知できないリスクを暗黙のうちに捨象する。
しかし、人々はデータから観測できないリスクがあることを
データよりも長い史実を知ることによって理解しているのだ。
データから観測できないリスクは定量化が難しいので、
規制の目をくぐりやすい。

データの構造は、
大きなショックが起きたときにのみ変わることが多いので、
そうした事が起こると「必然的に」ヘッジファンドや投資銀行が破綻する。

こうした制度上の欠陥を埋めるリスク管理規制は
まだ十分に整っていないと思う。
金融リスク管理の次の大きなチャレンジは
規制当局の側にあると言っても過言ではないだろう。

参考:
ブラック・スワンのもつ科学への意味
白鳥と黒鳥の取扱いには要注意 - 『The Black Swan』


スポンサーサイト


テーマ : 経済
ジャンル : 政治・経済

コメントの投稿

非公開コメント

わかりやすい!

これはわかりやすい!確かに明確な根拠がなければ民間金融機関を規制することはできないので、複雑な統計モデルを使って一部のリスクを暗黙のうちに無視されてしまうと、当局からは非常に扱いにくいですね。

未必の故意

きっと、内部の人は分かってるんだと思いますよ。自宅でブログ書いてる私ですら分かるんですから(笑)。規制当局はいろんなしがらみもあるでしょうから、解決はなかなか難しいですね。

モデリング

機械学習の研究者です.

> 仮定の部分の検証は比較的弱い。
同意見です.なぜ,そうなったかは,モデリングが価格の変動のみを対象としていて,人間の行動をモデリングの外に追い出してしまっていることのように思えます.

> 破綻した場合の損失を政府や社会にヘッジする
モデルは対称の分布を使ってますが,実際には下側は切断された分布ですね.

> データの構造は、大きなショックが起きたときにのみ変わる
予測できない原因は,構造の変化ではなく,可能な仮説空間に対するデータの少なさにある気がしています.極値統計をもってしても,そのモデリングに手を焼く状態かと思います.

金融工学

>しましまさん:
>なぜ,そうなったかは,モデリングが価格の変動のみを対象としていて,人間の行動をモデリングの外に追い出してしまっていることのように思えます.

そういった本質的な問題もあると思いますが、それ以前に金融工学関連の論文を読むと、モデルの構築だけに終わっていて重要なパラメータの推定が行われいなかったり、頑健性がチェックされていなかったり、マクロ変数と相関のある標本をIIDとして扱っていたりという問題があると思います。CDOの格付けなども重要な相関係数が手置きだったりしてしました(今は知りませんが)。

究極的にはデータの少なさが問題ということはもちろんあると思います。しかし、市場参加者の行動やマーケットの効率性は時間と共に変化していますし、モデルの適合を良くするために意図的に近年のデータだけを取ることもあるため、そのあたりにも何らかの基準が必要だと思います。

No title

本題とはちょっと関係ないですが、投資関係の情報でよく「ボラが動く」なんていうじゃないですか。

僕は単純に「ボラ」というのをvarianceみたいなもの、と解釈しているのですが、そうだったらvarianceが動いていると解釈できる時点でサンプリングというか解析の仕方に不備があると考えられないのですか?Varianceが動いていると解るのなら、その判定の仕方自体どうやってするのだろう、とか素朴な疑問ですね・・・。

僕のボラの解釈が間違っていれば身も蓋もないコメですが(失礼)。

ボラティリティ変動モデル

ボラティリティは時刻 t によって変化する分散 σ^2のことを指しますが、これは統計的にきちんと定義出来る概念です。σ^2(t)を推定するサンプルは一つずつしかないので一見推定することが出来なそうに見えますが、σ^2(t)にある程度の構造を仮定すると推定できるのです。例としては、例えば以下のリンクなどをご覧ください。
http://en.wikipedia.org/wiki/Autoregressive_conditional_heteroskedasticity

このようなモデルの他に、σ^2(t)より高頻度のデータを別途用いることでσ^2(t)を求める方法もあります。例えば、日次の株価のボラティリティを求めるために、日中の変化の大きさを使うという方法です。これはrealized volatilityと呼ばれています。

No title

リンクどうもです。いや、時系列データの解析の仕方の基礎をちゃんとやってからでないとintuitiveには分からないですね、パッと見では・・・。

Model dependentなのは当然として、uniquenessテストなんかやれば良いモデルが分かるのならば、これは高度ですがなかなか面白そうではありますねえ。

数学は知れば知るほど世界が広がるのが面白い。センスが必要なのがキズに玉、じゃなくてタマに傷。

直感的な説明

例えば、過去20日分のデータから得られる分散を時刻 t の分散と考える事ができますよね。これをもうちょっと改良して、いくつかの部分を推定したのがGARCHと呼ばれるモデルです。

良いモデルと、統計理論は残念ながら一致しないところもありますね。誰かがモデルを作ってパフォーマンスが良ければ後から理論をつくるという感じのことが多い気がします。
プロフィール

Willy

Author:Willy
日本の某大数学科で修士課程修了。
金融機関勤務を経て、米国の統計学科博士課程に留学。
2009年、某州立大数学科専任講師。2010年、助教。2016年、准教授。

検索フォーム
Twitter

Twitter < > Reload

お勧めの本
1.ルベーグ積分30講
―― 統計学を学ぶために。
   小説のように読める本。
   学部向け。


2.Matematical Statistics and Data Analysis
―― WS大指定教科書。
   応用も充実。学部上級。

全記事表示

全ての記事を表示する

最近のコメント
訪問者数 (UA)
アクセスランキング
[ジャンルランキング]
海外情報
13位
アクセスランキングを見る>>

[サブジャンルランキング]
北アメリカ
3位
アクセスランキングを見る>>
人気記事Top10


(はてなブックマークより)

カテゴリー
最近のトラックバック
お勧めブログ