• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:チェビシェフの定理と大数の法則)

チェビシェフの定理と大数の法則とは?

このQ&Aのポイント
  • チェビシェフの定理は、データが平均値からどれだけ離れた範囲に分布しているかを示す定理です。
  • 大数の法則は、サンプルサイズが大きくなると、サンプル平均が母集団の平均に収束する性質を示す定理です。
  • チェビシェフの定理は、データのばらつきを示すための指標として使用される一方、大数の法則は統計的な推測の根拠となる重要な原理です。

質問者が選んだベストアンサー

  • ベストアンサー
回答No.1

[前半] 本の書き方(文字変数の取り方)がまずいですね. >m-ks<x<m+ks (k>=1) なる範囲にあるデータは(1-1/k^2)*N以上である このkは2とか具体的な定数を想定しています. 標準偏差s, Nも定数です. 一方,和をとるときのダミー変数(作業変数)は ここでは同じ文字kを(不用意にも)使ってしまっていますが,別の意味です. 正しくは,ダミー変数をiとして,値をx_i、その度数をf_iとしたとき s^2=Σ(i=1からn)(x_i-m)^2*f_i >=Σ(|x_i-m|>=ksなるiの和)(x_i-m)^2*f_i/N >=Σ(|x_i-m|>=ksなるiの和)(ks)^2*f_i/N・・(1) =(ks)^2/NΣ(|x_i-m|>=ksなるiの和)f_i・・(2) より Σ(|x_i-m|>=ksなるiの和)f_i<=N/k^2 よって Σ(|x_i-m|<ksなるiの和)f_i>=(1-1/k^2)*N です.(ダミー変数iに無関係な定数kとs,Nは和の外に出せる.)

star_blue
質問者

お礼

おお!なるほど! 納得です。 ありがとうございました。

その他の回答 (2)

回答No.3

>そういう理由で論文とかでも定理の証明をしても問題はないのですか? チェビシェフの不等式は,特定の分布を仮定しておらず,全ての確率分布で成立する関係式です. それを用いて示せれば,あらゆる場合に成立する「証明」になります. >こう置けば証明がうまくいくからというのが開き直りの説明. 「どうしてここに補助線を引かなければいけないのか(私はいやだ)」と聞かれても,そうでないとすれば,他の方法をさがすか(無いかも),それとも証明をあきらめるかしかないという意味の開き直りです. どうして「k=ε/s,s=σ/√nとおいて証明」しなくてはいけないのかと言われても,問題の性質からしてそう取ればうまく行ったからとしかいいようがないというつもりです. 都合がいいから勝手に違法なことでもやっても良いという意味ではなくて,証明の手続きそのもので間違ったことはしていない.(問題の性質からして)そうすればうまく行く積極的理由や合理的理由はあったとしても,必然性はあるかも知れないし無いかも知れない.いずれにしても証明できるための十分条件でありさえすれば間に合う.

star_blue
質問者

お礼

ありがとうございました

回答No.2

[後半] 大数の法則(law of large numbers) のことですね. >任意のεについて n→∞のとき、P(|X~-μ|<ε)→1 が成り立つ。 n→∞のとき,どんなに小さな許容誤差εをとっても |X~-μ|<ε ⇔ μ-ε<X~<μ+ε 多数個(n個)の平均値X~は μ±ε の範囲に100%の確率で入る つまり,「データの平均値X~は(真の)平均μに確率収束する」ということ. >k=ε/s,s=σ/√nとおいて証明していますが このようにおく根拠or理由というのが全く想像がつきません。 こう置けば証明がうまくいくからというのが開き直りの説明. もう少し親切に言えば,チェビシェフの不等式より m-ks<x<m+ks (k>=1) なる範囲にあるデータはデータ全体を1として(1-1/k^2)以上である と比較すればわかるように,ks=(許容誤差)ε を一定にしつつ,データ数Nが増えると,ばらつきsは(正規分布するような実験データの経験があればわかるように,)1/√N に比例して小さくなっていくから...というイメージではいけませんかねえ.

star_blue
質問者

お礼

そういうふうに考えればよいのですね。 ありがとうございました。

star_blue
質問者

補足

>こう置けば証明がうまくいくからというのが開き直りの説明 数学を専門にしてるわけではないのでわからないのですがそういう理由で論文とかでも定理の証明をしても問題はないのですか?

関連するQ&A