• ベストアンサー

残差*従属変数の総和、最小二乗法(重回帰)にて

最小二乗法(重回帰)にて、 個別残差=個別予測値ー個別従属変数であり、 Σ(個別残差×個別従属変数)=0…(1) になるのです。 (回帰の平方和+残差の平方和)=全体の平方和 という定義(?)を疑問に思い、 解いていくと、上記(1)にたどり着きました。 なんとなくなりそうな気もするんですが、 どなたかすっきりと理由を教えては頂けないでしょうか。

質問者が選んだベストアンサー

  • ベストアンサー
  • age_momo
  • ベストアンサー率52% (327/622)
回答No.2

混乱されているようですが、 >yi=従属変数,Yi=yiの予測値,Y=Yの平均値(Yのつもり) とおきます。 >・ >・ >・ >∴Σ{Yi(Yi-yi)}=0…(1) Yiはyiの予測値なんですから、(1)式は Σ予測値×個別残差=0  を示し、同じ結論にたどり着いておられますよね。

thisis2wakei
質問者

お礼

わーっと ほんとだ。 一回目に書いて下さった Σ(x_i×個別残)=0 が結論になっております。 Y→yと思い込んでしまってて、 しかもシミュレーション結果のΣ(実測測値×個別残差) が、偶然0になったもので、混乱していたようです。 やはり、学生の頃は議論があったのですが、 仕事上、一人で黙々とやっていくと、 こういう単純なことで大きなロスになりますね。 本当に有難うございます。

その他の回答 (1)

  • age_momo
  • ベストアンサー率52% (327/622)
回答No.1

回帰の考え方は共通ですのでY=aX+bにおける計算を書いておきます。ご自分で重回帰に変換して考えてみてください。(重回帰だと表記、特にここでのテキスト表記が長く煩雑になりますので) 後、通常、回帰では残渣=実測値(従属変数)-予測値(aX+b)と表記しますし、Σ残渣×予測値=0ですので予測値と従属変数の表記が逆転していると思います。 (x_1,y_1),(x_2,y_2)・・・(x_n,y_n)のデータからY=ax+bに回帰するとき Σ{y_i-(ax_i+b)}^2は実測値x_i,y_iはすでに定数であるのでa,bの関数と考えることができる。 Q(a,b)=Σ{y_i-(ax_i+b)}^2 Q(a,b)が最低値を取る⇔a,bそれぞれで偏微分したときに0になる ∂Q/∂a=-2Σx_i×{y_i-(ax_i+b)}=0 ・・・ Sxy-aSx^2-bSx=0 ∂Q/∂b=-2Σ{y_i-(ax_i+b)}=0 ・・・Sy-aSx-bn=0 として連立方程式でa,bを定めます y_i-(ax_i+b)は個別残渣そのものですので上の式を書き換えると Σx_i×個別残渣=0 Σ個別残渣=0 であり、その定数倍の和である予測値×個別残渣の総和も0になります Σ予測値(ax_i+b)×個別残渣=0

thisis2wakei
質問者

補足

返信ありがとうございます。 簡単に表記してしまいましたが、これは表記ミスではございません。 上記考えに至った経緯を下に記します。 何か、おかしな点があれば、ご教示いただけたらと存じます。                     _ yi=従属変数,Yi=yiの予測値,Y=Yの平均値(Yのつもり) とおきます。 回帰の平方和 Sr=Σ(Yi-Y )^2 残差の平方和 Se=Σ(yi-Yi)^2 全体の平方和 St=Σ(yi-Y )^2 決定係数は、R^2=Sr/St=1-(Se/St) …(1) そして、納得のいかなかった以下の式を展開することにしたのです。 (1)よりSr=St-Se 上記式を展開して、 Σ(Yi^2-2Yi*Y+Y^2)=Σ(yi^2-2yi*Y+Y^2-yi^2+2yi*Yi-Yi^2) ∴Σ(2Yi^2-2Yi*Y+2yi*Y-2yi*Yi)=0 ∴YΣ(yi-Yi)+Σ{Yi(Yi-yi)}=0  ~~~~~~~~~~ ここで、Σ(yi-Yi)=0…(残差の総和) ∴Σ{Yi(Yi-yi)}=0…(1) (1)式はΣ(個別残差×個別従属変数)=0を表しているのでは無いでしょうか。

関連するQ&A

  • 最小二乗法について(統計学の回帰分析)

    「残差」と「回帰直線上の従属変数値から従属変数の平均値を引いた値」との共分散がゼロになるのは何故ですか?

  • 最小二乗法による残差の和について

    質問させていただきます。 最小二乗法による残差の和が0になることが保障されているのは以下のどれでしょうか? 1、Y=βX+ε 2、Y=α+βX+ε 3、Y=αX+βZ+γW+ε 4、Y=α+βX+γZ+δW+ε ただし、X,Y,Zは説明変数である。また、εは誤差項を表す よろしくお願い致します。

  • 回帰分析  最小二乗法の直線

    質問ですが 最小二乗法の直線はどうして残差dの二乗和が最小になる直線なのですか? 信頼区間がナントカ・・・みたいな? 数学には詳しくないので簡単に教えてください。

  • 原点を通る重回帰式の偏回帰係数

    はじめまして。 目的変数に対し、3つの説明変数を持つ資料があり、原点を通る重回帰式をたてたいところです。Excelなど、計算機の機能によって答えはわかっているのですが、式を作る計算過程を説明する資料を作らなければならなくなりました。 Y = aX+ bW + cZ Y: 目的変数 X:説明変数1 W:説明変数2 Z:説明変数3 a,b,c : 偏回帰係数 について、残差平方和 {Σ(Yi - ( aXi + bWi + cZi ))}^2を最小にするa,b,cを求めたいのです。残差平方和に対し、a,b,cで偏微分するといいのだ・・・などという理論は概ねわかりますが、私の数学力では、実際に計算過程を書き表すことができません。 説明変数が2つで、原点を通らない重回帰式の偏回帰係数の計算方法については、たとえば、以下のURLに書き表した例があります。 http://aoki2.si.gunma-u.ac.jp/lecture/Regression/mreg/mreg1.html このような書き表しの例で、説明変数が3つで、原点を通る重回帰式の偏回帰係数の計算方法をご紹介、またはご提示いただけないでしょうか。 どうかよろしくお願いいたします。

  • C/C++での最小二乗法について

    いつもお世話になっております。 初めての質問で不備があるかと思われますがよろしくお願いします。 現在Excelのソルバー機能で、測定した値とは別に 計算式f(x)で求めた推定値との残差二乗和((測定値-推定値)^2の和)から 計算式f(x)の変数a,bを算出しています。(変数a,bの初期値は適当な値を設定) このソルバーでの最小二乗法の計算をc/c++にて実装するにはどのようにすれば良いのでしょうか。 (ソルバー機能では目的値を残差二乗和、変化対象を変数a,bとし、準ニュートン法より最小値を求めています。) 御教授よろしくお願いします。

  • 不均一分散の回帰分析に適した変数変換とは?

    不均一分散する変数について回帰分析をする場合、加重最小2乗法や変数変換等があるという情報をウエブで見つけました。 手持ちのデータ(独立変数が大きくなるほど、残差のばらつきが大きくなっているデータ)で試しに従属変数の対数変換をして回帰したら、確かに元の結果よりかなり鮮明な傾向が認められ、また分散もほぼ一定となっている様に見受けられたのですが、その様になる理由は、簡単にイメージ的に説明すると何なのでしょうか。 また上記の様に“綺麗な結果”になる場合、そのまま対数変換の手法を採用して回帰してしまって差し支えないでしょうか。似た様な曲線形をとる関数に平方根(y=√x)等もあると思うので、ひょっとしたら「平方根変換」等も選択肢としてはあり得るとも思うのですが…何故対数変換なのでしょうか。 やはり実際に使う以上、直感的イメージだけでもその手法の仕組みを理解したいので、ご教示頂けると非常に助かります。

  • 独立変数(複数存在)が、従属変数に対しておよぼす影響の大きさ

    独立変数(複数存在)が、従属変数に対しておよぼす影響の大きさを知りたいのですが、以下のどちらの方法を適用すればよいのでしょうか。つまり、個々の独立変数ごとに従属変数の変動に占める影響割合(%)を知りたいのです。 第一の方法は、重回帰分析を行い、その偏回帰係数を標準化して(つまり、標準偏回帰係数)、その標準偏回帰係数の大きさによって、影響の大きさを比較する。 第二の方法は、分散分析のうち一般線形モデルを使用する方法です。ここで一般線形モデルとは、私が使用している統計ソフトの定義によると、独立変数としてカテゴリーデータと計量データを同時にモデルに含めることができます(ただし、モデルに含める計量データはcovariatesとして指定することになっています)。 この方法でアプローチした場合、従属変数の全変動(つまり平方和)を独立変数ごとに分解するので、その(平方和の)比率で影響の大きさを比較できます。 実際の例(カテゴリーデータと計量データを含む)を使って、上述のふたつの方法で計算してみたところ、異なる値になってしまいました。結局、どちらが正しいのかわかりません。 よろしくお願いします。

  • 最小二乗法について

    最小二乗法では二乗和の誤差 Σ[i=1~n]{Yi-(α+βXi )}^2 (iは添え字です) を最小化するα,βを推定することを考えますが、 これは単純にα,βで偏微分してそれを0とおいて 連立方程式を解くだけでよいのですか? といいますのも、2変数関数の極値を求める場合、 Hessianを計算して判別しますよね? ただ一階偏導関数が0になるからといって、 そこで極値をとるとは限らない気がしたので… それとも最小二乗法の場合は必ずとるようになっているのでしょうか? 手元の本には、 「この二乗和は非負値なので、αとβで偏微分したものを0とするα,βが上式を最小にする値である」 とあるのですが、一般に非負値だとこの ようなことが言えるのでしょうか?

  • 最小二乗法は、なぜ「二乗」なのでしょうか?

    最小二乗法は、なぜ「二乗」なのでしょうか? 多くの参考書には 「残差をそのまま足し合わせると 正負が打ち消しあってしまうため、二乗する。」 と書かれているのですが、 それでは4乗や6乗ではいけないのでしょうか? 個人的には、統計の正規分布と 何か関わりがあるのかと思っているのですが・・・。 それとも、ただ単に 「2乗が一番計算しやすいから」という事なのでしょうか?

  • 最小二乗法において・・・ bの分散って何でしょう?

    最小二乗法の過程で疑問が出来ました。 重回帰モデルが y=Xβ+ε で与えられるとき、最小二乗法を施すと βの期待値bが求まり、bの分散も求めることが出来るようですが、 bの分散という意味が、いまいちピンと来ません。 未知係数の分散?どういうことなんでしょう? 具体的に教えていただけないでしょうか? ちなみに分散は小さいほうが良いようなのですが、この意味も教えていただけると助かります。 よろしくお願いします。