『壹』 如何用Stata命令消除多重共線性問題
影響
(1)完全共線性下參數估計量不存在
(2)近似共線性下OLS估計量非有效
多重共線性使參數估計值的方差增大,1/(1-r2)為方差膨脹因子(Variance Inflation Factor, VIF)如果方差膨脹因子值越大,說明共線性越強。相反 因為,容許度是方差膨脹因子的倒數,所以,容許度越小,共線性越強。可以這樣記憶:容許度代表容許,也就是許可,如果,值越小,代表在數值上越不容許,就是越小,越不要。而共線性是一個負面指標,在分析中都是不希望它出現,將共線性和容許度聯系在一起,容許度越小,越不要,實際情況越不好,共線性這個「壞蛋」越強。進一步,方差膨脹因子因為是容許度倒數,所以反過來。
總之就是找容易記憶的方法。
(3)參數估計量經濟含義不合理
(4)變數的顯著性檢驗失去意義,可能將重要的解釋變數排除在模型之外
(5)模型的預測功能失效。變大的方差容易使區間預測的「區間」變大,使預測失去意義。
需要注意:即使出現較高程度的多重共線性,OLS估計量仍具有線性性等良好的統計性質。但是OLS法在統計推斷上無法給出真正有用的信息。
判斷方法
如圖,是對德國人口老齡化情況的分析,其中y是老齡化情況,線性回歸的x1、x2、x3分別為人均國內生產總值、出生率、每個醫生平均負擔人口數。
判斷方法1:特徵值,存在維度為3和4的值約等於0,說明存在比較嚴重的共線性。
判斷方法2:條件索引列第3第4的值大於10,可以說明存在比較嚴重的共線性。
判斷方法3:比例方差內存在接近1的數(0.99),可以說明存在較嚴重的共線性。
解決方法
(1)排除引起共線性的變數
找出引起多重共線性的解釋變數,將它排除出去,以逐步回歸法得到最廣泛的應用。
(2)差分法
時間序列數據、線性模型:將原模型變換為差分模型。
(3)減小參數估計量的方差:嶺回歸法(Ridge Regression)。
(4)簡單相關系數檢驗法