Ⅰ MATLAB 線性回歸演算法
x=[
1.99 2.00 1.00;
11.43 14.76 12.86;
44.29 50.00 50.00;
72.86 81.43 75.71;
87.61 89.51 87.61;
93.33 92.86 94.29];
day=[1:6]'; %天數
%這里我想,應當是想得到發芽率與天數的關系,而跟組無關
%所以這里我將它們橫向求平均。求出每天的平均出芽率
xx=sum(x,2)/size(x,2);
A=[day,ones(size(day))];
c=A\xx;
k=c(1);
b=c(2);
yy=k*day+b;
plot(day,xx,'r*',day,yy)
%紅色的*點,是平均出芽率與天數的關系
%線是擬合出來的
%=====================================
%那我就拿第一組做試驗
%實際上就是將xx=sum(x,2)/size(x,2)
%這句改成xx=x(:,1);
%第二組,你就改成xx=x(:,2);
x=[
1.99 2.00 1.00;
11.43 14.76 12.86;
44.29 50.00 50.00;
72.86 81.43 75.71;
87.61 89.51 87.61;
93.33 92.86 94.29];
day=[1:6]'; %天數
xx=x(:,1);
A=[day,ones(size(day))];
c=A\xx;
k=c(1);
b=c(2);
yy=k*day+b;
plot(day,xx,'r*',day,yy)
Ⅱ 線性回歸計算中的r怎麼計算
1、r=∑(Xi-X)(Yi-Y)/根號[∑(Xi-X)²×∑(Yi-Y)²]
上式中」∑」表示從i=1到i=n求和;X,Y分別表示Xi,Yi的平均數。
2、簡單線性回歸用於計算兩個連續型變數(如X,Y)之間的線性關系,
具體地說就是計算下面公式中的α和βα和β。
Y=α+βX+εY=α+βX+ε
其中εε稱為殘差,服從從N(0,σ2)N(0,σ2)的正態分布,自由度為(n-1) - (2-1) = n-2 為了找到這條直線的位置,我們使用最小二乘法(least squares approach)。
最小二乘法確保所有點處的殘差的平方和最小時計算α和βα和β,即下面示意圖中∑4i=1ε2i=ε21+ε22+ε23+ε24∑i=14εi2=ε12+ε22+ε32+ε42有最小值。
(2)線性回歸演算法擴展閱讀:
線性回歸有很多實際用途。分為以下兩大類:
1、如果目標是預測或者映射,線性回歸可以用來對觀測數據集的和X的值擬合出一個預測模型。當完成這樣一個模型以後,對於一個新增的X值,在沒有給定與它相配對的y的情況下,可以用這個擬合過的模型預測出一個y值。
給定一個變數y和一些變數X1,...,Xp,這些變數有可能與y相關,線性回歸分析可以用來量化y與Xj之間相關性的強度,評估出與y不相關的Xj,並識別出哪些Xj的子集包含了關於y的冗餘信息。
2、趨勢線
一條趨勢線代表著時間序列數據的長期走勢。它告訴我們一組特定數據(如GDP、石油價格和股票價格)是否在一段時期內增長或下降。雖然我們可以用肉眼觀察數據點在坐標系的位置大體畫出趨勢線,更恰當的方法是利用線性回歸計算出趨勢線的位置和斜率。
Ⅲ 一元線性回歸方程的計算步驟
1、列計算表,求∑x,∑xx,∑y,∑yy,∑xy。
2、計算Lxx,Lyy,LxyLxx=∑(x-xˇ)(x-xˇ)Lyy=∑(y-yˇ)(y-yˇ)Lxy=∑(x-xˇ)(y-yˇ)
3、求相關系數,並檢驗;r = Lxy /( Lxx Lyy)1/2
4、求回歸系數b和常數a;b=Lxy /Lxxa=y - bx
5、列回歸方程。
)來表示。
Ⅳ 如何用js實現線性回歸演算法
可以用函數 regress( )來解決。
[b,bint,r,rint,stats] = regress(y,X)
b——擬合線性函數的系數
bint——系數b的置信區間
r——殘值向量
rint——殘值的置信區間
stats——檢驗統計量,第一值是回歸方程的置信度,第二值是F統計量,第三值是與F統計量相應的p值,當p值很小,說明回歸模型成立
X——自變數向量,X=[ones(3,1) x1 x2 x3]
y——應變數向量
Ⅳ 請教一道數理統計關於線性回歸的簡單計算題
線性回歸是利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關系的一種統計分析方法,運用十分廣泛。分析按照自變數和因變數之間的關系類型,可分為線性回歸分析和非線性回歸分析在統計學中,線性回歸(LinearRegression)是利用稱為線性回歸方程的最小平方函數對一個或多個自變數和因變數之間關系進行建模的一種回歸分析。這種函數是一個或多個稱為回歸系數的模型參數的線性組合。只有一個自變數的情況稱為簡單回歸,大於一個自變數情況的叫做多元回歸。(這反過來又應當由多個相關的因變數預測的多元線性回歸區別,】,而不是一個單一的標量變數。)回歸分析中,只包括一個自變數和一個因變數,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變數,且因變數和自變數之間是線性關系,則稱為多元線性回歸分析。在線性回歸中,數據使用線性預測函數來建模,並且未知的模型參數也是通過數據來估計。這些模型被叫做線性模型。最常用的線性回歸建模是給定X值的y的條件均值是X的仿射函數。不太一般的情況,線性回歸模型可以是一個中位數或一些其他的給定X的條件下y的條件分布的分位數作為X的線性函數表示。像所有形式的回歸分析一樣,線性回歸也把焦點放在給定X值的y的條件概率分布,而不是X和y的聯合概率分布(多元分析領域)。線性回歸是回歸分析中第一種經過嚴格研究並在實際應用中廣泛使用的類型。這是因為線性依賴於其未知參數的模型比非線性依賴於其位置參數的模型更容易擬合,而且產生的估計的統計特性也更容易確定。線性回歸有很多實際用途。分為以下兩大類:如果目標是預測或者映射,線性回歸可以用來對觀測數據集的和X的值擬合出一個預測模型。當完成這樣一個模型以後,對於一個新增的X值,在沒有給定與它相配對的y的情況下,可以用這個擬合過的模型預測出一個y值。給定一個變數y和一些變數X1,,Xp,這些變數有可能與y相關,線性回歸分析可以用來量化y與Xj之間相關性的強度,評估出與y不相關的Xj,並識別出哪些Xj的子集包含了關於y的冗餘信息。
Ⅵ C語言 多元線性回歸演算法
從鍵盤輸入abcd,
float x,y,z,M;
M=a*x+b*y+c*x+d
輸出M
你要的是這個意思嗎?
Ⅶ 回歸直線方程的計算方法
要確定回歸直線方程①,只要確定a與回歸系數b。回歸直線的求法通常是最小二乘法:離差作為表示xi對應的回歸直線縱坐標y與觀察值yi的差,其幾何意義可用點與其在回歸直線豎直方向上的投影間的距離來描述。數學表達:Yi-y^=Yi-a-bXi.總離差不能用n個離差之和來表示,通常是用離差的平方和即(Yi-a-bXi)^2計算。即作為總離差,並使之達到最小,這樣回歸直線就是所有直線中除去最小值的那一條。這種使「離差平方和最小」的方法,叫做最小二乘法。用最小二乘法求回歸直線方程中的a,b有圖一和圖二所示的公式進行參考。其中,
(7)線性回歸演算法擴展閱讀
回歸直線方程指在一組具有相關關系的變數的數據(x與Y)間,一條最好地反映x與y之間的關系直線。
離差作為表示Xi對應的回歸直線縱坐標y與觀察值Yi的差,其幾何意義可用點與其在回歸直線豎直方向上的投影間的距離來描述。數學表達:Yi-y^=Yi-a-bXi.
總離差不能用n個離差之和來表示,通常是用離差的平方和,即(Yi-a-bXi)^2計算。
Ⅷ 線性回歸方程中的a,b怎麼計算
b=(∑XiYi-nXoYo)/(∑Xi2-nXo2)。
a=Yo-bXo,說明:i(表示其通項1,2…,n),o(表示其平均值)為下腳標,2(表示其平方)為上腳標。
Ⅸ 線性回歸方程公式
簡單線性回歸方程,可以表示為下圖:
線性回歸方程是利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關系的一種統計分析方法之一。線性回歸也是回歸分析中第一種經過嚴格研究並在實際應用中廣泛使用的類型。按自變數個數可分為一元線性回歸分析方程和多元線性回歸分析方程。
分析按照自變數和因變數之間的關系類型,可分為線性回歸分析和非線性回歸分析。如果在回歸分析中,只包括一個自變數和一個因變數,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。
如果回歸分析中包括兩個或兩個以上的自變數,且因變數和自變數之間是線性關系,則稱為多元線性回歸分析。