回歸分析
簡介
回歸分析(regression analysis)是研究一個變數(被解釋變數)關於另一個(些)變數(解釋變數)的具體依賴關係的計算方法和理論。 從一組樣本數據出發,確定變數之間的數學關係式對這些關係式的可信程度進行各種統計檢驗,並從影響某一特定變數的諸多變數中找出哪些變數的影響顯著,哪些不顯著。利用所求的關係式,根據一個或幾個變數的取值來預測或控制另一個特定變數的取值,並給出這種預測或控制的精確程度。
其用意:在於通過後者的已知或設定值,去估計和(或)預測前者的(總體)均值。
這裡:前一個變數被稱為被解釋變數(Explained Variable)或因變數(Dependent Variable),後一個(些)變數被稱為解釋變數(Explanatory Variable)或自變數(Independent Variable)或回歸變數。
由於變數間關係的隨機性,回歸分析關心的是根據解釋變數的已知或給定值,考察被解釋變數的總體均值,即當解釋變數取某個確定值時,與之統計相關的被解釋變數所有可能出現的對應值的平均值。
一元線性回歸模型的顯著性檢驗
從總體中隨機抽取一個樣本,根據樣本的n對X與Y的資料導出的線性回歸模型,由於受到抽樣誤差的影響,它所確定的變數之間的線性關係是否顯著,以及按照這個模 型用給定的自變數X值估因變數Y值是否有效,必須通過顯著性檢驗才可作出結論, 一元線性回歸模型的顯著性檢驗包括回歸係數b的檢驗和模型整體的F檢驗。
多元回歸模型
用來進行回歸分析的數學模型(含相關假設)成為回歸模型,只含有一個回歸變數的回歸模型稱為一元回歸模型否則稱為多元回歸模型。
編輯本段概念
設因變數為y,k個自變數分別為,x1,x2,…,xk和誤差項ε的方程稱為多元回歸模型。其一般形式可表示為:y=+。式中,是模型的參數;ε為誤差項。