人工智能之回歸模型(RM)
前言:人工智能機器學習有關算法內容,請參見公眾號之前相關文章。人工智能之機器學習主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下回歸模型(RM)。
回歸不是單一的有監(jiān)督學習技術,而是許多技術所屬的整個類別。回歸的目的是預測數值型的目標值,如預測商品價格、未來幾天的PM2.5等。最直接的辦法是依據輸入寫出一個目標值的計算公式,該公式就是所謂的回歸方程(regressionequation)。求回歸方程中的回歸系數的過程就是回歸;貧w是對真實值的一種逼近預測;貧w是統(tǒng)計學中最有力的算法之一。
回歸概念:
回歸是一個數學術語,指研究一組隨機變量(Y1,Y2 ,…,Yi)和另一組(X1,X2,…,Xk)變量之間關系的統(tǒng)計分析方法,又稱多重回歸分析。其中, X1、X2,…,Xk是自變量,Y1,Y2,…,Yi是因變量。
回歸模型:
回歸模型(Regression Model)對統(tǒng)計關系進行定量描述的一種數學模型。它是一種預測性的建模技術,研究的是因變量(目標)和自變量(預測器)之間的關系。這種技術通常用于預測分析,時間序列模型以及發(fā)現變量之間的因果關系。
回歸分析:
回歸模型重要的基礎或者方法就是回歸分析。回歸分析是研究一個變量(被解釋變量)關于另一個(些)變量(解釋變量)的具體依賴關系的計算方法和理論,是建模和分析數據的重要工具;貧w分析是用已知樣本對未知公式參數的估計,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最小。
回歸分類:
在統(tǒng)計學中,回歸分析(regression analysis)指的是確定兩種或兩種以上變量間相互依賴的定量關系的一種統(tǒng)計分析方法。回歸分析按照涉及的變量多少,分為一元回歸和多元回歸分析;按照因變量的多少,可分為簡單回歸分析和多重回歸分析;按照自變量和因變量之間的關系類型,可分為線性回歸分析和非線性回歸分析。
常見的回歸種類有:線性回歸、曲線回歸、邏輯回歸等。
線性回歸:
如果擬合函數為參數未知的線性函數,即因變量和自變量為線性關系時,則稱為線性回歸。
通過大量訓練,得到一個與數據擬合效果最好的模型,可利用一些算法(比如最小二乘法、梯度下降法等)和工具(SPSS)來更快更好的訓練出適用的線性回歸模型。實質是求解出每個特征自變量的權值θ。
在訓練過程中,特征選擇,擬合優(yōu)化等都需要考慮。
最終目標是確定每個權值(參數)θ或者通過算法逼近真實的權值(參數)θ。
需要注意的是,線性回歸不是指樣本的線性,樣本可以是非線性的,而是指對參數θ的線性。
線性回歸問題:可能會出現欠擬合、非滿秩矩陣問題等。
解決方法:解決欠擬合問題,可采用局部加權線性回歸LWLR(Locally Weighted Linear Regression)。解決非滿秩矩陣問題,可使用嶺回歸RR(ridge regression)、Lasso法、前向逐步回歸等。
算法優(yōu)點:
1)最可解釋的機器學習算法之一,理解與解釋都十分直觀;
2)易于使用,因為需要最小的調諧;
3)運行快,效率高;
4)最廣泛使用的機器學習技術。
非線性回歸:
如果擬合函數為參數未知的非線性函數,則稱為非線性或曲線回歸。非線性函數的求解一般可分為將非線性變換成線性和不能變換成線性兩大類。
1) 變換成線性:處理非線性回歸的基本方法。通過變量變換,將非線性回歸化為線性回歸,然后用線性回歸方法處理。一般采用線性迭代法、分段回歸法、迭代最小二乘法等。
2)不能變換成線性:基于回歸問題的最小二乘法,在求誤差平方和最小的極值問題上,應用了最優(yōu)化方法中對無約束極值問題的一種數學解法——單純形法。該算法比較簡單,收斂效果和收斂速度都比較理想。
常見的非線性回歸模型:1)雙曲線模型;2)冪函數模型;3)指數函數模型;4)對數函數模型;5)多項式模型。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?