訂閱
糾錯
加入自媒體

對于這些機器學習算法 數(shù)學不好你還真看不懂

機器學習技術不僅僅影響著當前的人工智能領域,在筆者看來,機器學習當中的算法技術甚至還可能影響到大數(shù)據(jù)對于很多領域的應用深度和廣度,對于機器學習的算法來說,我們可以描述成學習一個目標函數(shù)f,它能夠最好地映射出輸入變量X到輸出變量Y。有一類普遍的學習任務。我們要根據(jù)輸入變量X來預測出Y。我們不知道目標函數(shù)f是什么樣的。如果早就知道,我們就可以直接使用它,而不需要再通過機器學習算法從數(shù)據(jù)中進行學習了。

接下來我們就來了解一下常見的幾種機器學習算法以及其原理構成。

線性回歸

線性回歸是機器學習應用比較廣泛的一類概念和技術,線性回歸通過找到一組特定的權值,稱為系數(shù)B。通過最能符合輸入變量x到輸出變量y關系的等式所代表的線表達出來。

不同的技巧可以用于線性回歸模型。比如線性代數(shù)的普通最小二乘法,以及梯度下降優(yōu)化算法。線性回歸已經有超過200年的歷史,已經被廣泛地研究。根據(jù)經驗,這種算法可以很好地消除相似的數(shù)據(jù),以及去除數(shù)據(jù)中的噪聲。它是快速且簡便的首選算法。

邏輯回歸

邏輯回歸是另外一種從統(tǒng)計領域借鑒而來的機器學習算法,和線性回歸一樣,它的目的是找出每個輸入變量所對應的參數(shù)值,但不同的是,預測輸出所用的變換是一個被稱作logistic的非線性函數(shù)。

正是因為模型學習的這種方式,邏輯回歸做出的預測可以被當做輸入為0和1兩個分類數(shù)據(jù)的概率值。這在一些需要給出預測合理性的問題中非常有用。就像線性回歸,在需要移除與輸出變量無關的特征以及相似特征方面,邏輯回歸可以表現(xiàn)得很好。在處理二分類問題上,它是一個快速高效的模型。

線性判別分析

邏輯回歸是一個二分類的算法問題,當然如果需要去進行更多的分類,限行判別分析算法,也就是LDA是一種更好的線性分類方式。LDA包含對每一類輸入數(shù)據(jù)的統(tǒng)計特性(包含類內樣本均值和總體樣本變量)。通過計算每個類的判別值,并根據(jù)最大值來進行預測。這種方法假設數(shù)據(jù)服從高斯分布(鐘形曲線)。所以它可以較好地提前去除離群值。它是針對分類模型預測問題的一種簡單有效的方法。

回歸樹分析方法

決策樹式機器學習預測建模的一類重要算法,對于機器學習來說,可以用二叉樹去解釋決策樹模型,也就是根據(jù)算法和數(shù)據(jù)結構去建立起二叉樹的模型,每個節(jié)點都是代表一個輸入變量以及變量的分叉點,可以假設它是數(shù)值變量,樹的葉節(jié)點包括用于預測的輸出變量y。通過樹的各分支到達葉節(jié)點,并輸出對應葉節(jié)點的分類值。

樸素貝葉斯

這個模型包括兩種概率。它們可以通過訓練數(shù)據(jù)直接計算得到:每個類的概率;給定x值情況下每個類的條件概率。根據(jù)貝葉斯定理,一旦完成計算,就可以使用概率模型針對新的數(shù)據(jù)進行預測。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號