<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        機器學習中的數學(2)

        來源:懂視網 責編:小采 時間:2020-11-09 07:27:39
        文檔

        機器學習中的數學(2)

        機器學習中的數學(2):線性回歸定義: 在上一個主題中,也是一個與回歸相關的,不過上一節更側重于梯度這個概念,這一節更側重于回歸本身與偏差和方差的概念。 回歸最簡單的定義是,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最 線性回歸定義:
        推薦度:
        導讀機器學習中的數學(2):線性回歸定義: 在上一個主題中,也是一個與回歸相關的,不過上一節更側重于梯度這個概念,這一節更側重于回歸本身與偏差和方差的概念。 回歸最簡單的定義是,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最 線性回歸定義:

        線性回歸定義: 在上一個主題中,也是一個與回歸相關的,不過上一節更側重于梯度這個概念,這一節更側重于回歸本身與偏差和方差的概念。 回歸最簡單的定義是,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最

        線性回歸定義:

        在上一個主題中,也是一個與回歸相關的,不過上一節更側重于梯度這個概念,這一節更側重于回歸本身與偏差和方差的概念。

        回歸最簡單的定義是,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最小。

        上圖所示,給出一個點集(x,y), 需要用一個函數去擬合這個點集,藍色的點是點集中的點,而紅色的曲線是函數的曲線,第一張圖是一個最簡單的模型,對應的函數為y = f(x) = ax + b,這個就是一個線性函數,

        第二張圖是二次曲線,對應的函數是y = f(x) = ax^2 + b。

        第三張圖我也不知道是什么函數,瞎畫的。

        第四張圖可以認為是一個N次曲線,N = M - 1,M是點集中點的個數,有一個定理是,對于給定的M個點,我們可以用一個M - 1次的函數去完美的經過這個點集。

        真正的線性回歸,不僅會考慮使得曲線與給定點集的擬合程度最好,還會考慮模型最簡單,這個話題我們將在本章后面的偏差、方差的權衡中深入的說,另外這個話題還可以參考我之前的一篇文章:貝葉斯、概率分布與機器學習,里面對模型復雜度的問題也進行了一些討論。

        線性回歸(linear regression),并非是指的線性函數,也就是

        (為了方便起見,以后向量我就不在上面加箭頭了)

        x0,x1…表示一個點不同的維度,比如說上一節中提到的,房子的價錢是由包括面積、房間的個數、房屋的朝向等等因素去決定的。而是用廣義的線性函數:

        wj是系數,w就是這個系數組成的向量,它影響著不同維度的Φj(x)在回歸函數中的影響度,比如說對于房屋的售價來說,房間朝向的w一定比房間面積的w更小。Φ(x)是可以換成不同的函數,不一定要求Φ(x)=x,這樣的模型我們認為是廣義線性模型。

        最小二乘法與最大似然:

        這個話題在此處有一個很詳細的討論,我這里主要談談這個問題的理解。最小二乘法是線性回歸中一個最簡單的方法,它的推導有一個假設,就是回歸函數的估計值與真實值間的誤差假設是一個高斯分布。這個用公式來表示是下面的樣子: ,y(x,w)就是給定了w系數向量下的回歸函數的估計值,而t就是真實值了,ε表示誤差。我們可以接下來推出下面的式子:

        這是一個簡單的條件概率表達式,表示在給定了x,w,β的情況下,得到真實值t的概率,由于ε服從高斯分布,則從估計值到真實值間的概率也是高斯分布的,看起來像下面的樣子:

        貝葉斯、概率分布與機器學習這篇文章中對分布影響結果這個話題討論比較多,可以回過頭去看看,由于最小二乘法有這樣一個假設,則會導致,如果我們給出的估計函數y(x,w)與真實值t不是高斯分布的,甚至是一個差距很大的分布,那么算出來的模型一定是不正確的,當給定一個新的點x’想要求出一個估計值y’,與真實值t’可能就非常的遠了。

        概率分布是一個可愛又可恨的東西,當我們能夠準確的預知某些數據的分布時,那我們可以做出一個非常精確的模型去預測它,但是在大多數真實的應用場景中,數據的分布是不可知的,我們也很難去用一個分布、甚至多個分布的混合去表示數據的真實分布,比如說給定了1億篇網頁,希望用一個現有的分布(比如說混合高斯分布)去匹配里面詞頻的分布,是不可能的。在這種情況下,我們只能得到詞的出現概率,比如p(的)的概率是0.5,也就是一個網頁有1/2的概率出現“的”。如果一個算法,是對里面的分布進行了某些假設,那么可能這個算法在真實的應用中就會表現欠佳。最小二乘法對于類似的一個復雜問題,就很無力了

        偏差、方差的權衡(trade-off):

        偏差(bias)和方差(variance)是統計學的概念,剛進公司的時候,看到每個人的嘴里隨時蹦出這兩個詞,覺得很可怕。首先得明確的,方差是多個模型間的比較,而非對一個模型而言的,對于單獨的一個模型,比如說:

        這樣的一個給定了具體系數的估計函數,是不能說f(x)的方差是多少。而偏差可以是單個數據集中的,也可以是多個數據集中的,這個得看具體的定義。

        方差和偏差一般來說,是從同一個數據集中,用科學的采樣方法得到幾個不同的子數據集,用這些子數據集得到的模型,就可以談他們的方差和偏差的情況了。方差和偏差的變化一般是和模型的復雜程度成正比的,就像本文一開始那四張小圖片一樣,當我們一味的追求模型精確匹配,則可能會導致同一組數據訓練出不同的模型,它們之間的差異非常大。這就叫做方差,不過他們的偏差就很小了,如下圖所示:

        上圖的藍色和綠色的點是表示一個數據集中采樣得到的不同的子數據集,我們有兩個N次的曲線去擬合這些點集,則可以得到兩條曲線(藍色和深綠色),它們的差異就很大,但是他們本是由同一個數據集生成的,這個就是模型復雜造成的方差大。模型越復雜,偏差就越小,而模型越簡單,偏差就越大,方差和偏差是按下面的方式進行變化的:

        當方差和偏差加起來最優的點,就是我們最佳的模型復雜度。

        用一個很通俗的例子來說,現在咱們國家一味的追求GDP,GDP就像是模型的偏差,國家希望現有的GDP和目標的GDP差異盡量的小,但是其中使用了很多復雜的手段,比如說倒賣土地、強拆等等,這個增加了模型的復雜度,也會使得偏差(居民的收入分配)變大,窮的人越窮(被趕出城市的人與進入城市買不起房的人),富的人越富(倒賣土地的人與賣房子的人)。其實本來模型不需要這么復雜,能夠讓居民的收入分配與國家的發展取得一個平衡的模型是最好的模型。

        最后還是用數學的語言來描述一下偏差和方差:

        E(L)是損失函數,h(x)表示真實值的平均,第一部分是與y(模型的估計函數)有關的,這個部分是由于我們選擇不同的估計函數(模型)帶來的差異,而第二部分是與y無關的,這個部分可以認為是模型的固有噪聲。

        對于上面公式的第一部分,我們可以化成下面的形式:

        這個部分在PRML的1.5.5推導,前一半是表示偏差,而后一半表示方差,我們可以得出:損失函數=偏差^2+方差+固有噪音。

        下圖也來自PRML:

        這是一個曲線擬合的問題,對同分布的不同的數據集進行了多次的曲線擬合,左邊表示方差,右邊表示偏差,綠色是真實值函數。ln lambda表示模型的復雜程度,這個值越小,表示模型的復雜程度越高,在第一行,大家的復雜度都很低(每個人都很窮)的時候,方差是很小的,但是偏差同樣很小(國家也很窮),但是到了最后一幅圖,我們可以得到,每個人的復雜程度都很高的情況下,不同的函數就有著天壤之別了(貧富差異大),但是偏差就很小了(國家很富有)。

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        機器學習中的數學(2)

        機器學習中的數學(2):線性回歸定義: 在上一個主題中,也是一個與回歸相關的,不過上一節更側重于梯度這個概念,這一節更側重于回歸本身與偏差和方差的概念。 回歸最簡單的定義是,給出一個點集D,用一個函數去擬合這個點集,并且使得點集與擬合函數間的誤差最 線性回歸定義:
        推薦度:
        標簽: 中的 學習 定義
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 亚洲欧洲日产国码高潮αv| 国产精品国产自线拍免费软件| 亚洲一区无码中文字幕| 美女免费视频一区二区| 国产精品免费播放| 女bbbbxxxx另类亚洲| 四虎影视永久免费观看| 美女被免费网站在线视频免费| 日韩一区二区免费视频| 免费无码又爽又黄又刺激网站| 又粗又大又猛又爽免费视频| 一区免费在线观看| 在线亚洲97se亚洲综合在线| a毛片在线还看免费网站| 亚洲高清在线观看| 麻豆视频免费播放| 亚洲美国产亚洲AV| 免费A级毛片无码A| a级毛片免费全部播放无码| 亚洲美女视频网址| 成年女人喷潮毛片免费播放| 污视频网站免费在线观看| 亚洲一区爱区精品无码| 182tv免费观看在线视频| 亚洲综合色一区二区三区| 免费在线观看a级毛片| 99精品视频免费| 亚洲免费视频网址| 免费亚洲视频在线观看| 久久精品成人免费网站| 亚洲人成人77777在线播放| 免费真实播放国产乱子伦| 美女在线视频观看影院免费天天看| 亚洲国产综合在线| 免费人成无码大片在线观看| 免费国产在线视频| 亚洲人成网站在线播放2019| 亚洲中文字幕无码一久久区| 九九精品免费视频| 中文字幕无线码免费人妻| 亚洲天堂男人影院|