想入門數據科學不知如何開始嗎?先看看這篇
數字化
2019/08/26 09:06:08 85518閱讀
數字化
2019/08/26 09:06:08 85518閱讀
想要入坑數據科學而又不知如何開始嗎?先看看這篇使用的數據科學入門數學指南吧!
數學就像一個章魚:它的「觸手」可以觸及到幾乎所有學科。雖然有些學科只是沾了點數學的邊,但有些學科則被數學的「觸手」緊緊纏住。數據科學就屬于后者。如果你想從事數據科學工作,你就必須解決數學問題。如果你已經獲得了數學學位或其它強調數學技能的學位,你可能想知道你學到的這些知識是否都是必要的。而如果你沒有相關背景,你可能想知道:從事數據科學工作究竟需要多少數學知識?在本文中,我們將探討數據科學意味著什么,并討論我們到底需要多少數學知識。讓我們從「數據科學」的實際含義開始講起。
對于數據科學的理解,是「仁者見仁,智者見智」的事情!在 Dataquest,我們將數據科學定義為:使用數據和高級統計學進行預測的學科。這是一門專業學科,重點關注理解有時有些混亂和不一致的數據(盡管數據科學家解決的問題因人而異)。統計學是我們在該定義中提到的唯一一門數學學科,但數據科學也經常涉及數學中的其他領域。學習統計學是一個很好的開始,但數據科學也使用算法進行預測。這些算法被稱為機器學習算法,數量達數百種。深入探討每種算法需要多少數學知識不屬于本文的范圍,本文將討論以下常用算法所需的數學知識:樸素貝葉斯
線性回歸
Logistic 回歸
K-Means 聚類
決策樹
定義:樸素貝葉斯分類器是一系列基于同一個原則的算法,即某一特定特征值獨立于任何其它特征值。樸素貝葉斯讓我們可以根據我們所知道的相關事件的條件預測事件發生的概率。該名稱源于貝葉斯定理,數學公式如下:
其中有事件 A 和事件 B,且 P(B) 不等于 0。這看起來很復雜,但我們可以把它拆解為三部分:
P(A|B) 是一個條件概率。即在事件 B 發生的條件下事件 A 發生的概率。
P(B|A) 也是一個條件概率。即在事件 A 發生的條件下事件 B 發生的概率。
P(A) 和 P(B) 是事件 A 和事件 B 分別發生的概率,其中兩者相互獨立。
所需數學知識:如果你想了解樸素貝葉斯分類器算法的基本原理以及貝葉斯定理的所有用法,一門概率論課程就足夠了。
定義:線性回歸是最基本的回歸類型。它幫助我們理解兩個連續變量間的關系。簡單的線性回歸就是獲取一組數據點并繪制可用于預測未來的趨勢線。線性回歸是參數化機器學習的一個例子。在參數化機器學習中,訓練過程使機器學習算法變成一個數學函數,能擬合在訓練集中發現的模式。然后可以使用該數學函數來預測未來的結果。在機器學習中,數學函數被稱為模型。在線性回歸的情況下,模型可以表示為:
其中 a_1, a_2, …,a_n 表示數據集的特定參數值,x_1, x_2, …, x_n 表示我們選擇在最終的模型中使用的特征列,y 表示目標列。線性回歸的目標是找到能描述特征列和目標列之間關系的最佳參數值。換句話說,就是找到最能最佳擬合數據的直線,以便根據線的趨勢來預測未來結果。
為了找到線性回歸模型的最佳參數,我們要最小化模型的殘差平方和。殘差通常也被稱為誤差,用來描述預測值和真實值之間的差異。殘差平方和的公式可以表示為:
所需數學知識:如果你只想簡單了解一下線性回歸,學習一門基礎統計學的課程就可以了。如果你想對概念有深入的理解,你可能就需要知道如何推導出殘差平方和的公式,這在大多數高級統計學課程中都有介紹。
邏輯回歸
定義:Logistic 回歸重點關注在因變量取二值(即只有兩個值,0 和 1 表示輸出結果)的情況下估算發生事件的概率。與線性回歸一樣,Logistic 回歸是參數化機器學習的一個例子。因此,這些機器學習算法的訓練結果是得到一個能夠最好地近似訓練集中模式的數學函數。區別在于,線性回歸模型輸出的是實數,而 Logistic 回歸模型輸出的是概率值。
正如線性回歸算法產生線性函數模型一樣,Logistic 回歸算法生成 Logistic 函數模型。它也被稱作 Sigmoid 函數,會將所有輸入值映射為 0 和 1 之間的概率結果。Sigmoid 函數可以表示如下:
那么為什么 Sigmoid 函數總是返回 0 到 1 之間的值呢?請記住,代數中任意數的負數次方等于這個數正數次方的倒數。
所需數學知識:我們在這里已經討論過指數和概率,你需要對代數和概率有充分的理解,以便理解 Logistic 算法的工作原理。如果你想深入了解概念,我建議你學習概率論以及離散數學或實數分析。
定義:K Means 聚類算法是一種無監督機器學習,用于對無標簽數據(即沒有定義的類別或分組)進行歸類。該算法的工作原理是發掘出數據中的聚類簇,其中聚類簇的數量由 k 表示。然后進行迭代,根據特征將每個數據點分配給 k 個簇中的一個。K 均值聚類依賴貫穿于整個算法中的距離概念將數據點「分配」到不同的簇中。距離的概念是指兩個給定項之間的空間大小。在數學中,描述集合中任意兩個元素之間距離的函數稱為距離函數或度量。其中有兩種常用類型:歐氏距離和曼哈頓距離。歐氏距離的標準定義如下:
其中 (x1,y1) 和 (x2,y2) 是笛卡爾平面上的坐標點。雖然歐氏距離應用面很廣,但在某些情況下也不起作用。假設你在一個大城市散步;如果有一個巨大的建筑阻擋你的路線,這時你說「我與目的地相距 6.5 個單位」是沒有意義的。為了解決這個問題,我們可以使用曼哈頓距離。曼哈頓距離公式如下:
其中 (x1,y1) 和 (x2,y2) 是笛卡爾平面上的坐標點。
所需數學知識:實際上你只需要知道加減法,并理解代數的基礎知識,就可以掌握距離公式。但是為了深入了解每種度量所包含的基本幾何類型,我建議學習一下包含歐氏幾何和非歐氏幾何的幾何學。為了深入理解度量和度量空間的含義,我會閱讀數學分析并選修實數分析的課程。
決策樹
定義:決策樹是類似流程圖的樹結構,它使用分支方法來說明決策的每個可能結果。樹中的每個節點代表對特定變量的測試,每個分支都是該測試的結果。決策樹依賴于信息論的理論來確定它們是如何構建的。在信息論中,人們對某個事件的了解越多,他們能從中獲取的新信息就越少。信息論的關鍵指標之一被稱為熵。熵是對給定變量的不確定性量進行量化的度量。熵可以被表示為:
在上式中,P(x_i) 是隨機事件 x_i 發生的概率。對數的底數 b 可以是任何大于 0 的實數;通常底數的值為 2、e(2.71)和 10。像「S」的花式符號是求和符號,即可以連續地將求和符號之外的函數相加,相加的次數取決于求和的下限和上限。在計算熵之后,我們可以通過利用信息增益開始構造決策樹,從而判斷哪種分裂方法能最大程度地減少熵。信息增益的公式如下:
信息增益可以衡量信息量,即獲得多少「比特」信息。在決策樹的情況下,我們可以計算數據集中每列的信息增益,以便找到哪列將為我們提供最大的信息增益,然后在該列上進行分裂。
所需數學知識:想初步理解決策樹只需基本的代數和概率知識。如果你想要對概率和對數進行深入的概念性理解,我推薦你學習概率論和代數課程。
如果你還在上學,我強烈建議你選修一些純數學和應用數學課程。它們有時肯定會讓人感到畏懼,但是令人欣慰的是,當你遇到這些算法并知道如何最好地利用它們時,你會更有能力。如果你目前沒有在上學,我建議你去最近的書店,閱讀本文中提到的相關書籍。如果你能找到涉及概率論、統計學和線性代數的書籍,我強烈建議你選擇涵蓋這些主題的書籍,以真正了解本文涉及到的和那些未涉及到的機器學習算法背后的原理。文章來源:微信公眾號almosthuman2014