大家好,今天小編關(guān)注到一個比較有意思的話題,就是關(guān)于機械主體結(jié)構(gòu)是什么的問題,于是小編就整理了1個相關(guān)介紹機械主體結(jié)構(gòu)是什么的解答,讓我們一起看看吧。
機器學(xué)習(xí)需要哪些數(shù)學(xué)基礎(chǔ)?
我是一枚ios開發(fā),目前已經(jīng)在從事機器學(xué)習(xí)工作,主要做圖像識別和推薦算法,從我的角度來講一下需要哪些數(shù)學(xué)知識:
- 初級知識:
- 一元一次方程y=kx+b
- 二元一次方程組解法
- 余弦定理
- 勾股定理
- 三角函數(shù)
- 冪次運算
- 平方運算
- 分數(shù)運算
2. 高級知識
- 微分學(xué)
- 積分學(xué)
- 求導(dǎo)
- 統(tǒng)計學(xué)
- 線性代數(shù)
- 貝葉斯原理
- 最小二乘法
- sigmoid函數(shù)
對于搞機器學(xué)習(xí)的同學(xué)來說,高等數(shù)學(xué)、線性代數(shù)和概率論與數(shù)理統(tǒng)計是最重要的三門的數(shù)學(xué)基礎(chǔ)了。下面我來分別說明這三方面在機器學(xué)習(xí)中的作用
一. 高等數(shù)學(xué)
高等數(shù)學(xué)里面的微積分、牛頓迭代、拉格朗日乘數(shù)法、泰勒展開等等知識點在機器學(xué)習(xí)中都有應(yīng)用到。例如在邏輯回歸模型求梯度時候需要求偏導(dǎo)、優(yōu)化目標(biāo)使用的牛頓迭代方法、帶約束優(yōu)化問題的SVM需要用到拉格朗日乘數(shù)法等等,還有其它高等數(shù)學(xué)的知識點在機器學(xué)習(xí)中或多或少都有體現(xiàn)。
二. 線性代數(shù)
推薦系統(tǒng)使用的SVD分解、張量分解、非負矩陣分解NMF,PCA主成分分析中求特征值、矩陣運算。下面我貼一下之前我用矩陣求導(dǎo)解最小二乘問題的公式推導(dǎo)過程,可以體會一下線性代數(shù)的重要程度。
最小二乘的解,可以通過梯度下降迭代或牛頓迭代方法求解,但也可以基于矩陣求導(dǎo)來計算,它的計算方式更加簡潔高效,不需要大量迭代,只需解一個正規(guī)方程組。
總之,線性代數(shù)對于機器學(xué)習(xí)來說比高數(shù)還重要。
三. 概率論與數(shù)理統(tǒng)計
概率論與數(shù)理統(tǒng)計那就更重要了,比如樸素貝葉斯分類和概率圖模型用到的貝葉斯公式,高斯過程、最大熵模型,***樣方法,NLP領(lǐng)域的大部分算法都與概率論相關(guān),像基于LDA的主題模型、基于CRF的序列標(biāo)注模型、分詞系統(tǒng)等等。
所以要搞機器學(xué)習(xí),高等數(shù)學(xué)、線性代數(shù)和概率論與數(shù)理統(tǒng)計都是必不可少的數(shù)學(xué)基礎(chǔ)。
機器學(xué)習(xí)
屬于人工智能研究與應(yīng)用的一個分支領(lǐng)域。機器學(xué)習(xí)的研究更加偏向理論性,其目的更偏向于是研究一種為了讓計算機不斷從數(shù)據(jù)中學(xué)習(xí)知識,而使機器學(xué)習(xí)得到的結(jié)果不斷接近目標(biāo)函數(shù)的理論。
機器學(xué)習(xí)涉及許多數(shù)學(xué)學(xué)科,最主要的就是概率統(tǒng)計理論,矩陣理論,以及運籌學(xué)等。
作者曾經(jīng)寫過系列《想要學(xué)人工智能,你必須得先懂點統(tǒng)計學(xué)》,共14篇文章,詳細內(nèi)容可以到作者主頁查看,主要向大家介紹了在學(xué)習(xí)人工智能和機器學(xué)習(xí)之前有必要掌握的一些基礎(chǔ)統(tǒng)計理論,這些統(tǒng)計理論將有助于后續(xù)理解相關(guān)的機器學(xué)習(xí)算法和對數(shù)據(jù)挖掘結(jié)果的解釋。
第一篇:介紹了統(tǒng)計學(xué)的概念,描述統(tǒng)計方法和推斷統(tǒng)計方法,統(tǒng)計工作的過程,統(tǒng)計數(shù)據(jù)的類型,常用的統(tǒng)計調(diào)查方式和數(shù)據(jù)收集方法。
第二篇:介紹了數(shù)據(jù)描述的圖形方法、表格方法以及數(shù)值方法,分布形狀與眾數(shù)、中位數(shù)和均值的關(guān)系,離散系數(shù)或者變異系數(shù)。
第三篇:介紹了條件概率、全概率公式以及貝葉斯公式,常見的離散型概率分布和連續(xù)型隨機變量的概率分布。
第四篇:介紹了方差分析的基本概念,方差分析的基本思想和原理。
第五篇:介紹了方差分析中的基本***定,單因素方差分析的數(shù)據(jù)結(jié)構(gòu),總變差(離差平方和)的分解,組間方差和組內(nèi)方差,檢驗的統(tǒng)計量 F 計算。
第六篇:介紹了顯著性水平,統(tǒng)計量大小以及P值大小這三者之間的關(guān)系,如何根據(jù)P值怎么判斷顯著性,查表又怎么判斷顯著性。
數(shù)學(xué)基礎(chǔ)對于機器學(xué)習(xí)來說只需要一般的概率論加線性代數(shù)就可以了,往深挖的話還需要偏微分,復(fù)變函數(shù),實變函數(shù)等等,不過做機器學(xué)習(xí)很多時候都是用簡單的算法加選擇合適指標(biāo),一個好的idea指標(biāo)勝過一堆亂七八糟的鬼扯優(yōu)化算法!
我們知道,機器學(xué)習(xí)涉及到很多的工具,其中最重要的當(dāng)屬數(shù)學(xué)工具了,因此必要的數(shù)學(xué)基礎(chǔ)可謂是打開機器學(xué)習(xí)大門的必備鑰匙。機器學(xué)習(xí)涉及到的數(shù)學(xué)基礎(chǔ)內(nèi)容包括三個方面,分別是線性代數(shù)、概率統(tǒng)計和最優(yōu)化理論。下面小編就會好好給大家介紹一下機器學(xué)習(xí)中涉及到的數(shù)學(xué)基礎(chǔ)知道,讓大家在日常的機器學(xué)習(xí)中可以更好地運用數(shù)學(xué)工具。
首先我們給大家介紹一下線性代數(shù),線性代數(shù)起到的一個最主要的作用就是把具體的事物轉(zhuǎn)化成抽象的數(shù)學(xué)模型。不管我們的世界當(dāng)中有多么紛繁復(fù)雜,我們都可以把它轉(zhuǎn)化成一個向量,或者一個矩陣的形式。這就是線性代數(shù)最主要的作用。所以,在線性代數(shù)解決表示這個問題的過程中,我們主要包括這樣兩個部分,一方面是線性空間理論,也就是我們說的向量、矩陣、變換這樣一些問題。第二個是矩陣分析。給定一個矩陣,我們可以對它做所謂的SVD分解,也就是做奇異值分解,或者是做其他的一些分析。這樣兩個部分共同構(gòu)成了我們機器學(xué)習(xí)當(dāng)中所需要的線性代數(shù)。
然后我們說一下概率統(tǒng)計,在評價過程中,我們需要使用到概率統(tǒng)計。概率統(tǒng)計包括了兩個方面,一方面是數(shù)理統(tǒng)計,另外一方面是概率論。一般來說數(shù)理統(tǒng)計比較好理解,我們機器學(xué)習(xí)當(dāng)中應(yīng)用的很多模型都是來源于數(shù)理統(tǒng)計。像最簡單的線性回歸,還有邏輯回歸,它實際上都是來源于統(tǒng)計學(xué)。在具體地給定了目標(biāo)函數(shù)之后,我們在實際地去評價這個目標(biāo)函數(shù)的時候,我們會用到一些概率論。當(dāng)給定了一個分布,我們要求解這個目標(biāo)函數(shù)的期望值。在平均意義上,這個目標(biāo)函數(shù)能達到什么程度呢?這個時候就需要使用到概率論。所以說在評價這個過程中,我們會主要應(yīng)用到概率統(tǒng)計的一些知識。
最后我們說一下最優(yōu)化理論,其實關(guān)于優(yōu)化,就不用說了,我們肯定用到的是最優(yōu)化理論。在最優(yōu)化理論當(dāng)中,主要的研究方向是凸優(yōu)化。凸優(yōu)化當(dāng)然它有些限制,但它的好處也很明顯,比如說能夠簡化這個問題的解。因為在優(yōu)化當(dāng)中我們都知道,我們要求的是一個最大值,或者是最小值,但實際當(dāng)中我們可能會遇到一些局部的極大值,局部的極小值,還有鞍點這樣的點。凸優(yōu)化可以避免這個問題。在凸優(yōu)化當(dāng)中,極大值就是最大值,極小值也就是最小值。但在實際當(dāng)中,尤其是引入了神經(jīng)網(wǎng)絡(luò)還有深度學(xué)習(xí)之后,凸優(yōu)化的應(yīng)用范圍越來越窄,很多情況下它不再適用,所以這里面我們主要用到的是無約束優(yōu)化。同時,在神經(jīng)網(wǎng)絡(luò)當(dāng)中應(yīng)用最廣的一個算法,一個優(yōu)化方法,就是反向傳播。
到此,以上就是小編對于機械主體結(jié)構(gòu)是什么的問題就介紹到這了,希望介紹關(guān)于機械主體結(jié)構(gòu)是什么的1點解答對大家有用。