濟(jì)南美雅圖機(jī)械設(shè)備公司

機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)報(bào)告

大家好,今天小編關(guān)注到一個(gè)比較有意思的話題,就是關(guān)于機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)問題,于是小編就整理了4個(gè)相關(guān)介紹機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的解答,讓我們一起看看吧。

  1. knn可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)嗎?
  2. bp神經(jīng)網(wǎng)絡(luò)需要多少組數(shù)據(jù)?
  3. 什么是人工神經(jīng)網(wǎng)絡(luò)的知識表示形式?
  4. 人工神經(jīng)網(wǎng)絡(luò)的本質(zhì)(物理或數(shù)學(xué)意義)是什么?

knn可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò)嗎?

knn算法是最鄰近結(jié)點(diǎn)算法,或者被稱為K均值聚類算法。它不會對訓(xùn)練樣本數(shù)據(jù)進(jìn)行學(xué)習(xí),屬于機(jī)器學(xué)習(xí)算法。機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)不同。神經(jīng)網(wǎng)絡(luò)屬于深度學(xué)習(xí)網(wǎng)絡(luò),所以knn不可以用來構(gòu)造神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)通常由卷積層、池化層、全連接層構(gòu)成。

bp神經(jīng)網(wǎng)絡(luò)需要多少組數(shù)據(jù)?

BP神經(jīng)網(wǎng)路構(gòu)建根據(jù)系統(tǒng)輸入輸出數(shù)據(jù)特點(diǎn)確定BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),由于語音特征輸入信號有24維,待分類的語音信號共有四類,所以BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)維24-25-4,即輸入層油24個(gè)節(jié)點(diǎn),隱含層有25個(gè)節(jié)點(diǎn),輸出層有4個(gè)節(jié)點(diǎn)。

機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)報(bào)告
(圖片來源網(wǎng)絡(luò),侵刪)

BP神經(jīng)網(wǎng)絡(luò)用訓(xùn)練數(shù)據(jù)訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)。共有2000組語音特征信號,從中隨機(jī)選擇1500組數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),500組數(shù)據(jù)作為測試網(wǎng)絡(luò)測試網(wǎng)絡(luò)分類能力。

什么是人工神經(jīng)網(wǎng)絡(luò)的知識表示形式?

人工神經(jīng)網(wǎng)絡(luò)的知識表示形式是由多個(gè)神經(jīng)元組成的網(wǎng)絡(luò)結(jié)構(gòu)。每個(gè)神經(jīng)元接收多個(gè)輸入信號,通過加權(quán)和和激活函數(shù)處理后輸出一個(gè)結(jié)果。神經(jīng)元之間的連接權(quán)重可以通過訓(xùn)練算法進(jìn)行優(yōu)化。整個(gè)神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果可以用于分類、回歸等任務(wù)。

在深度學(xué)習(xí)領(lǐng)域,通過構(gòu)建多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),可以提高模型的表現(xiàn)能力,得到更好的結(jié)果。

機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)報(bào)告
(圖片來源網(wǎng)絡(luò),侵刪)

人工神經(jīng)網(wǎng)絡(luò)的本質(zhì)(物理或數(shù)學(xué)意義)是什么?

從數(shù)學(xué)的角度講,人工神經(jīng)網(wǎng)絡(luò)的本質(zhì)從機(jī)器學(xué)習(xí)的過程可理解為通過參數(shù)求最佳解得過程。同樣也是一個(gè)負(fù)反饋的過程,以最簡單的負(fù)反饋神經(jīng)網(wǎng)絡(luò)bp神經(jīng)網(wǎng)絡(luò)(back propagation)為例,其本質(zhì)可以形象的理解為這樣一個(gè)過程:

我們***設(shè)這個(gè)剛搭建的好的機(jī)器人叫“小明”(***設(shè)他剛出生),他的硬件軟件等我們不需要考慮的部分全部是最先進(jìn)的,小明的大腦里現(xiàn)在是最純凈的,除了一個(gè)學(xué)習(xí)的算法什么都沒有,就像一個(gè)剛出生的嬰兒一樣。

現(xiàn)在,小明餓了,想吃東西。那么如何才能吃到東西呢?在什么都不知道的情況下,小明開始探索如何才能不餓。他可能會伸手,或者笑、哭,于是母親喂了他吃的,從邏輯上可以這么理解:

機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)報(bào)告
(圖片來源網(wǎng)絡(luò),侵刪)

然后他每次餓了,都開始伸手-笑-哭,然后就有吃的了。突然,有一天他自己也不知道怎么搞的,直接哭了。然后---有吃的了?。?!這時(shí)他才明白這一個(gè)邏輯:

時(shí)候,機(jī)器人“小明“明白,其實(shí)達(dá)到一個(gè)目的很簡單,但是需要不斷嘗試。

再后來,小明又餓了,這回他懶得動,稍微小哭了一下等吃的,結(jié)果媽媽沒來喂他!這是為啥?然后他就哭的超級大聲,媽媽看他這樣子以為是病了,急沖沖的送她去診所,結(jié)果啥病也沒有,小明迷惑,這是為什么?邏輯可以這么理解:

(1)非局限性因?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)的整個(gè)識別過程是基于全部輸入神經(jīng)元以及閾值等共同決定的。神經(jīng)元之間的聯(lián)系結(jié)構(gòu)是圖形結(jié)構(gòu)'應(yīng),各神經(jīng)元之間彼此作用,相互影響,人工神經(jīng)網(wǎng)絡(luò)自適應(yīng)的模擬訓(xùn)練中常常就是對類比與大腦的神經(jīng)元之間的對信息相互作用、提取特征、最終聯(lián)想的過程。

(2)非線性自然界中事物的普遍聯(lián)系都是非線性的,并不是簡單因素的加權(quán)組合,也就不能用用簡單的線性組合來刻劃彼此因素***間的關(guān)聯(lián)。人工神經(jīng)網(wǎng)絡(luò)是模擬大腦的各神經(jīng)元對事物識別記憶的原理。可以通過自適應(yīng),自我修復(fù)的過程實(shí)現(xiàn)對事物的判斷。根據(jù)具體的應(yīng)用設(shè)置適當(dāng)?shù)拈撝低鶗沟糜?xùn)練過程更加的趨于收斂,具有更好的性能,同時(shí)往往更好的收斂并能在容錯性和存儲容量上有很大的提高。

(3)非凸性人工神經(jīng)網(wǎng)絡(luò)因?yàn)樵谧赃m應(yīng)的訓(xùn)練過程中,其訓(xùn)練過程中的自適應(yīng)過程常受特定的狀態(tài)函數(shù)影響。此函數(shù)因?yàn)槭欠峭剐裕瑢?dǎo)致可能存在不同的極值點(diǎn),就有可能在訓(xùn)練過程中陷入局部收斂從而導(dǎo)致結(jié)果不理想,也就是說存在收斂過快的情況,系統(tǒng)訓(xùn)練結(jié)果可能存在演化多樣性。

(4)非常定性人工神經(jīng)網(wǎng)絡(luò)因具有較強(qiáng)的自適應(yīng)、自學(xué)習(xí)能力,能夠在處理信息的過程中不斷地改變自身的值。

神經(jīng)網(wǎng)絡(luò)本質(zhì)是一個(gè)程序或運(yùn)算,其結(jié)構(gòu)特征決定其是對某問題或系統(tǒng)的高效表示,所以我認(rèn)為神經(jīng)網(wǎng)絡(luò)有其一般物理基礎(chǔ)而并非僅對人腦的模擬。類似的物理系統(tǒng)是描述多體量子態(tài)的tensor network??烧J(rèn)為一般的對象都可由一個(gè)程序高效生成,如一幅圖像,這個(gè)生成程序就可表達(dá)為一個(gè)神經(jīng)網(wǎng)絡(luò)。所以對象和網(wǎng)絡(luò)結(jié)構(gòu)有對應(yīng)性。自然世界由那些可用深度網(wǎng)絡(luò)表達(dá)的對象構(gòu)成,而不可表達(dá)的對象在自然界出現(xiàn)的概率極小

看了幾個(gè)回答,都不錯,不過問題問的是“數(shù)學(xué)本質(zhì)”,我覺得回答們似乎都太“技術(shù)性”了。

Deep Learning 的數(shù)學(xué)本質(zhì)在我看來異常簡單,就是兩個(gè)基本的數(shù)學(xué)問題:找特征,求極值。

這個(gè)“特征”就是數(shù)學(xué)里常說的特征值,特征方程,特征向量… 都一樣,一般來說“特征”就是反映一種函數(shù)的“不變性”。

最簡單的,一張照片里光線好不好?有沒有明顯的邊界?前者可以定義一個(gè)特征值:亮度的均值。后者可以定義另一個(gè)特征值:梯度。

以往傳統(tǒng)的機(jī)器學(xué)習(xí)理論,這樣的特征需要算法設(shè)計(jì)者去“想出來”,這就像解幾何題,你得想出怎么畫***線。想不出來,你就解不出題。

到此,以上就是小編對于機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的問題就介紹到這了,希望介紹關(guān)于機(jī)械結(jié)構(gòu)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的4點(diǎn)解答對大家有用。

[免責(zé)聲明]本文來源于網(wǎng)絡(luò),不代表本站立場,如轉(zhuǎn)載內(nèi)容涉及版權(quán)等問題,請聯(lián)系郵箱:83115484@qq.com,我們會予以刪除相關(guān)文章,保證您的權(quán)利。 轉(zhuǎn)載請注明出處:http://xiupc.cn/post/51078.html

分享:
掃描分享到社交APP