亚洲av成人精品日韩一区,97久久久精品综合88久久,玩弄japan白嫩少妇hd,亚洲av片不卡无码久久,玩弄人妻少妇500系列

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大多數(shù)人不知道神經(jīng)網(wǎng)絡(luò)如此簡單

倩倩 ? 來源:智能觀 ? 2020-04-17 15:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

經(jīng)常有人告訴我他們使用人工智能取得了多么令人矚目的成就。其實(shí),這里面有99%的東西都很蠢。

這篇文章可能會(huì)被認(rèn)為夸夸其談,但這并不是它的本意,它只想指出為什么以前人工智能專家很少,現(xiàn)在突然涌現(xiàn)出如此多的專家。

大多數(shù)專家貌似都很專業(yè),這是因?yàn)楹苌儆腥酥浪麄兪窃趺床倏vAI的。本文就旨在“揭露”他們的內(nèi)幕。

1.從零開始建立一個(gè)神經(jīng)網(wǎng)絡(luò),并讓它在手機(jī)上運(yùn)行

你如果能將這11行Python代碼輕松地轉(zhuǎn)換為Java、C或C++代碼,就已經(jīng)掌握了交叉編譯器在3秒內(nèi)可以完成的工作。

大多數(shù)人不知道神經(jīng)網(wǎng)絡(luò)如此簡單。他們認(rèn)為神經(jīng)網(wǎng)絡(luò)是超級(jí)復(fù)雜的。就像把復(fù)雜圖形分解成無數(shù)個(gè)簡單圖形一樣,神經(jīng)網(wǎng)絡(luò)也可以做一些看起來很復(fù)雜的事情,但是這種復(fù)雜性來自重復(fù)和隨機(jī)數(shù)發(fā)生器。

2.建立一個(gè)20層的神經(jīng)網(wǎng)絡(luò)

你拿了上面的代碼,然后再次循環(huán)。接下來比較難的是,決定把下一個(gè)“For”和“:”放在哪兒。

深度學(xué)習(xí)”和深度的n層只是一個(gè)輸入輸出貫穿于自身的神經(jīng)網(wǎng)絡(luò)。因?yàn)槟阍诓粩嗟匮h(huán)再循環(huán),所以它被稱為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN:Recursive neural networks)。

這些不斷重復(fù)的動(dòng)作與你學(xué)習(xí)駕駛有些類似,假如你只學(xué)會(huì)了右轉(zhuǎn)彎,上路后只要遇到路口你就右轉(zhuǎn),你就可以去自己想去的地方。雖然這樣做效率不高,但我們知道右轉(zhuǎn)彎比左轉(zhuǎn)彎更容易。

3.使用英偉達(dá)GPU訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),并移至手機(jī)

在上述11行代碼中,錯(cuò)誤(或未實(shí)現(xiàn))的是種子沒有設(shè)置。沒有設(shè)置種子,就不能保證第二次循環(huán)會(huì)像第一次循環(huán)一樣獲得相同的隨機(jī)數(shù),也就不能保證出現(xiàn)明顯不同的結(jié)果。由于你的手機(jī)和電腦不能給出相同的隨機(jī)數(shù),而且不同的手機(jī)芯片之間可能都有不同的隨機(jī)數(shù),所以將基于GPU的訓(xùn)練移植到移動(dòng)端很不現(xiàn)實(shí)。

這樣的訓(xùn)練要花費(fèi)數(shù)以億計(jì)的時(shí)間,因此為手機(jī)建立一個(gè)神經(jīng)網(wǎng)絡(luò)幾乎是不可能的。設(shè)備之間也始終存在差異,對(duì)于語音識(shí)別來說,識(shí)別率增加或者減少5%不是什么大問題,而對(duì)癌癥檢測或診斷等事情來說,這就是一件大事了。

4.訓(xùn)練神經(jīng)網(wǎng)絡(luò)去做人類無法做到的事

神經(jīng)網(wǎng)絡(luò)其實(shí)就是個(gè)愚蠢的黑匣子。如果你有足夠的時(shí)間和精力運(yùn)行它,就會(huì)得到比較合適的測試數(shù)據(jù),但你不會(huì)從隨機(jī)源測試中得到很好的結(jié)果。人工智能非常擅長偽關(guān)聯(lián),比如,把肯塔基州的結(jié)婚率和溺水率相關(guān)聯(lián)。

人們總希望人工智能可以創(chuàng)造奇跡,但大部分AI并不能做人類也做不到的事情。雖然有一些例外,但僅限于透明的AI,而神經(jīng)網(wǎng)絡(luò)是個(gè)黑匣子。

5. 使用TensorFlow

還記得上面的那十一行代碼嗎?TensorFlow只是這11行代碼的包裝品。它幫你可視化了這11行代碼中發(fā)生的事情。很多時(shí)候,它就像谷歌分析一樣。谷歌分析需要的數(shù)據(jù)都可以在服務(wù)器日志中找到,但是大多數(shù)人看不懂這些日志,他們只能看明白谷歌分析。與此同時(shí),谷歌分析會(huì)告訴你,你的服務(wù)器速度很慢,但它不會(huì)告訴你原因。

我們這些了解神經(jīng)網(wǎng)絡(luò)的人不需要TensorFlow,因?yàn)槲覀儾恍枰ㄉ诘膱D表和動(dòng)畫來可視化數(shù)據(jù),我們需要看原始數(shù)據(jù)和代碼,才能找出服務(wù)器變慢等問題的原因。

6.把神經(jīng)網(wǎng)絡(luò)用于NLP/ NLU

關(guān)于人類一些常識(shí)性的東西,神經(jīng)網(wǎng)絡(luò)的模擬能力并不比鼻涕蟲的高多少。

為英語中的每個(gè)單詞構(gòu)建一個(gè)具有單一特征的神經(jīng)網(wǎng)絡(luò), 它需要的計(jì)算能力和谷歌擁有的計(jì)算能力一樣多。在英語中,若把每一個(gè)詞的每個(gè)意義都賦予一個(gè)特征,就需要地球上所有的云服務(wù)都來計(jì)算,這顯然是不可能的。人工智能可以做偉大的事情,但神經(jīng)網(wǎng)絡(luò)是有局限性的。

7.有一個(gè)自定義的神經(jīng)網(wǎng)絡(luò)

恭喜你, 你已經(jīng)知道如何將11行的神經(jīng)網(wǎng)絡(luò)代碼包裝在9行代碼中, 用于遺傳算法,或包裝在44行代碼中,用于分布式進(jìn)化算法。你可以用55行代碼寫一篇新聞稿,等等。

8.訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)做事

你現(xiàn)在成了一個(gè)數(shù)據(jù)駕馭者,就如同一個(gè)訓(xùn)狗師一樣。只要你的狗長著一個(gè)鼻涕蟲腦袋,你就可以多次重復(fù)訓(xùn)練它。

同理,擁有一個(gè)數(shù)據(jù)訓(xùn)練集也沒有捷徑,只能靠這種單調(diào)笨拙的方法。雖然外界很難了解你的所作所為,但你不要欺騙自己(或者其他人),你只不過是一個(gè)鼻涕蟲訓(xùn)練師而已。

9.把神經(jīng)網(wǎng)絡(luò)和區(qū)塊鏈結(jié)合

恭喜你,你終于知道炒作堆棧了。不幸的是,哈希挖掘和神經(jīng)網(wǎng)絡(luò)沒有任何共同之處,并且,用區(qū)塊鏈節(jié)點(diǎn)運(yùn)行所有數(shù)據(jù)集是行不通的。

當(dāng)你用正常大小的數(shù)據(jù)集以超過16種方式“切片”負(fù)載時(shí),神經(jīng)網(wǎng)絡(luò)開始出現(xiàn)問題。如果你有數(shù)十億的數(shù)據(jù)記錄,或者你在做反向傳播,想要測試多種數(shù)據(jù)表示順序,是可以進(jìn)行更大擴(kuò)展的,但這些不能擴(kuò)展到數(shù)百萬個(gè)節(jié)點(diǎn)中。

10.我不怎么用神經(jīng)網(wǎng)絡(luò)

在我使用的工具中,也有神經(jīng)網(wǎng)絡(luò)代碼。但它只是一種選擇,而不是整個(gè)產(chǎn)品的基礎(chǔ)。我所做的大部分工作,運(yùn)用了一種自定義的啟發(fā)式方法。我把使用的各種技術(shù)的組合叫做心智模擬。

神經(jīng)網(wǎng)絡(luò)模擬的是大腦中的硬件,而心智模擬對(duì)大腦中的軟件進(jìn)行模擬。心智模擬只有大約10年的歷史,而神經(jīng)網(wǎng)絡(luò)已經(jīng)有50多年歷史了。

心智模擬的另一個(gè)不同之處在于,它屬于透明的AI,需要數(shù)百萬行代碼才能發(fā)揮作用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103618
  • 編譯器
    +關(guān)注

    關(guān)注

    1

    文章

    1662

    瀏覽量

    50222
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4827

    瀏覽量

    86750
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?668次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?921次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的有效方法。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?768次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?857次閱讀

    深度學(xué)習(xí)入門:簡單神經(jīng)網(wǎng)絡(luò)的構(gòu)建與實(shí)現(xiàn)

    深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)是核心模型。今天我們用 Python 和 NumPy 構(gòu)建一個(gè)簡單神經(jīng)網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)由多個(gè)神經(jīng)元組成,
    的頭像 發(fā)表于 01-23 13:52 ?530次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1190次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:53 ?1871次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(前饋神經(jīng)網(wǎng)絡(luò)) 2.1 結(jié)構(gòu) 傳統(tǒng)神經(jīng)網(wǎng)絡(luò),通常指的是前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks, FNN),是一種最
    的頭像 發(fā)表于 11-15 09:42 ?1127次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1631次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1586次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?666次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    未來車間大多數(shù)人工將被機(jī)器代替,立柱機(jī)器人建材行業(yè)應(yīng)用

    ?在未來,隨著技術(shù)的不斷進(jìn)步和自動(dòng)化程度的題高,車間內(nèi)大多數(shù)人工被機(jī)器代替的趨勢愈發(fā)明顯。立柱機(jī)器人在建材行業(yè)的應(yīng)用正是這一趨勢的具體體現(xiàn)。以下是對(duì)立柱機(jī)器人在建材行業(yè)應(yīng)用的詳細(xì)分析: ?一
    的頭像 發(fā)表于 08-28 16:41 ?663次閱讀
    未來車間<b class='flag-5'>大多數(shù)人</b>工將被機(jī)器代替,立柱機(jī)器人建材行業(yè)應(yīng)用

    巧了不是,原來你也不知道啥是去耦電容的“濾波半徑”啊!

    電源設(shè)計(jì)中的網(wǎng)紅用語:電容去耦半徑,大多數(shù)人都聽過,但能講出來原理的人估計(jì)不多;看完這篇文章,讓你們理論知識(shí)和實(shí)際設(shè)計(jì)更上一層樓!
    的頭像 發(fā)表于 08-19 14:54 ?844次閱讀
    巧了不是,原來你也<b class='flag-5'>不知道</b>啥是去耦電容的“濾波半徑”??!