亚洲精华国产精华精华液网站,你懂的,娇生惯养4ph归寻(矜以),丰年经继拇中文3与其他教材比较

技術(shù)頻道

娓娓工業(yè)
您現(xiàn)在的位置: 中國(guó)傳動(dòng)網(wǎng) > 技術(shù)頻道 > 技術(shù)百科 > 最流行的人工智能10大算法介紹

最流行的人工智能10大算法介紹

時(shí)間:2022-11-29 09:44:34來(lái)源:人工智能科學(xué)與技術(shù)

導(dǎo)語(yǔ):?事實(shí)上,人工智能已經(jīng)存在于我們生活中很久了。

  但對(duì)很多人來(lái)講,人工智能還是一個(gè)較為“高深”的技術(shù),然而再高深的技術(shù),也是從基礎(chǔ)原理開(kāi)始的。人工智能領(lǐng)域中就流傳著10大算法,它們的原理淺顯,很早就被發(fā)現(xiàn)、應(yīng)用,甚至你在中學(xué)時(shí)就學(xué)過(guò),在生活中也都極為常見(jiàn)。

  1

  線性回歸(Linear Regression)可能是最流行的機(jī)器學(xué)習(xí)算法。線性回歸就是要找一條直線,并且讓這條直線盡可能地?cái)M合散點(diǎn)圖中的數(shù)據(jù)點(diǎn)。它試圖通過(guò)將直線方程與該數(shù)據(jù)擬合來(lái)表示自變量(x 值)和數(shù)值結(jié)果(y 值)。然后就可以用這條線來(lái)預(yù)測(cè)未來(lái)的值! 這種算法最常用的技術(shù)是最小二乘法(Least of squares)。這個(gè)方法計(jì)算出最佳擬合線,以使得與直線上每個(gè)數(shù)據(jù)點(diǎn)的垂直距離最小。總距離是所有數(shù)據(jù)點(diǎn)的垂直距離(綠線)的平方和。其思想是通過(guò)最小化這個(gè)平方誤差或距離來(lái)擬合模型。

39ed16b6-47b7-11ed-a3b6-dac502259ad0.jpg

  例如,簡(jiǎn)單線性回歸,它有一個(gè)自變量(x 軸)和一個(gè)因變量(y 軸) 比如預(yù)測(cè)明年的房?jī)r(jià)漲幅、下一季度新產(chǎn)品的銷量等等。聽(tīng)起來(lái)并不難,不過(guò)線性回歸算法的難點(diǎn)并不在于得出預(yù)測(cè)值,而在于如何更精確。為了那個(gè)可能十分細(xì)微的數(shù)字,多少工程師為之耗盡了青春和頭發(fā)。

  2

  邏輯回歸(LogisTIc regression)與線性回歸類似,但邏輯回歸的結(jié)果只能有兩個(gè)的值。如果說(shuō)線性回歸是在預(yù)測(cè)一個(gè)開(kāi)放的數(shù)值,那邏輯回歸更像是做一道是或不是的判斷題。 邏輯函數(shù)中Y值的范圍從 0 到 1.是一個(gè)概率值。邏輯函數(shù)通常呈S 型,曲線把圖表分成兩塊區(qū)域,因此適合用于分類任務(wù)。

3a19415a-47b7-11ed-a3b6-dac502259ad0.jpg

  比如上面的邏輯回歸曲線圖,顯示了通過(guò)考試的概率與學(xué)習(xí)時(shí)間的關(guān)系,可以用來(lái)預(yù)測(cè)是否可以通過(guò)考試。 邏輯回歸經(jīng)常被電商或者外賣平臺(tái)用來(lái)預(yù)測(cè)用戶對(duì)品類的購(gòu)買偏好。

  3

  如果說(shuō)線性和邏輯回歸都是把任務(wù)在一個(gè)回合內(nèi)結(jié)束,那么決策樹(shù)(Decision Trees)就是一個(gè)多步走的動(dòng)作,它同樣用于回歸和分類任務(wù)中,不過(guò)場(chǎng)景通常更復(fù)雜且具體。 舉個(gè)簡(jiǎn)單例子,老師面對(duì)一個(gè)班級(jí)的學(xué)生,哪些是好學(xué)生?如果簡(jiǎn)單判斷考試90分就算好學(xué)生好像太粗暴了,不能唯分?jǐn)?shù)論。那面對(duì)成績(jī)不到90分的學(xué)生,我們可以從作業(yè)、出勤、提問(wèn)等幾個(gè)方面分開(kāi)討論。

3a428902-47b7-11ed-a3b6-dac502259ad0.jpg

  以上就是一個(gè)決策樹(shù)的圖例,其中每一個(gè)有分叉的圈稱為節(jié)點(diǎn)。在每個(gè)節(jié)點(diǎn)上,我們根據(jù)可用的特征詢問(wèn)有關(guān)數(shù)據(jù)的問(wèn)題。左右分支代表可能的答案。最終節(jié)點(diǎn)(即葉節(jié)點(diǎn))對(duì)應(yīng)于一個(gè)預(yù)測(cè)值。   每個(gè)特征的重要性是通過(guò)自頂向下方法確定的。節(jié)點(diǎn)越高,其屬性就越重要。比如在上面例子中的老師就認(rèn)為出勤率比做作業(yè)重要,所以出勤率的節(jié)點(diǎn)就更高,當(dāng)然分?jǐn)?shù)的節(jié)點(diǎn)更高。

  4

  樸素貝葉斯(Naive Bayes)是基于貝葉斯定理,即兩個(gè)條件關(guān)系之間。它測(cè)量每個(gè)類的概率,每個(gè)類的條件概率給出 x 的值。這個(gè)算法用于分類問(wèn)題,得到一個(gè)二進(jìn)制“是 / 非”的結(jié)果。看看下面的方程式。

3a84f97c-47b7-11ed-a3b6-dac502259ad0.png

  樸素貝葉斯分類器是一種流行的統(tǒng)計(jì)技術(shù),經(jīng)典應(yīng)用是過(guò)濾垃圾郵件。 當(dāng)然,學(xué)堂君賭一頓火鍋,80%的人沒(méi)看懂上面這段話。(80%這個(gè)數(shù)字是學(xué)堂君猜的,但經(jīng)驗(yàn)直覺(jué)就是一種貝葉斯式的計(jì)算。) 用非術(shù)語(yǔ)解釋貝葉斯定理,就是通過(guò)A條件下發(fā)生B的概率,去得出B條件下發(fā)生A的概率。比如說(shuō),小貓喜歡你,有a%可能性在你面前翻肚皮,請(qǐng)問(wèn)小貓?jiān)谀忝媲胺瞧ぃ卸嗌俑怕氏矚g你? 當(dāng)然,這樣做題,等于抓瞎,所以我們還需要引入其他數(shù)據(jù),比如小貓喜歡你,有b%可能和你貼貼,有c%概率發(fā)出呼嚕聲。所以我們?nèi)绾沃佬∝堄卸啻蟾怕氏矚g自己呢,通過(guò)貝葉斯定理就可以從翻肚皮,貼貼和呼嚕的概率中計(jì)算出來(lái)。

  5

  支持向量機(jī)(Support Vector Machine,SVM)是一種用于分類問(wèn)題的監(jiān)督算法。支持向量機(jī)試圖在數(shù)據(jù)點(diǎn)之間繪制兩條線,它們之間的邊距最大。為此,我們將數(shù)據(jù)項(xiàng)繪制為 n 維空間中的點(diǎn),其中,n 是輸入特征的數(shù)量。在此基礎(chǔ)上,支持向量機(jī)找到一個(gè)最優(yōu)邊界,稱為超平面(Hyperplane),它通過(guò)類標(biāo)簽將可能的輸出進(jìn)行最佳分離。 超平面與最近的類點(diǎn)之間的距離稱為邊距。最優(yōu)超平面具有最大的邊界,可以對(duì)點(diǎn)進(jìn)行分類,從而使最近的數(shù)據(jù)點(diǎn)與這兩個(gè)類之間的距離最大化。

3aa4abaa-47b7-11ed-a3b6-dac502259ad0.jpg

  所以支持向量機(jī)想要解決的問(wèn)題也就是如何把一堆數(shù)據(jù)做出區(qū)隔,它的主要應(yīng)用場(chǎng)景有字符識(shí)別、面部識(shí)別、文本分類等各種識(shí)別。

  6

  K- 最近鄰算法(K-Nearest Neighbors,KNN)非常簡(jiǎn)單。KNN 通過(guò)在整個(gè)訓(xùn)練集中搜索 K 個(gè)最相似的實(shí)例,即 K 個(gè)鄰居,并為所有這些 K 個(gè)實(shí)例分配一個(gè)公共輸出變量,來(lái)對(duì)對(duì)象進(jìn)行分類。   K 的選擇很關(guān)鍵:較小的值可能會(huì)得到大量的噪聲和不準(zhǔn)確的結(jié)果,而較大的值是不可行的。它最常用于分類,但也適用于回歸問(wèn)題。   用于評(píng)估實(shí)例之間相似性的距離可以是歐幾里得距離(Euclidean distance)、曼哈頓距離(Manhattan distance)或明氏距離(Minkowski distance)。歐幾里得距離是兩點(diǎn)之間的普通直線距離。它實(shí)際上是點(diǎn)坐標(biāo)之差平方和的平方根。

3ad20e88-47b7-11ed-a3b6-dac502259ad0.jpg

  KNN分類示例   KNN理論簡(jiǎn)單,容易實(shí)現(xiàn),可用于文本分類、模式識(shí)別、聚類分析等。

  7

  K- 均值(K-means)是通過(guò)對(duì)數(shù)據(jù)集進(jìn)行分類來(lái)聚類的。例如,這個(gè)算法可用于根據(jù)購(gòu)買歷史將用戶分組。它在數(shù)據(jù)集中找到 K 個(gè)聚類。K- 均值用于無(wú)監(jiān)督學(xué)習(xí),因此,我們只需使用訓(xùn)練數(shù)據(jù) X,以及我們想要識(shí)別的聚類數(shù)量 K。   該算法根據(jù)每個(gè)數(shù)據(jù)點(diǎn)的特征,將每個(gè)數(shù)據(jù)點(diǎn)迭代地分配給 K 個(gè)組中的一個(gè)組。它為每個(gè) K- 聚類(稱為質(zhì)心)選擇 K 個(gè)點(diǎn)。基于相似度,將新的數(shù)據(jù)點(diǎn)添加到具有最近質(zhì)心的聚類中。這個(gè)過(guò)程一直持續(xù)到質(zhì)心停止變化為止。

3afb928a-47b7-11ed-a3b6-dac502259ad0.jpg

  生活中,K- 均值在欺詐檢測(cè)中扮演了重要角色,在汽車、醫(yī)療保險(xiǎn)和保險(xiǎn)欺詐檢測(cè)領(lǐng)域中廣泛應(yīng)用。

  8

  隨機(jī)森林(Random Forest)是一種非常流行的集成機(jī)器學(xué)習(xí)算法。這個(gè)算法的基本思想是,許多人的意見(jiàn)要比個(gè)人的意見(jiàn)更準(zhǔn)確。在隨機(jī)森林中,我們使用決策樹(shù)集成(參見(jiàn)決策樹(shù))。

3b2b84f4-47b7-11ed-a3b6-dac502259ad0.jpg

  (a)在訓(xùn)練過(guò)程中,每個(gè)決策樹(shù)都是基于訓(xùn)練集的引導(dǎo)樣本來(lái)構(gòu)建的。   (b)在分類過(guò)程中,輸入實(shí)例的決定是根據(jù)多數(shù)投票做出的。   隨機(jī)森林擁有廣泛的應(yīng)用前景,從市場(chǎng)營(yíng)銷到醫(yī)療保健保險(xiǎn),既可以用來(lái)做市場(chǎng)營(yíng)銷模擬的建模,統(tǒng)計(jì)客戶來(lái)源、保留及流失,也可以用來(lái)預(yù)測(cè)疾病的風(fēng)險(xiǎn)和病患者的易感性。

  9

  由于我們今天能夠捕獲的數(shù)據(jù)量之大,機(jī)器學(xué)習(xí)問(wèn)題變得更加復(fù)雜。這就意味著訓(xùn)練極其緩慢,而且很難找到一個(gè)好的解決方案。這一問(wèn)題,通常被稱為“維數(shù)災(zāi)難”(Curse of dimensionality)。   降維(Dimensionality reducTIon)試圖在不丟失最重要信息的情況下,通過(guò)將特定的特征組合成更高層次的特征來(lái)解決這個(gè)問(wèn)題。主成分分析(Principal Component Analysis,PCA)是最流行的降維技術(shù)。   主成分分析通過(guò)將數(shù)據(jù)集壓縮到低維線或超平面 / 子空間來(lái)降低數(shù)據(jù)集的維數(shù)。這盡可能地保留了原始數(shù)據(jù)的顯著特征。

3b5bb9b2-47b7-11ed-a3b6-dac502259ad0.jpg

  可以通過(guò)將所有數(shù)據(jù)點(diǎn)近似到一條直線來(lái)實(shí)現(xiàn)降維的示例。

  10

  人工神經(jīng)網(wǎng)絡(luò)(ArTIficial Neural Networks,ANN)可以處理大型復(fù)雜的機(jī)器學(xué)習(xí)任務(wù)。神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一組帶有權(quán)值的邊和節(jié)點(diǎn)組成的相互連接的層,稱為神經(jīng)元。在輸入層和輸出層之間,我們可以插入多個(gè)隱藏層。人工神經(jīng)網(wǎng)絡(luò)使用了兩個(gè)隱藏層。除此之外,還需要處理深度學(xué)習(xí)。   人工神經(jīng)網(wǎng)絡(luò)的工作原理與大腦的結(jié)構(gòu)類似。一組神經(jīng)元被賦予一個(gè)隨機(jī)權(quán)重,以確定神經(jīng)元如何處理輸入數(shù)據(jù)。通過(guò)對(duì)輸入數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)輸入和輸出之間的關(guān)系。在訓(xùn)練階段,系統(tǒng)可以訪問(wèn)正確的答案。   如果網(wǎng)絡(luò)不能準(zhǔn)確識(shí)別輸入,系統(tǒng)就會(huì)調(diào)整權(quán)重。經(jīng)過(guò)充分的訓(xùn)練后,它將始終如一地識(shí)別出正確的模式。

3b8f0cea-47b7-11ed-a3b6-dac502259ad0.jpg

  每個(gè)圓形節(jié)點(diǎn)表示一個(gè)人工神經(jīng)元,箭頭表示從一個(gè)人工神經(jīng)元的輸出到另一個(gè)人工神經(jīng)元的輸入的連接。   圖像識(shí)別,就是神經(jīng)網(wǎng)絡(luò)中的一個(gè)著名應(yīng)用。   現(xiàn)在,你已經(jīng)了解了最流行的人工智能算法的基礎(chǔ)介紹,并且,對(duì)它們的實(shí)際應(yīng)用也有了一定認(rèn)識(shí)。


標(biāo)簽: 人工智能

點(diǎn)贊

分享到:

上一篇:什么是機(jī)器視覺(jué),視覺(jué)系統(tǒng)組...

下一篇:怎么選擇優(yōu)質(zhì)安全性高的18650...

中國(guó)傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.siyutn.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

網(wǎng)站簡(jiǎn)介|會(huì)員服務(wù)|聯(lián)系方式|幫助信息|版權(quán)信息|網(wǎng)站地圖|友情鏈接|法律支持|意見(jiàn)反饋|sitemap

傳動(dòng)網(wǎng)-工業(yè)自動(dòng)化與智能制造的全媒體“互聯(lián)網(wǎng)+”創(chuàng)新服務(wù)平臺(tái)

網(wǎng)站客服服務(wù)咨詢采購(gòu)咨詢媒體合作

Chuandong.com Copyright ?2005 - 2025 ,All Rights Reserved 深圳市奧美大唐廣告有限公司 版權(quán)所有
粵ICP備 14004826號(hào) | 營(yíng)業(yè)執(zhí)照證書 | 不良信息舉報(bào)中心 | 粵公網(wǎng)安備 44030402000946號(hào)

主站蜘蛛池模板: 迁西县| 贵南县| 南安市| 庆城县| 邢台县| 成安县| 汕头市| 南阳市| 大石桥市| 小金县| 安庆市| 府谷县| 宁国市| 科技| 扎兰屯市| 全南县| 张家港市| 全州县| 监利县| 威信县| 建始县| 桂阳县| 阳谷县| 廊坊市| 金昌市| 平江县| 瑞安市| 徐闻县| 如皋市| 同德县| 稷山县| 鲁山县| 洪湖市| 固始县| 鹿邑县| 新闻| 大理市| 汉源县| 永顺县| 扬中市| 平山县|