無監督的12個最重要的學習算法介紹及用例總結
無監督學習(無監督學習)是和監督學習的另一種數據監督機器的方法,無監督學習是沒有的明顯學習數據本身。

無學習監督算法有幾種類型,以下是其中最重要的12種:
1、智能識別由相似性將點組成的簇
k-means是一種流行的算法,數據劃分為k組。
2、降維算法降低了數據的維數,使可視化和處理更容易
主成分分析(PCA)是一種降維算法,將數據投影到低維空間,PCA可以使用將數據降維到其最重要的特征。
3.異常檢測算法點識別異常值或異常數據
對向支持機可以用于異常檢測(示例)算法[26]。需要方法標注數據集,而無需監督。
基于[20]個無異常數據監控空間中密集區域的點。
一個簡單的方法是計算出每個點到最近的鄰居的平均距離。發現點非常可能是異常點。
還有很多基礎的異常檢測算法,包括離群因子(Local Outlier Factor)和支持相關的數據描述(支持向量域描述)。這些算法可以比簡單的近鄰檢測方法更復雜,通常更復雜例如到的可能出現的某些異常程度[21]。大多數檢測算法都需要對參數進行異常調整,指定一個過高的參數來對異常進行調整。如果參數過低,算法會漏掉異常。算法可能會產生錯誤報告(將正常點識別為異常點)。
4、分割算法將]數據段或組[12
分割算法可以將圖像分割為背景。
這些算法可以在不需要人工監督的情況下將數據集劃分成k-組的距離。這個領域中比較知名的一個算法是手段。 k組。
一種魯棒的分割算法算法中心是通過另外一種方式,可以通過不同的方式將數據點移向鄰近區域的平均偏移量,實現異常值的處理。在大型數據集上運行它計算可能的價格但是。
高混合模式(GMM)可以用于最近的模型類型。以前的gmm模型需要計算來訓練它們,但它們的研究進展正在進行中。gmm非常靈活,可以用于數據模型。但有時可以用于任何類型的數據。并且不能總是產生最好的結果。對于數據集,k-means 是一個很好的選擇,而 gmm 則更適合于復雜的數據集。均值偏移可以用于一種簡單的情況,但在任何大型的情況下數據集上計算的價格會漲。
5、去噪聲濾波器或刪除數據中的噪聲
小波變換可以使用圖像無發射數據。但包含可能產生的數據損壞、價值和異常值。去電視通過[10]中的噪聲量來提高各種監督學習模型的大小。 。
現有的成分分析有多種成分,包括主分析(PCA)、成分分析(ICA)和非負成分(矩陣)[11]。
6、預測網絡節點之間的未來連接預測(例如,預測每個節點之間的未來網絡鏈接)
預測可用于預測哪些人將成為社交網絡中的朋友。更常用的鏈接預測算法之一是優先連接算法[15],如果預測兩個節點有多個現有連接,則它們更有可能被連接。
[1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [1] [16] [1] [1] [1] 可能“另一種結構”概念,因此在生物網絡中經常使用。
步行者重啟算法是一種線性預測算法,它模擬網絡上的一個啟動點最后移動的人,在不斷節點[17]中,步行者到達特定節點的隨機排列者。兩個節點之間存在連接。
7、強化學習算法通過反復試驗來進行學習
Q-learning是基于值的學習算法[1]的一個它實現簡單且通用。但是Q-learning有時會收斂到次優解[18]。另一個例子是TD learning,它在計算上Q-學習學習要求更高,但通常可以找到更好的解決方案[19]。
8、生成模型:算法使用訓練數據生成新的數據
自編碼數據集生成獨特的圖像,可用于從這些數據集生成的圖像。在機器學習中,生成模型屬性是一個捕捉器的數據集的統計模型。所用的訓練的數據一樣。
生成模型任務各種,模型學習,數據壓縮和像無像一樣使用[很像 22]。生成模型有多種,隱含和可監督的模型機[22]。優缺點,并且適用于不同的任務。
隱馬爾可夫擅長模型對順序建模,而爾茲曼更擅長對高維數據[22]建模。通過在無標記數據上它們,生成可以用于無監督學習。然后模型訓練,就可以使用這些過程生成新的數據。然后生成的數據可以由人類或其他機器學習算法進行標記。這個可以重復,直到生成模型生成數據,就像想要的輸出。
9、隨時森林是一種機器學習算法,可用于監督和無監督學習[9]
對于無監督學習,隨時可以找到類似的學習森林,識別異常值,并壓縮數據[9]。
和無監督任務經常被證明已被證明使用類似流行的機器學習(如機器)[9]。它們也剛剛過地推廣到這意味著它們可以很好的數據。
10、CAN是一種基于數據庫的學習算法,可用于無密監督
它基于,也就是每個點的數量很接近。并且具有一些優勢,它可以找到不同大小的簇,集供不同和用戶預先指定的數量。[23] [28]。沒有類似的數據。例如,它可能會在另外一個數據集上增加一個很好的數據集。 ]。
11、用于優先選擇關聯、A項4項和順序模式
四月算法也是第一個關聯規則算法,使用最經典的算法規則。
Apriori算法有很多種方式,可以根據不同的需求進行定制。例如,可以控制支持度和置信度閾值以找到不同的規則[24]。
22、Eclat 2019 2019 2019 2019-08-20 2019-08-20 2019-08-08 2019-08-08 2019-08-08 11:24:00 來源: 2019-06-08 11:13:01
Eclat算法是一種深度優先算法,縱向數據表示,在格理論的基礎上采用基于概念的等價關系搜索空間格)為概念的子空間格(子概念格)。
以上就是無學習中的算法,如果你對他們感興趣,請詳細查看下面的引用(長,建議查看監督的)
Q-Learning簡介:強化學習: https ://www.freecodecamp.org/news/an-introduction-to-q-learning-reinforcement-learning-14ac0b4493cc/
2. Q-learning視頻演練: https ://www.youtube.com/watch?v=4dcgjcuR-1o
3. 無監督學習:使用 DBSCAN 進行聚類: https ://web.cs.dal.ca/~kallada/stat2450/lectures/Lecture15.pdf
4.機器學習中的DBSCAN聚類算法: https ://www.kdnuggets.com/2020/04/dbscan-clustering-algorithm-machine-learning.html
5. 深度生成模型中全局因素的無監督學習。arXiv:2012.08234
6. Harshvardhan GM、Mahendra Kumar Gourisaria、Manjusha Pandey、Siddharth Swarup Rautaray,機器學習中生成模型的全面調查和分析,計算機科學評論,第 38 卷,2020 年,100285,ISSN 1574–0137, https://doi。 org/10.1016/j.cosrev.2020.100285 。
7. 提升: https ://aws.amazon.com/what-is/boosting/
8. 裝袋: https ://www.ibm.com/cloud/learn/bagging
9. Breiman, L. (2001)。隨機森林。機器學習,45(1),5-32。
10. Hastie, T.、Tibshirani, R. 和弗里德曼, J. (2009)。統計學習的要素:數據挖掘、推理和預測(第 2 版)。施普林格科學與商業媒體。
11. 主教,CM(2006 年)。模式識別和機器學習。施普林格。
12. 功能材料斷層圖像數據分割的機器學習技術。https://www.frontiersin.org/articles/10.3389/fmats.2019.00145/full
13. 復雜網絡中的鏈接預測:調查。https://arxiv.org/pdf/1010.0725.pdf
14.鏈接預測。https://neo4j.com/developer/graph-data-science/link-prediction/
15. 在線網絡中的偏好依戀:測量和解釋。https://arxiv.org/pdf/1303.6271.pdf
16.一種新的相似性度量,用于挖掘長路徑網絡中的缺失鏈接。https://arxiv.org/pdf/2110.05008.pdf
17. 帶重啟的快速隨機游走及其應用。https://www.cs.cmu.edu/~christos/PUBLICATIONS/icdm06-rwr.pdf
18. Q-Learning:教程和擴展。https://link.springer.com/chapter/10.1007/978-1-4615-6099-9_3
19. 時間差分學習: https ://web.stanford.edu/group/pdplab/pdphandbook/handbookch10.html
20. 異常檢測的機器學習技術:概述。https://www.researchgate.net/profile/Salima-Benqdara/publication/325049804_Machine_Learning_Techniques_for_Anomaly_Detection_An_Overview/links/5af3569b4585157136c919d8/Machine-Learning-Techniques-for-Anomaly-Detection-An-Overview.pdf
21. 網絡異常檢測的機器學習方法。https://www.usenix.org/legacy/event/sysml07/tech/full_papers/ahmed/ahmed.pdf?ref=driverlayer.com/web
22.墨菲,KP(2012 年)。機器學習:概率視角(第 1 版)。麻省理工學院出版社。
23. 一種基于密度的算法,用于在大空間中發現集群……。https://www.osti.gov/biblio/421283 。
24. Rakesh、Agrawal 和 Ramakrishnan Srikant。“礦業協會規則的快速算法”。https://www.researchgate.net/publication/2460430_Fast_Algorithms_for_Mining_Association_Rules
25.帕克,伊克巴爾。機器學習:算法、實際應用和研究方向。https://link.springer.com/article/10.1007/s42979-021-00592-x
26. 使用多代理系統進行異常檢測。https://users.encs.concordia.ca/~abdelw/papers/Khosravifar_MSc_S2018.pdf
27. 用于圖生成的深度生成模型的系統調查| 深度人工智能。https://deepai.org/publication/a-systematic-survey-on-deep-generation-models-for-graph-generation
28. Hierarchical K-Means Clustering:優化集群——Datanovia。https://www.datanovia.com/en/lessons/hierarchical-k-means-clustering-optimize-clusters/