跳至內容

MNIST資料庫

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書
MNIST sample images
來自MNIST測試資料庫的範例圖像

MNIST資料庫(源自「National Institute of Standards and Technology database」[1] )是一個通常用於訓練各種數碼圖像處理系統的大型資料庫[2][3]。該資料庫通過對來自NIST原始資料庫的樣本進行修改創建,涵蓋手寫數碼的圖像,共包含60,000張訓練圖像和10,000張測試圖像,尺寸為28×28像素。該資料庫廣泛運用於機器學習領域的訓練與測試當中[4][5]。MNIST在其發佈時使用支持向量機的錯誤率為0.8%,但一些研究後來通過使用深度學習技術顯著改進了這一成績。

歷史

MNIST資料庫通過「重混」(re-mixing)的來自NIST原始資料庫的樣本創建[6]。創建者認為,由於NIST的訓練數據來自美國人口普查局的員工,而測試數據取自美國高中學生,這樣的數據集不適合用來進行研究[7]。此外,NIST的黑白圖像被歸一化英語Normalization (image processing)處理,以適應28×28像素的邊界框,並進行了抗鋸齒英語Spatial anti-aliasing處理,從而引入了灰度級別[7]

MNIST數據庫包含有60,000張訓練圖像與10,000張測試圖像[8]。訓練集的一半和測試集的一半來自NIST的訓練數據集,而訓練集的另一半和測試集的另一半則來自NIST的測試數據集[9]。資料庫的原始建立者保留了一些在其上測試的演算法方法的列表[7]。在他們的原始論文中,他們使用支持向量機獲得了0.8%的錯誤率[10]。然而,原始的MNIST資料庫含有至少4個錯誤標籤[11]

擴充MNIST(EMNIST)是由NIST開發和發佈的一個更新的數據集,作為MNIST的(最終)繼任者[12][13]。MNIST僅包含手寫數碼的圖像,而EMNIST包括NIST特別資料庫19中的所有圖像,該資料庫包含大量的手寫大寫和小寫字母以及數碼的圖像[14][15]

表現

一些研究通過使用類神經網絡在MNIST資料庫中取得了「接近人類的表現」[16]。原始資料庫官方網站上列出的最高錯誤率為12%,這是使用簡單線性分類器且沒有預處理時的成績[10][7]

在2004年,研究人員使用一種名為「LIRA」的基於羅森布拉特感知器原理的三層神經分類器,在資料庫上實現了0.42%的最佳錯誤率[17]

一些研究者使用隨機失真的MNIST資料庫對人工智能系統進行測試。這些系統通常是類神經網絡系統,所使用的失真方式可能是仿射失真彈性失真英語Elastic deformation[7]。在某些情況下,這些系統可以非常成功;其中一個系統在資料庫上實現了0.39%的錯誤率[18]

2011年,研究人員報告使用類似的神經網絡系統,實現了0.27%的錯誤率,提升了之前的最佳成績[19]。2013年,一種基於DropConnect正則化神經網絡的方法聲稱實現了0.21%的錯誤率[20]。2016年,單個卷積神經網絡在MNIST上的最佳效能為0.25%的錯誤率[21]。截至2018年8月,使用MNIST訓練數據、沒有數據增強的單個卷積神經網絡的最佳效能為0.25%的錯誤率[21][22]。此外,烏克蘭赫梅爾尼茨基的平行計算中心(Parallel Computing Center)使用了僅5個卷積神經網絡的整合,在MNIST資料庫上表現為0.21%的錯誤率[23][24]

參見

參考來源

  1. ^ THE MNIST DATABASE of handwritten digits. Yann LeCun, Courant Institute, NYU Corinna Cortes, Google Labs, New York Christopher J.C. Burges, Microsoft Research, Redmond. 
  2. ^ Support vector machines speed pattern recognition - Vision Systems Design. Vision Systems Design. [2013-08-17]. 
  3. ^ Gangaputra, Sachin. Handwritten digit database. [2013-08-17]. 
  4. ^ Qiao, Yu. THE MNIST DATABASE of handwritten digits. 2007 [2013-08-18]. (原始內容存檔於2018年2月11號). 
  5. ^ Platt, John C. Using analytic QP and sparseness to speed training of support vector machines (PDF). Advances in Neural Information Processing Systems. 1999: 557–563 [2013-08-18]. (原始內容 (PDF)存檔於2016-03-04). 
  6. ^ Grother, Patrick J. NIST Special Database 19 - Handprinted Forms and Characters Database (PDF). National Institute of Standards and Technology. 
  7. ^ 7.0 7.1 7.2 7.3 7.4 LeCun, Yann; Cortez, Corinna; Burges, Christopher C.J. The MNIST Handwritten Digit Database. Yann LeCun's Website yann.lecun.com. [2020-04-30]. 
  8. ^ Kussul, Ernst; Baidyk, Tatiana. Improved method of handwritten digit recognition tested on MNIST database. Image and Vision Computing. 2004, 22 (12): 971–981. doi:10.1016/j.imavis.2004.03.008. 
  9. ^ Zhang, Bin; Srihari, Sargur N. Fast k-Nearest Neighbor Classification Using Cluster-Based Trees (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 2004, 26 (4): 525–528 [2020-04-20]. PMID 15382657. doi:10.1109/TPAMI.2004.1265868. (原始內容 (PDF)存檔於2021年7月25號). 
  10. ^ 10.0 10.1 LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner. Gradient-Based Learning Applied to Document Recognition (PDF). Proceedings of the IEEE. 1998, 86 (11): 2278–2324 [2013-08-18]. doi:10.1109/5.726791. 
  11. ^ Muller, Nicolas M.; Markert, Karla. Identifying Mislabeled Instances in Classification Datasets. 2019 International Joint Conference on Neural Networks (IJCNN). IEEE: 1–8. July 2019. ISBN 978-1-7281-1985-4. arXiv:1912.05283可免費查閱. doi:10.1109/IJCNN.2019.8851920. 
  12. ^ NIST. The EMNIST Dataset. NIST. 2017-04-04 [2022-04-11]. 
  13. ^ NIST. NIST Special Database 19. NIST. 2010-08-27 [2022-04-11]. 
  14. ^ Cohen, G.; Afshar, S.; Tapson, J.; van Schaik, A. EMNIST: an extension of MNIST to handwritten letters.. 2017. arXiv:1702.05373可免費查閱 [cs.CV]. 
  15. ^ Cohen, G.; Afshar, S.; Tapson, J.; van Schaik, A. EMNIST: an extension of MNIST to handwritten letters.. 2017. arXiv:1702.05373v1可免費查閱 [cs.CV]. 
  16. ^ Cires¸an, Dan; Ueli Meier; Jürgen Schmidhuber. Multi-column deep neural networks for image classification (PDF). 2012 IEEE Conference on Computer Vision and Pattern Recognition. 2012: 3642–3649. CiteSeerX 10.1.1.300.3283可免費查閱. ISBN 978-1-4673-1228-8. S2CID 2161592. arXiv:1202.2745可免費查閱. doi:10.1109/CVPR.2012.6248110. 
  17. ^ Kussul, Ernst; Tatiana Baidyk. Improved method of handwritten digit recognition tested on MNIST database (PDF). Image and Vision Computing. 2004, 22 (12): 971–981 [2013-09-20]. doi:10.1016/j.imavis.2004.03.008. (原始內容 (PDF)存檔於2013-09-21). 
  18. ^ Ranzato, Marc'Aurelio; Christopher Poultney; Sumit Chopra; Yann LeCun. Efficient Learning of Sparse Representations with an Energy-Based Model (PDF). Advances in Neural Information Processing Systems. 2006, 19: 1137–1144 [2013-09-20]. 
  19. ^ Ciresan, Dan Claudiu; Ueli Meier; Luca Maria Gambardella; Jürgen Schmidhuber. Convolutional neural network committees for handwritten character classification (PDF). 2011 International Conference on Document Analysis and Recognition (ICDAR). 2011: 1135–1139 [2013-09-20]. CiteSeerX 10.1.1.465.2138可免費查閱. ISBN 978-1-4577-1350-7. S2CID 10122297. doi:10.1109/ICDAR.2011.229. (原始內容 (PDF)存檔於2016-02-22). 
  20. ^ Wan, Li; Matthew Zeiler; Sixin Zhang; Yann LeCun; Rob Fergus. Regularization of Neural Network using DropConnect. International Conference on Machine Learning(ICML). 2013. 
  21. ^ 21.0 21.1 SimpleNet. Lets Keep it simple, Using simple architectures to outperform deeper and more complex architectures. 2016 [2020-12-03]. arXiv:1608.06037可免費查閱. 
  22. ^ SimpNet. Towards Principled Design of Deep Convolutional Networks: Introducing SimpNet. Github. 2018 [2020-12-03]. arXiv:1802.06205可免費查閱. 
  23. ^ Romanuke, Vadim. Parallel Computing Center (Khmelnytskyi, Ukraine) represents an ensemble of 5 convolutional neural networks which performs on MNIST at 0.21 percent error rate.. [2016-11-24]. 
  24. ^ Romanuke, Vadim. Training data expansion and boosting of convolutional neural networks for reducing the MNIST dataset error rate. Research Bulletin of NTUU "Kyiv Polytechnic Institute". 2016, 6 (6): 29–34. doi:10.20535/1810-0546.2016.6.84115可免費查閱. 

延伸閱讀

外部連結