分享

芬蘭國民AI-4.1The types of machine learning

手寫數字是最常拿來當作「機器學習」的例子,在MNIST中有28 * 28 像素的訓練圖片與測試圖片,更重要的是,當我們為手寫數字的圖片標示「正確」,即使有的很難辨認,但不可能有一張手寫數字圖片同時為2個數字,上標籤時沒有模擬兩可。 
*MNIST (Modified National Institute of Standards and Technology )是一個手寫數字的圖像資料集,我們將用於圖像辨識的範例之中。
1980年代的AI領域中,是用「專家系統」,嘗試為每個數字的黑色像素做定義,譬如有兩個圈圈的是8、多半是一條直線線是1,光是定義「圈圈」、「直線」、「多半」就很難精確,更不要說這種方法得出來的辨識結果還是不好。
「機器學習」是根源於統計學,可以想成是「從資料中萃取知識」,其中主要方法有線性回歸和貝氏統計,是早就存在於統計學兩個世紀的老東西,到今日成為機器學習的心臟。
「機器學習」會再往下區分為三個子領域如下,但這些方法或有重疊或模糊,並不是非黑即白,目前提到「機器學習」,監督學習(Supervised learning)是焦點,特別是分類的任務:
1.監督學習(Supervised learning)
譬如給一張照片,上面有交通號誌,任務是預測出交通號誌的意義,是速限或是停止,最簡單的例子中,結果可以是yes/no。概念上是人去訓練AI,人當老師,希望之後它們可以選出正確答案,更多用在生活上的例子是像我們點選Google廣告時,Google會根據我們的回應判斷我們的行為,再給我們更多廣告,又或者是依速限和路況預測車禍的數量,還有根據地點、大小、屋況預測房地產價格,以上這些都是「迴歸」(regression,其中熱門款就是linear regression)。
有些潛在錯誤需要注意,使用機器學習要非常小心,不然很可能對自己的正確率太有信心,當正確率不如預期時,玻璃心碎一地。首要的潛在錯誤會發生在把大筆資料分成訓練資料與測試資料的時候,我們會用訓練資料生成模型,這個模型只能確定很符合訓練資料,沒有證明(理論或數學)顯示可延伸適用於測試資料,所以測試資料排上用場的時機,是先拿去放在訓練資料生出的模型得到產出,但產出必須與實際發生的資料再做比較。
還要注意的是,從訓練資料和測試資料得出的正確率可能非常不同,此稱為「過適」(overfitting),很多研究都嘗試要避免「過適」。當我們嘗試去分辨一首新歌是否某個作曲家,要靠這個作曲家早期的作品,可能會生出一些規則像是「通常與愛有關、會有一段合唱」,這樣的話就會上熱門20的排行榜,然而,真實世界裡卻存在著更多歌,包和愛與合唱卻沒有進入熱門20,用過去資料來找,卻會在未來測試資料中表現很差,目前稍可解的方法是巨量資料。
因此,要避免過適,資料學家的技能就是選出一個模型,不能有限制太多又不能給太多彈性。
2.非監督學習(Unsupervised learning)
沒有給標籤也沒有告訴機器什麼是正確的,任務是去發現資料的結構,譬如相似的物件要歸到同一類(clusters),或是刪減資料去找出少數重要的面向(dimensions),資料視覺化往往就是用非監督學習的呈現。
非監督學習並不提供AI正確答案,是一個沒有人當老師的狀況,人也沒有先用訓練資料去告訴AI哪些是對的,但我們通常比較難判別成效好壞。
發生在生活中的例子是蒐集消費者採購行為的資料,更好地去理解消費者,商家試著把每個消費者當成資料點,去找出商品A的消費者同時也會買什麼其他東西BCD,再BCD推薦給買了A的消費者,在非監督學習之下,試著把消費者和消費者買的東西分成clusters,但無法自動給消費者貼上這個類別標籤,總不能常買魚的消費者我們就認定為「愛魚者」,貼標籤這個工作只能留給使用這些資料的人自己貼。(而且標籤一大堆相當於沒有標籤)
近年來非監督學習的熱門方法是生成模型(Generative Model),是一種深度學習的工具,這種工具也叫做generative adversarial networks (GANs)。舉例來說,給一些人臉的照片,就可以生出看起來像真的、但不是來自拍攝真人的照片,像是用一萬張照片合成出的AI台灣人「戴怡宛」。
(非監督學習還沒講完喔)
3.強化學習(Reinforcement learning)
常用於需要AI自己學會。常用例子是自駕車,需要利用環境給做出選擇,再依反饋調整之後的選擇。
(強化學習根本還沒開始講)
分類:學習

評論
上一篇
  • 下一篇
  • 更多文章
    載入中... 沒有更多了