分享

芬蘭國民AI--6.1 About predicting the future

 
關於預測未來這件事,我們又沒有水晶球,怎麼能知道這個世界未來會變成什麼樣、AI會如何改變我們的生活。科學家通常會被要求提供預測,但他們的預測又常因為太無聊、太學術而被拒絕。但事實上,科學家表示那些敢說自己知道AI未來的人才應該被懷疑(而不是懷疑科學家的無聊預測)。
現實上,預測是一個被扭曲的領域。並非每個人都如同他們的預測者那樣保守,在這個頭條要下得驚悚才能賣錢、你必須把新聞碎分成280個characters(人物?)的世界裡,保守(無聊?)的訊息不見了,取而代之的是簡單、戲劇化的訊息被放大。從AI的公共觀點來看,上述已成事實。
當有些預測至少已經可被證實是正確時,其他預測可能也會是有用的,不過當預測的困難過程被展示出來時,有些看似不那麼合理。接下來要做的就是訓練我們看到這些展示時,可以做出有批判性的評估。
From utopian visions to grim predictions
媒體被極端的人或事件所操弄。當我們開始看AI領域的名人,他們提出絕妙的主意並且使之成為奇蹟,就像是關於未來的預測成真了。媒體愛清楚的訊息,有些人甚至承諾世界一個烏托邦式、指數型成長、兆元產業無端拔地而起的未來,彷彿是真的AI可以解決所有我們無法解決的問題、甚至是人類都不需要為此做點什麼。以下幾個連結是正反討論的經典片段(第三個長達一小時...)
https://youtu.be/xPuAzc3Y_64
https://youtu.be/JYlKrHzknBE
https://www.youtube.com/watch?v=oYmKOgeoOz4
https://youtu.be/xs_HhZrCBdg
On hedgehogs and foxes
這是政治科學家 Philip E. Tetlock,在其著作Superforecasting: The Art and Science of Prediction一書中,將人分類為兩種類型:刺蝟與狐狸。有著一個驚天動地的大想法的人是刺蝟,有許多小想法的人是狐狸。Tetlock在1984和2003年分別做了實驗,想要研究幫助我們辨認哪一類人的預測是比較可能正確的,當她們都做較長期的預測,有一個顯著的發現是,狐狸類的人表現的比刺蝟類的人好。
插播好書推薦:別說是英文又字很多,Superforecasting: The Art and Science of Prediction有中文版,我之前看過,因為預測佔我當時工作內容很大一部分,我曾經很興奮地跟同事推薦。
https://www.books.com.tw/products/0010726024
也許這就說明了媒體上的訊息通常是聽起來很大、很簡單的刺蝟類訊息。建議應對這種情況的方法就是盡量在蒐集資訊的時候要平衡來源,而且特別要去懷疑那些認為一個論點或論述可以一直用來解釋每件事的人。
對過去和目前的AI,預測未來仍是困難的。我們只能藉著多了解,希望對未來可以準備的更好,不關未來會變成什麼樣子。
AI寒冬
在AI領域的歷史上,也其他科學領域,有過高高低低的發展趨勢。通常,AI這個paradigm,是等到能被大部分的研究團體與樂觀預測家採用時,才變成通用的講法。舉例來說,1960年代,neural networks被廣泛地相信,藉著模仿大自然中的學習機器--特別是指人類大腦,能夠解決所有的AI問題。下一件大事就是精進這個系統,但其實將這個系統架構在邏輯與編碼規則上,則又是1980年代的主流paradigm。
*paradigm詞源於希臘文paradeigma,有模式(pattern)、模型(model)或計畫(plan)的意義。
炒作的循環
每一波的浪潮在一開始,都有些初期的成功故事,使得人們變得樂觀看待。這些成功故事,即使被限用在某些領域且不算完整,還是會成為公眾注意的焦點。許多研究者急切地進入AI、或宣稱他們的研究為AI領域中的一部分,目的是為了能夠增加研究經費。企業也會擴大他們在AI上的努力,以免錯失。
迄今,每次有一個解決AI問題的通用解發出現,進展會推進到又出現無法解決的地方,可能又是日後只被視為一個小困難,但當下就是難以逾越。1960年代的neural networks,困難發生在處理非線性、以及machine learning問題中參數數量增加的問題。在1980年代中的專家系統,又卡在不確定性與常識。這些問題的真實本質,都要經過許多掙扎、令人不太滿意的結果、關於paradigm的悲觀想法,寒冬隨之而來,對這個領域的興趣與努力被引導至別處。
Modern AI
第一個Modern AI的特徵,是從千禧年,AI已經重起。目前的現代方法專注於解決較小、獨立、妥善定義的問題,這些問題一次解決一個,AI跳過與智能、意識與認知等問題,去替現實世界中的問題找出較可行的解法。
第二特徵是Modern AI能夠較好地與複雜、混亂的真實世界相連,那是一種藉著機率來呈現不確定性的能力。最後,AI目前被neural networks與deep learning技術帶向上發展的趨勢,已可以處理圖片和資料,成效前所未見。
預測一:AI將持續在我們身邊。
開始了解AI時,我們透過經典的例子來體會AI很可能無所不在--自駕車、推薦系統、處理圖片和影片。在這個課程中,我們已經討論了許多應用,都會在未來的技術進步中不斷發展。
預測二:「終結者」不會來。
有一個與AI相關、無處不在的想法是「終結者」。那是在1984年電影「Terminator 」中,一個殘忍、用金屬做成人形的機器人,在電影中,一個叫做 Skynet的全球防衛系統意識到進階殺人機器人的存在。
兩個末日情境
第一個末日是當機器人興起,是的有個討厭人類的AI系統,像電影「終結者」。第二個末日是機器人軍隊被一個不是邪惡、只是想做人口管控的AI系統控制,這個系統的目標可能只是要最佳化某樣物品的生產,例如迴紋針。當這個系統超級聰明,很快地就會利用現有能源與材料達到最大產出,在此之後,就會得到需要更多資源才能擴大生產的結論,這樣就得禁止資源使用在其他用途上。最簡單的方法就是殺光所有人類,然後人類就不會用任何資源,AI系統就能把所有資源都用在迴紋針生產上。
為什麼這樣的情境不合理?
第一個理由是,竟然會有一個超級聰明至比人類聰明的AI系統,這個想法是發展AI過程中意外的結果--一個天真的想法。從我們之前學習過的章節,發展AI方法的過程中所以給入許多可以被電腦理解的原則、指令、資料,這些都需要人去提供。我們之前提到的篩選、回歸、the AlphaGo game engine, 或deep neural network要變成超級聰明的AI系統,還需要非常多的想像力。這裡並不是要說超級聰明的AI系統絕對不可能,但是你還是需要去想想這個系統的可能性。超級聰明的AI不會在狹義AI方法中誕生、還得解決真實世界中的問題。
(recall the narrow vs general AI from the section on the philosophy of AI in Chapter 1)
第二個理由是,有一個關於超級人工智慧的想法稱為「奇點」( singularity),它是指一個系統能夠最佳化並且自己重新連線,這樣它就能以指數成長的速度改善自己的智慧。想這樣的超級智能狠狠把人類甩在後面,人類就像螞蟻一樣被輾爆。關於指數型成長的智能這個想法,即使一個系統已經可以最佳化它的工作,這個想法還是不切實際,因為未來仍將持續面臨更多更困難的問題,就會使進步變慢,就像人類科學家的進度,需要更多努力和資源去配合,是整個科學家群體和整個社會都投入,這會使得其他群體無法得到進步所需的一切。人類社會現在還有能力決定把哪種科技用在哪裡,AI便是其中的一種。我們也是被科技賦予這種能力,所以每次我們在AI上有進步時,我們的能力就會變得更強大、更能去控制因此而生的潛在風險。
「價值對齊問題」(value alignment problem),
例子就是前面講那個為了製造最多迴紋針而必須滅絕人類。也就是說,即使可以把AI系統的目標設定的非常明確且可達成,也還必須讓它跟隨我們的價持觀,這是非常困難地。然而,假設我們可以創造出可以打敗所有妨礙它人類的超級智能,仍然需要一些合理的設定像是「我們並沒有要你把整個地球都變成迴紋針」。
區分故事與真實
「終結者」是一個可以拿來拍電影的好故事,但它幾乎不可能是一個需要恐慌的問題。「終結者」是一種手法、一個可以增加點擊率的形象、或是一種可以轉移注意力的武器,現實上,核武、不民主、環境浩劫和氣候變遷,但是更真實但比較無聊的威脅。事實上,「終結者」的真實威脅是把人類的注意力帶離那些確切的問題,其中有些與AI有關,但多數無關。接下來會討論AI所帶來的問題,與「終結者」無關。
分類:學習

評論
上一篇
  • 下一篇
  • 更多文章
    載入中... 沒有更多了