分享

芬蘭國民AI--6.2 The societal implications of AI


迄今我們已經對AI有了較好的理解,讓我們可以較理性地討論下面的困難點與未來行動的啟示。
Implication 1: Algorithmic biasAI,特別包含machine learning,已經用再很多部門裏做決策。這會帶來Algorithmic bias,意思是,當這些決策與申請工作、貸款等,卻根據種族、性別或其他因素做演算時所產生的偏差。演算偏差的來源是資料內原本就包含人類對這些因素的偏差,例如在申請工作時,機器向人學習過濾履歷或候選人條件,學習的過程中也學到的人的偏差,例如對性別或總族的成見,而且這種歧視不僅會發生在性別和種族,也很有可能是在探究申請者的名字或地址後產生的。
Algorithmic bias並不是一個只存在於學術研究中的潛在威脅,它已是一個真實現象,並且現在正影響著許多人。已經可以注意到的是,Google就傾向把薪資較低的工作機會展示給女性,或是以一個非裔姓氏做搜尋,可能會找到一個可以查找犯罪紀錄的工具,這樣的情況就比較不會發生在不是非裔姓氏的搜尋裡。
又或者,社群網路會根據其他使用者的點擊做推薦,很容易放大原本就已存在的偏差,即使這個偏差一開始是非常小的。舉例來說,要找一些有女性姓名的專業人士,LinkedIn就會問一個相似的男性姓名是否也是你要找的,導致男性姓名的檔案較常被點擊,即使只是出於好其點進去看這個男性姓名下的檔案,也是系統促使這些後續動作的發生。
AI和machine learning使用上的主要困難點是,缺乏透明度,系統並不是根據某些已揭露的規定。部分是因為演算法和資料都是秘密,公司不會因為公眾監督就公開,即使公司願意配合公眾監督,要能分辨演算法或資料,哪個部分導致了有歧視的決定。
透明性是否能透過法規/規定呢?European General Data Protection Regulation (GDPR)針對透明性的主要方法是,要求所有的公司,(1) 根據要求,揭露他們關於個人的資料,要有接觸得到的權利,(2) 被要求刪去的紀錄就不能保留,要給人可忘卻的權利,(3) 提供解釋,人要有獲得解釋的權利。
關於「人要有獲得解釋的權利」這點,像是Facebook和Google這樣的大公司,至少要給歐洲者解釋,演算法是如何生出決策的過程,然而,解釋應該是什麼樣子,其實還不清楚。舉例來說,一個用 the nearest neighbor classifier做的決策,或用the coefficients of a logistic regression classifier做的決策,哪個方法比較好?用可以輕易解決百萬個參數的deep neural networks如何?這類技術密集的討論會很多,在各種情況下,透明性總是有改善的空間。
Implication 2: Seeing is believing — or is it?我們習慣眼見為憑,當我們在電視上看到一個國家領袖說我們會與另一國開始貿易戰,或是看到一個看起來知道很多事的公司發言人宣布某個重大決定,我們傾向相信,更甚於我們讀到由他人寫出的新聞。相同地,如果我們看到某個犯罪的照片或影片,比起用寫出來的報導, 我們會更相信這項照片或影片的證據。我們要對證據造假的可能性有覺察,現在的照片,可以把人放到一個他從未到過的地方、或是跟一個他從未遇過的人合影,只要用photoshop就可以了。減肥照片也可以藉由調整光線或拉起胃部的手法,去照出某個減肥計畫的前後落差照。
現在可以做到把一個人的臉放在另一個人的臉上,影片在Youtube上就看得到,或是自動生成一個人的聲音,雖然還是有點像機器人,但也已經表達的很好了。
Implication 3: Changing notions of privacy大家已經知道科技公司會收集使用者資料,以前雜貨店或零售商這麼做,是藉著發給客戶會員卡,使得廠商可以得到會員資料。現在,使用資料更有前所未有的準確性,Facebook、Google、Amazon 和其他許多公司,他們所收集到的採購資料遠超過傳統商店,電腦上每個點擊、每個頁面轉動、花在讀某段內容的時間和內容本身,都被記錄。網站也可以拿到你的瀏覽紀錄,除非你用了隱身模式( incognito mode ),不然你只要查了巴塞隆納的航班,你就很可能收到巴塞隆納的旅館廣告。
然而,想這樣的資料不只是AI出現才有。只是AI的使用帶來了對我們隱私的新威脅,使得每個人更難避免洩漏隱私,即使你已經很小心地不要洩漏個人身分。
有一個很好的例子可以用來說明很難避免洩漏隱私這個問題,這個例子要講的是「去匿名化」( de-anonymization)--破解匿名。原本我們還以為是匿名所以應該還算安全,基本問題是當我們被報告一個分析的結果,這結果可能很特定,使得個人使用者的個別資訊可以從裡面抽取出來。一個經典的例子就是給定出生年份和郵遞區號,可以得出平均薪資。另一個有趣的例子,是來自德州奧斯丁大學的研究者指出,在Netflix公開的資料中,Netflix有1000萬部電影、由50萬個匿名使用評分,許多Netflix的用戶,是從 the Internet Movie Database連回來的,用戶同時使用 the Internet Movie Database與Netflix,因此,Netflix有能力做到去匿名化。當你覺得知道你對最新的星際大戰電影評價沒什麼大不了時,還有其他電影的評價可能洩漏了你的人生觀,包含政治或性傾向,那些那本來認為應該是隱私的部分。
當然還有其他辨認的方法,一個相似的辦法是用任何能收集到使用者行為的細節資料的服務,去媒合使用者帳戶。另一個例子則是打字的模式。Helsinki大學的研究人員展示過以打字模式為基礎,讓使用者可以被辨認出來:例如利用人打字時,特定按鍵的時間間隔。或許你已在某個網站上註冊了全名,網站下次就可以辨認出你使用了他們的服務,即使你並沒有用自己的帳戶名登入。同時,這個資料也可以賣給任何想買的人。
當上述的許多例子都多少使人感到驚訝,也想要盡量避免,但研究還是持續發展。特別是有個領域叫做差分隱私(differential privacy),使用機器學習的演算法,可以保證結果是充分地被變得粗糙,去防止反向工程會利用那些資料點找到特定個人。
wiki差分隱私https://zh.wikipedia.org/wiki/%E5%B7%AE%E5%88%86%E9%9A%90%E7%A7%81
Implication 4: Changing work當遠古時代的人學著用尖銳的石頭去打開動物的骨頭,取得骨頭中的養分來增加自己的營養,學會使用工具後,時間和精力就被釋放出來,可以去打架、找伴侶、從事發明。蒸氣機的發明在西元1700年,那時是一個簡單型式的機械力量,可以很大地改善工廠的效率,也可以改善船和火車的效率。自動化總是一條效率的道路:用更少得到更多。特別是20世紀中,技術發展帶來了前所未有的自動化,AI能延續這樣的進步。
每一步更好的自動化,都會改變工作。當然人類會用尖銳的石頭,就能比較少去打獵就得到足夠的食物,有了蒸汽機,就可以需要較少的馬和騎馬的人,有了電腦,就比較少需要打字員、手算或許多資料處理的人。有的AI和機器人,就可以讓更少人做那種沉悶、重複的工作。
A history of finding new things to do過去每次一種類型的工作要自動化時,我們會發現新類型的工作會取代。新類型的工作是較少重複、較多變化和創造力的。目前AI和相關技術的進步速度是一個議題,對於每個人的工作(職涯),會有著比過去更多更大的改變。現在可以想到的是,駕駛工作如卡車或計程車,很可能在幾年之後消失,這種突然的變化會導致一些人失業,而且這些人來不及訓練自己做其他工作。
為了避免重大社會問題,最重要的預防行為是幫助年經人可以得到更廣泛的教育,讓年經人可以在這個教育基礎上從事許多不同的工作,在未來不會成為社會進步的阻礙。另一件也非常重要的事,是支持終身學習與在職訓練,因為越來越少人,可以在整個職涯中只做相同的事。減少個人工時可以讓更多人有工作,但經濟規模的道理促使人去工作更長時間而非更少,除非是公共政策引進對工時的規定。
因為我們無法預測AI的未來,預測進步的程度與速度實在太難了,Oxford大學已有研究估計美國有47%的工作都曝露在自動化的風險之下,儘管頂尖的大學都估計出了相似數據,使得這樣說法似乎可信,但我們回到過去用有限資料和線性模型估計預期壽命時,看起來好像正確的東西其實也是一種謬論,我們應該對這種謬論採取懷疑的態度,這類型分析的真正價值在於告訴大家,有哪些類工作會有較高的風險。
因此,關於自動化,哪些是未來較能夠高度自動化的任務?是否有特徵可以觀察?
自動機器人解決方案向是自駕車(包含汽車/船),已經接近商業應用,自駕車的安全性不易衡量,但統計數字顯示可能至少能做的跟人一樣好。因為相關的、可得的資料非常大量,自駕車的進步將會是難以置信地快速。
客戶服務應用,像是服務台的工作自動化後,能夠很有效率地節省成本,目前這類服務的品質還不太好,瓶頸發生在處理語言,系統還無法辨認口語或解析文法),但若縮小服務範圍,像是餐廳或剪髮的預約,也已是持續地萌芽。
現在還很難分別,自駕車能多快地提供安全可靠的駕駛服務,來取代人類,因為司機的工作不只是移動,還包含處理貨物或是和乘客交流,多種類型的任務使得司機的工作不是只有開車。因為AI,未來會有新工作被創造出來,很有可能未來有很大一部分的工作都是研發、若是要求更多創意或人與人互動。  
分類:科技

評論
上一篇
  • 下一篇
  • 更多文章
    載入中... 沒有更多了