現在科技之發達,人工智慧軟體發展卓越,許多產業也不乏 AI 替人類代勞,不過你知道嗎?AI 其實也滿容易出紕漏的,Meta 在 11/15 宣布新的 AI 機器人 Galactica,這個機器人透過學習共 4,800 萬個文章、網站、教科書、講義和百科全書,擁有歸納學術論文、生成百科文章、算數學、編寫程式等功能,看起來非常實用的一個 AI,卻在開啟後兩天即被關閉,原因竟是演算結果內含過多假資訊!聽起來非常荒謬,但其實 AI 出錯是可以追溯原因的,今天就來盤點 7 個常見 AI 出錯的理由吧
理由一:缺乏延展性
普遍的人類在看到一張被翻轉的圖片時,心裡會自動將其翻轉,並可以準確判斷圖中內容物,這項任務即使是幼童也能做到,不過因為 AI 只能識別它曾經見過的模式,因此如果以不同的模式予以演算,通常結果就容易出錯,如此即稱作缺乏延展性;2018 年時有研究指出,如果你拍一張校車的照片,然後將其 90 度翻轉(大約就是發生事故翻車的狀態),此時即使是最先進的 AI,有 97% 的機率會無法辨識出那是一台校車,反而會判定其為一台掃雪機,不過只要是正放時,它們都認得出那是一台校車,這種缺乏延展性的情況,有時也是醫學掃描會誤診的原因之一
理由二:植入式偏見
近年來 AI 漸漸被用來幫助人們下一些重大決策,比如是否核發貸款、量刑刑期長短,或者判定哪位病人可以優先獲得健保名額等,這類決策對相關人士來說意義重大,這時如果 AI 有偏見,會自動演算出具有歧視的決定,也造成社會的隱憂;實際案例發生在 2019 年的美國,科學家發現美國全國部署的醫療保健 AI 存在種族歧視,而這影響了數百萬美國人,該 AI 會幫忙判斷哪些病患可以在重症照護計劃中受益最多,但卻經常讓更健康的白人排序優於狀況較差的黑人,原因是 AI 誤以爲在醫療上花費更高的病人,病情絕對更加嚴重
理由三:災難性遺忘
災難性遺忘是一種經常發生在 AI 上的現象,意指 AI 在學習新的方式後,就會忘記如何使用舊的方法,簡單來說就是——AI 的記憶力不太好!以近幾年來盛行,用來偽造假影音的 Deepfake 技術為例,光是製造擬真換臉的 AI 就很多,它們很多是用不同的方式在創造 Deepfake 內容,如果要進行識別,那識別的 AI 也就需要學習不同的識別方式,但由於災難性遺忘的現象,要訓練出一個可以全面識破的 AI 需要時間
理由四:演算結果缺乏可解釋性
你有沒有想過,假如 AI 判定一張圖像為火柴時,到底是因為木棍還是火焰讓 AI 產生如此判決?AI 在現代已經算相當進步,不過相信還是很多人難以理解 AI 的演算結果,當 AI 下判決時,判定依據往往是大家最好奇的,不過科學家卻表示,在詢問 AI 判定的原因時,即使是同一個結果,它也會給出不同的答案,這也讓演算結果的可解釋性變得不穩定,說到這裡,我想到之前玩 Midjourney 的時候,同一組關鍵字,在不同時候輸入,就會產生不同結果,是不是也是一樣道理呀(?)
理由五:量化資訊造成誤判
2016 年的美國,一台開著自動駕駛的特斯拉 Model S,與前方左轉卡車相撞,駕駛當場死亡,這也是首起被通報的,因自動駕駛而造成的車禍,車禍發生當下,不論是駕駛或自動駕駛系統,兩者都無法準確判斷拖拉機掛車車身的白色與天空的差異,因此沒有踩下煞車,這個事件就說明了人工智慧系統會透過大量量化的資訊,進而堅信一個錯誤的決定,造成失準的判斷
理由六:缺乏常識
AI 畢竟是機器,它有時會缺乏常識,比如科學家可能會訓練 AI 檢測散佈在日常中的惡意發言,這看起來很簡單,然而當這個 AI 在現實中被使用時,它很可能無法理解黑人或同性戀者,會對自己族群使用看似歧視的字眼,而錯誤地歸類他們的發言為仇恨言論,在相同情況下,人類則可以很好的辨識出哪些是真正的惡意言論,換句話說,AI 因為缺乏常識,而無法判斷出人類在說話時展現的語境
理由七:數學不好
雖然傳統電腦的算術能力很好,不過你會很驚訝地發現,同為機器的 AI 並不擅長數學,即使你以最新的處理器建造它,且訓練它做很多數學題,但它的解題能力仍舊不及一台簡單的計算機。研究顯示,科學家即使對 AI 進行了數十萬個算數訓練,再讓 AI 解答來自高中數學競賽題庫中的 12,500 個問題時,它卻只有大約 5% 的準確率;目前還不確定為什麼 AI 不擅長數學,其中一種可能性是,它們是像人腦一樣,以高度並行的方式解決問題,而數學題則通常需要一長串的步驟來解決,所以 AI 對數據的處理,可能本來就不適合拿來解數學
小結
隨著人工智慧越來越發達,人們當然可以適當利用科技為我們帶來的便利,不過也不能過度依賴、全然信任機器,隨時去思考演算結果的正確可取性方為上策!是說最近聽說有個名為 Notion 的新 AI,功能是會......寫文章?不過在我看完以上 7 大 AI 要面對的困難以後,暫時還不擔心失業啦 XD