人工智能確實影響了我們的生活型態、工作模式,甚至被視為改變未來職業結構的力量。多數討論聚焦在:AI 能做什麼、會取代誰、我們需要學會什麼新能力。然而,身為一名長期照顧神經疾病病人的神經科醫師,我更在意的,是一個或許有點冷門、但我認為遲早得面對的問題──人工智能是否也會走向一種類似「失智」的狀態?我們要怎麼察覺、預防與因應?
人類的智能從幼年開始發展,隨著學習與環境互動,大腦的神經迴路逐步建立。到了老年,神經系統逐漸退化,當損害累積到一定程度,認知功能開始明顯受影響,就形成我們臨床上所說的失智症。失智症仍是許多機轉未明的疾病之一,但我們知道,其中一個重要機制,是異常蛋白質在大腦中堆積,像普利昂一樣沿著神經網路擴散,破壞神經細胞的連結與存活,最終導致智能的消退。如果人腦會因為這種「廢棄物的累積」而崩壞,那麼,同樣依賴大量資料與參數的人工智能,會不會也有一天被「資訊上的異常蛋白」拖垮?
要談「AI 的失智」,我自行試著定義它可能涵蓋的層面。人類的認知功能可以大致依腦區分工來理解:前額葉與人格、情緒調節與社會互動有關;顳葉負責記憶與語言;頂葉則與空間感與視覺整合相關。如果將這套框架類比到人工智能,我們可以想像,AI 也有它的「人格」(回應語氣與互動模式)、「記憶」(資料庫訓練)以及「語言能力」(理解與生成資訊的方式)。一旦這些層面受到錯誤資訊、偏見或雜訊的干擾,它的表現也可能變得不穩定。例如:回應品質下降、邏輯開始鬆散、生成的內容越來越像是東拼西湊的胡言亂語。這是否可以視為某種「AI 的輕度認知障礙」甚至「AI 的失智症前期」?
老生常談的Garbage In Garbage Out
在人類世界裡,如果大腦長期被負面的環境刺激或錯誤的信念餵養,個性與思考也可能逐漸產生偏差。同樣地,如果我們持續用品質不佳的資料來訓練 AI,它的「智能」也會被扭曲。現今龐大的訓練資料庫,多半來自人類大量生成的內容,其中既有嚴謹的科學知識,也充斥著偽科學或誤導訊息。當這些錯誤像異常蛋白一樣潛入並累積於系統中,最終可能導致 AI 的判斷與推理逐漸失真,甚至「瓦解」。大腦之所以還能維持一段時間的穩定,很重要的一環是排毒機制。例如腦內的類淋巴系統,會在睡眠時清除部分代謝廢物,減少異常蛋白的堆積。如果缺乏這樣的排毒能力,失智症風險就會大幅增加。放到人工智能上,我們同樣需要一套對應的「排毒系統」:針對輸入的資料進行篩選與驗證,對於看起來「有模有樣」但實際錯誤百出的內容加以過濾。尤其是在醫療領域,網路上有太多似是而非的健康資訊,看起來專業、實則錯誤。當這些資訊不斷被引用、擴散時,會影響AI 所依賴的知識環境。因此,專業人員不只是使用者,更必須扮演「排毒者」的角色,主動辨識、拆解與修正錯誤內容,避免它們一再被餵回系統。
如何知道AI失智了?
如果我們更往前一步思考:當 AI 開始表現出「失智的早期徵兆」時,我們要如何診斷與應對?失智症的病人往往缺乏自覺,(我覺得)AI 亦然。它不會說自己退步了,只會持續產出品質不佳的內容,反應變慢、語句凌亂、邏輯鬆散。我們可能需要發展一套屬於 AI 的「認知功能評估」,從文字流暢度、語意連貫性、學習速度、更新能力等面向來監測它的狀態,類似對人類進行 MCI 或早期失智症評估那樣。或許未來,AI 也需要定期接受某種形式的「認知測驗」、韌體更新與能力校正,以確保它仍有持續學習與產出新知的能力,而不是只在舊資料裡打轉。
怎麼治療AI失智症?
近年來,人類治療失智症的一條重要路徑,是嘗試利用免疫治療清除異常蛋白。對 AI 而言,或許也需要類似的概念──定期檢視訓練資料與輸出結果,調整模型,而不是過度追求資料累積。我們經常透過 AI 來搜尋科學資訊,但這些看似「整理好的知識」,究竟有多少是真實可靠的?在這一點上,人類的角色仍無可取代:必須有足夠的專業與判讀能力,對 AI 的輸出進行過濾、避險與挑選,這樣產出的才是值得信任的科學資訊。但如果 ,AI 有一天真的「老化」或「失智」,我們該怎麼辦?我們當然不會把車子的自動駕駛系統、醫院的診斷工具、金融系統的決策權,完全交給一個已經失能的系統。即使未來的 AI 再強大,我覺得人類與 AI 的關係,最終仍會回到人工判斷:當你對 AI 的答案產生懷疑時,還是需要回到人類的專業,由人類給出合適的答案;而人類專業也可以透過更新、更健康的一代 AI 來幫助自己閱讀文獻、整合資訊,甚至「帶領」舊版本的 AI 進行修正,類似現在的長照或社區共照(?)
結語
也許未來我們會看到:新的 AI 系統不斷誕生,帶著更好的架構與排毒機制,幫助我們修補、監測甚至「照顧」那些逐漸老化的舊系統,像年輕人帶著前輩一起學習新工具那樣。對我而言,人類最大的優勢仍在於創造力與反思能力,只要我們願意持續更新自己,我們或許就有機會同時擁有碳基和矽基智慧。
