【國際】科技來自於人性,尤其是惰性

2023-12-01

我們的生活中經常與人工智慧互動、甚至依賴,過程如此自然以至於我們多未察覺,例如智慧型手機數位助手、影音與購物平台的偏好推薦、各種智慧型小家電,這些俯拾皆是運用人工智慧的科技產品,是人類使用運算語言學協助電腦進行機器深度學習,使電腦理解人類語言並加以詮釋操作與產出(NLP)。這些演算法技術的研發與運用已數十年,目前已廣泛運用在醫療照護、交通運輸、財務金融、以及教育,其強大的學習能力與處理速度受到重用,相關的風險控管與倫理法規也被積極提出討論。

劍橋辭典年度關鍵字:人工智慧幻覺

Hallucination原意是指因病理或用藥產生的幻覺,人工智慧幻覺是指生成式AI提供的看似合理具說服力,卻是虛構錯誤的答案。原因是人工智慧的訓練,只要求「針對使用者的問題提出看似合理的答案,並未被要求確認資訊是否屬實」,因此本質上只負責學習回答得合情合理,卻未保證回答內容的虛實真假。這就造成了人工智慧幻覺,例如提供使用者完美的法院判例做為撰寫訴狀的參考,但這些判例根本不存在。

研究顯示,最常拋出假訊息的是Google的生成式AI模型PalM的27%,Chat GPT出現幻覺的機率則是3%,意味著虛假的訊息以此高比例迅速擴散、重組、生成。若是指令越追求原創性,答案將越偏離正軌。當虛構的答案又再匯入大數據資料中,錯誤生成更多錯誤,簡直是虛假訊息自動生成器。雖然假訊息一直都以各種形式存在人類社會,但畢竟是人類的產物,人工智慧也出現脫離現實的幻覺,應該算是誰的產物?

數位原住民的新課題:安全有效地與生成式AI互動

「人工智慧最人性的一面,就是真實反映人性的偏見與謬誤」網路假訊息氾濫,電腦也就跟著重複錯誤,未加判斷便直接引用,將導致不可預期的後果。尤其是人格與價值觀尚未定性的學生,誤信聊天機器人提供的答案,將影響其對現實世界的掌握與判斷能力。

人類的批判性思考、事實審查能力,在無處不AI的時代更顯其不可或缺。教師必須審慎看待人工智慧與生成性人工智慧的工具性優勢與潛在危險,使數位教學與數位素養的發展並重。

參考資料:Cambridge Dictionary、New Yorker Daily、遠見