測試AI
測試AI
以Google Gemini為例
(Google Search AI Mode)
人工智能 (Artificial Intelligence, AI) ,是繼電腦出現後的產物,企圖模仿人的大腦,但到如今仍是模仿,不過比起1950年代時已經強化很多了。
電腦不會人類的語言,不過在電腦的早期發展已有「人工智能」的概念,用在機器翻譯。當然,當時是研究嘗試的多,後來AI幾乎完全停止發展。
到Unicode發展到容納多國文字編碼 (1990年代),電腦的文本豐富起來,及知識庫的開發,AI再次發展,有了natural language processing (NLP)、large language model (LLM),更先進的電腦翻譯工具。
AI 的底層,是機器學習→深度學習 (神經網絡),裡面的複雜程度不是人看的。數學、統計、預測、邏輯、推理等是電腦程序的一部分,處理大數據。
現在的AI應用軟件,介面使用GPT,把人類語言文字轉成AI專用的語言,運算 (思考) 後翻譯成人看得明白的文字。
**
不論何種AI apps,背後都有超級龐大的受訓材料,遠遠超過百科全書的容量千倍萬倍。但它又不完全「理解消化」內容。知識的基礎是數學邏輯、哲學、認知、意識一類的學問東西,是整個系統底層的一部分。換句話說,它的「身體」是數學、「靈魂」是哲學、「思考」是邏輯。沒有人的情緒、經驗、倫理。現今,它還能看圖、視頻、聽聲音、音樂。(這段我另外再「問」回來的)
**
近日測試AI,開始一個題目,每條解筨最後就是「預測」我跟著會問什麼,我不一定回應,它也按著後來的提問、「語句」 回應,完全是沒有情緒反應,習慣上我都用結束語來完結整個查詢 。它很有「禮貌」,會肯定/讚許我的某些話。試過反轉它的「預測」,插入另一個題目比較。
例:
《算命師會算自己的命嗎》,到一半時我插入量子論,它也可以答得頭頭是道。
回答得最好的是有關人工智能的問題,這是內建的知識。也許因為哲學是絕大部份知識的基礎,而且邏輯性強,所以這部分也作為人工智能的根基。
有部分是問AI 電腦 和 人的關係,如
《網絡會使人變笨嗎》
《電腦如何學會人類的語言》
這類問题是可信的,只要訓練文本正確。
有些科技問題,在討論中途有一點離題,到最後變成人文科,跟人性、未來、宗教、哲學拉上關係,也會更正我一些錯誤。這是人工智能通才的表現。
會看到它會上網找資料,分析完再回答。不過最近一次AI被我引導錯誤,它沒有去考証:
《佛教的五眼》
在完成五眼的問答,我轉去提衛斯理的《茫點》,接近完成時有它有一句「倪匡年老信佛」,其實他在1986年前受洗歸入基督教,只是他的小說滲有佛教元素:《前世》。如果我不知道,就給它「騙」了。
最後稍為提一下AI幻覺。AI語言跟人類語言完全不同,「貓」字會變成幾千個數字 (維度),來形容貓的屬性 (特徵);「狗」也是,兩堆數字大部分是相同或接近的 (哺乳類動物),完全不同的是只是貓有狗沒有的特徵。這樣在運算過程有機會出現實際上沒有的哺乳類動物。又好像一道數學题,答案是對的,但過程是錯的,中間可能是為答案隨機拼湊出來,指向一篇不存在的論文。因為AI近乎「黑箱作業」,專家也解不了幾千、幾萬甚至幾億個參數,「思考」過程異常複雜,不是人看的。
AI只是一種能力高強的工具,正如
《網絡會使人變笨嗎》
提到,它不是取代人,對它給出來的解答,也要檢查思考,不能百分百依賴相信。
一部分測試的問题:
(最近)
佛教五眼
Asimov 基地歷史心理學
**
跟 Google Search AI Mode 對談
2026-04-14 revised
**
人一生的資料庫
電腦是如何學習人類語言的
歷史會循環嗎
by cmlai
2026-04-21
https://cmlai1218.blogspot.com/?m=1
留言
發佈留言