我們需要對AI機器人保持禮貌嗎?

圖像來源,Serenity Strull/ BBC
- Author, 湯瑪斯·傑曼(Thomas Germain)
從禮貌待人到假裝自己身處《星際迷航》(Star Trek,《星際爭霸戰》)的場景中,關於如何與聊天機器人對話的建議可謂五花八門,而且完全沒有用。以下這些才是真正有效的方法。
一群研究人員決定測試「正向思考」是否能提高人工智慧(AI)聊天機器人的準確率,結果卻出乎意料。他們向不同的聊天機器人提問,嘗試稱讚它們「聰明」,鼓勵它們認真思考,甚至在問題結尾加上一句「這會很有趣!」。然而,這些方法都沒有產生一致的效果,但其中一種方法脫穎而出。當他們讓AI假裝自己身處《星際迷航》場景,它的基礎數學能力竟然有所提升。看來,它真的能把我傳送上去。
人們嘗試過各種奇葩策略,試圖從大型語言模型(LLM,ChatGPT等工具背後的AI技術)中獲得更好的回饋。有些人深信,威脅AI能讓它表現得更好;另一些人認為,禮貌待人會讓聊天機器人更配合;還有些人甚至要求機器人扮演某個研究領域的專家來回答問題。這樣的例子不勝枚舉。這都是圍繞著「提示工程」或「情境工程」——即建構指令以使AI提供更佳結果的不同方法——所形成的迷思的一部分。但事實是:專家告訴我,許多被廣泛接受的提示技巧根本不起作用,有些甚至可能是危險的。但是,你與AI的溝通方式確實至關重要,某些技巧真的能帶來差異。
「很多人認為,只要用一些神奇的詞語,就能讓大型語言模型解決問題,」美國范德比爾特大學(Vanderbilt University)研究生成式AI的電腦科學教授朱爾斯·懷特(Jules White)說,「但關鍵不在於用詞,而在於你如何從根本上表達你想要做的事情。」
要講究禮貌嗎?
2025年,一位用戶在X(前身為Twitter)上發推文問道:「我想知道OpenAI因為人們向他們的模型說『請』和『謝謝』而損失了多少電費。」 製作ChatGPT的OpenAI首席執行官薩姆·奧特曼(Sam Altman)回應道:「花掉的數千萬美元很值得,」他說,「誰知道呢。」
大多數人將最後一句解讀為對潛在「AI末日」的戲謔,儘管「數千萬美元」這個數字究竟有多大可信度還很難說。不過,這是一個實際的問題。

圖像來源,Serenity Strull/ BBC
大型語言模型的工作原理是將你的話語分割成稱為「詞元」(tokens)的小塊,然後利用統計方法分析這些詞元,從而得到適當的回應。這代表你說的每一個字詞,甚至是一個額外的逗號,都可能影響AI的回答。問題在於,這種影響幾乎無法預測。雖然已經有許多研究試圖從AI提示的細微變化中尋找規律,但大部分證據相互矛盾,結論也不明確。
舉例來說,2024年的一項研究發現,當使用者以禮貌的方式提問,而不是直接下命令時,大型語言模型的回答更好、更準確。更奇怪的是,這其中還存在著文化差異:與中文和英文相比,如果你對日文聊天機器人過於客氣,它們的表現反而會略遜一籌。
但也別急著去買張「謝謝卡」送給你的AI。另一個小型測試發現,舊版的ChatGPT在被辱罵時反而更準確。總體來說,這方面的研究還遠遠不足,無法得出可靠的結論。而且,AI公司不斷更新他們的聊天機器人,這意味著研究結果很快就會過時。
專家表示,AI模式在短短幾年內取得了巨大的進步。因此,如果你的目標是讓AI更加準確,那麼奉承、禮貌、侮辱或威脅等技巧都是浪費時間。
「那時候完全是碰運氣。」博通公司(Broadcom)應用機器學習工程師里克·巴特爾(Rick Battle)說。他也是《星際迷航》研究的作者之一。雖然這項研究是在2024年進行的,但情況已經改變了。巴特爾等人表示,如今你在ChatGPT、Gemini或Claude等主流產品中遇到的新型AI模型,能夠更好地捕捉你提示中最關鍵的部分。它們大概不會因為語言上的細微變化而受到影響,至少不會以一種你能持續利用的方式受到影響。
這個結論本身就有些令人不安。當公司設計像ChatGPT或谷歌的Gemini這樣的AI時,會使其行為像人一樣,所以它們有時看起來好像有情緒,你可以控制它們,或者可以引導它們的個性,這也就不足為奇了。但不要被其所迷惑。AI工具只是模仿者,不是生命體。它們只是在模擬人類行為。如果你想要更好的答案,就不要把AI當人看待,而應該把它當成工具來使用。
如何與聊天機器人對話
AI確實存在一些非常現實的問題,從倫理問題到其可能對環境造成的影響。有些人甚至選擇完全不與它互動。但如果你打算使用大型語言模型,那麼學會如何更快、更有效率地獲得你想要的結果,不僅對你有好處,對過程中消耗的能源也可能更有益。以下這些技巧將幫助你入門。
要求多個選項
「我告訴人們的第一件事就是不要只問一個答案,而是問三個或五個。」懷特說。例如,如果你想讓AI幫你寫文章,就告訴它提供幾個在某些重要方面不同的選項。「這能迫使人們重新思考自己喜歡什麼以及為什麼喜歡。」
提供範例
盡可能為AI提供範例。 「例如,我見過有人讓一個法學碩士幫他們寫郵件,然後他們就感到沮喪,因為他們會說『這完全不像我的風格』。」懷特說。人們的自然反應是列出一長串指令,「要這樣做」和「不要那樣做」。懷特說,更有效的做法是說「這裡有我過去寄出的10封電子郵件,請使用我的寫作風格。」
要求面談
「假設你想要生成一份職缺描述。告訴AI:『我希望你一次問我一個問題,直到你收集到足夠資訊來撰寫一份有吸引力的職缺公告,』」懷特說,「透過一次一個問題的方式,它能根據你的回答進行調整。」
謹慎對待角色扮演
「過去人們認為,如果你告訴AI它是一位數學教授,例如,它在回答數學問題時實際上會更準確。」桑德·舒爾霍夫(Sander Schulhoff)說。他是一位企業家和研究員,也是「提示工程」理念的推廣者。但舒爾霍夫和其他人表示,當你尋找資訊或提出只有一個正確答案的問題時,角色扮演反而會降低AI模型的準確性。
「這實際上可能很危險,」巴特爾說。 「你實際上是在鼓勵它產生幻覺,因為你告訴它它是專家,它應該相信它內部的參數知識。」本質上,這會讓AI表現得過於自信。
但對於那些沒有單一正確答案的開放式任務,角色扮演是有效的(例如建議、腦力激蕩、創意或探索性的問題解決)。如果你對求職面試感到緊張,讓聊天機器人模仿招聘主管的語氣練習可能是一個不錯的主意——只是要記得同時參考其他資源。
保持中立
「不要引導證人,」巴特爾說,如果你正在兩輛車之間猶豫不決,不要說你傾向於豐田。 「否則,你很可能就會得到那樣的答案。」
「請」和「謝謝」
根據皮尤研究中心2019年的一項調查,超過一半的美國人在與智慧音箱對話時會說「請」。這種趨勢似乎仍在持續。 未來出版社2025年的一項調查發現,70%的人在使用AI時會保持禮貌。大多數人表示,他們這樣做是因為這是理所當然的,但也有12%的人表示,他們這樣做是為了在機器人起義時保護自己。
禮貌或許無法保護你免受機器人的憤怒攻擊,也不能讓大型語言模型更準確,但還有其他理由讓我們繼續保持禮貌。
舒爾霍夫說:「對我來說,更重要的是,說『請』和『謝謝』可能會讓你在與AI互動時感到更自在。這雖然不會提升模型的性能,但如果它能讓你因為感到更自在而更願意使用它,那麼它就是有用的。」
此外,你自身人性中的溫柔也值得考慮。哲學家伊曼努爾·康德(Immanuel Kant)認為,人不應該虐待動物,因為這同樣會對自己造成傷害。本質上,對任何事物不友善都會讓你變得更加冷酷無情。你無法傷害AI的感受,因為它根本沒有感情,但或許你還是該對它友善一點。這種習慣或許也能讓你的生活其他方面受益。














