1. 推理是把一件原本複雜的任務,拆解成一連串小型的步驟,
就像煮一道菜,食譜會列出一串的步驟,讓你按部就班煮出來。
這一連串拆解後的步驟,我們稱為思維鍊(Chain of Thought),因此當你使用推理模式的時候,會看到系統顯示每一個步驟在做的事。原本複雜的任務,經過拆解,每一個步驟可能就沒有原來糾纏在一起那麼難了。就像晚餐大作戰或是渡河問題原本LLM 光靠內容分析不容易解開,但是透過推理就有可能了。
2. 為什麼 ChatGPT 4o, 4.5(以及其他非推理型 LLM)不擅長規劃(如搶救晚餐大作戰)或是處理複雜多重限制條件的難題(如渡河問題)?
一般來說,規劃是一項複雜的認知任務,需要幾個關鍵能力:
- 理解因果關係和時間關係
- 維持連貫的長期目標
- 適應不斷變化的環境
- 管理資源和限制
上述你說的純粹基於下一個詞預測訓練的語言模型可能在這些方面存在困難,因為它們本身並沒有順序決策或維持長期連貫性的機制。
沒有留言:
張貼留言