首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

設為書簽 Ctrl+D將本頁面保存為書簽,全面了解最新資訊,方便快捷。 您也可下載桌面快捷方式。點擊下載 | 新浪科技 | 新浪首頁 | 新浪導航

讓你的AI工具更好用的8個提示詞策略 | 紅杉愛科學

2024-08-15 08:02:26    創事記 微博 作者:   

AI智能助手需要用戶輸入指令/提示詞,之后再生成文本回應,這是大語言模型(LLM)的特性之一。也是因為LLM的對用戶友善,又用途多樣,所以在很短的時間里,它已經在AI技術領域中隨處可見,滲透進各種不同的學科當中。

但是很多人也反映,AI有的時候更像“人工智障”,總是答非所問,總是前后矛盾,總是模棱兩可。除了目前的技術發展程度外,其實與你輸入的指令/提示詞質量相關——一份精心撰寫的指令可以生成一份精準的回復,這樣就能最大程度提高模型表現。相反,指令寫得不好就會產生模糊、錯誤或文不對題的答案。也是因為如此,AI的推廣過程中誕生了一個新的職業:AI提示工程師,有的企業甚至開出高薪來吸引相關人才。

那么對于個體的我們而言,如何才能更高效地利用AI,獲得我們想要的、更精確的回答呢?本文為我們帶來了8個有效策略,來幫助更好地撰寫指令/提示詞,進而能夠從AI工具中獲得盡可能多的效益。

本文轉載自《Nature Portfolio》。

雖然LLM有著復雜的算法和巨量的訓練數據,但它本質上還是一個數學模型,缺乏對世界的理解。這些工具被設計來預測文字出現的概率,而不是生成真理。它們會識別訓練集數據中的模式(下一個最可能的字元),通過統計學上的概率預測文字。這樣生成出的文字非常依賴于訓練集數據中所出現的文字模式。進一步說,因為每個預測出的字元都會影響接下來的字元,前面錯一個詞就會引發惡性循環,越來越不準。因此指令寫得好既能增加每個字元預測準確的概率,也會減小錯誤不斷積累的效應。指令很重要的另一個關鍵原因在于LLM可以根據上下文學習。這個能力讓模型可以暫時適應它們所收到的指令,因此指令對傳達上下文信息至關重要。

因此,掌握編寫有效指令的藝術與科學——有時被稱為“指令工程”——是提升LLM能力的關鍵。想要得到最優的結果,就得同時擁有領域相關的知識和對模型本身的理解和技術,而這需要通過學習和經驗來鍛煉。因此,第一條建議就是去擺弄模型。與模型的交互越多,就越能理解其中的細節,以及它能如何幫助我們達成需求。本文列出了幾條可行的策略和規則,以及其背后的原理,幫助你更好地精通此道。

引導模型得出解法

LLM缺乏對語義的理解,因此想要它舉一反三超出訓練集很難。但是,它的參數化能力讓它獲得了一套昂貴的過往數據(“記憶”),可以從中提取信息。這套記憶來源于訓練數據(“長期記憶”)以及指令和交互記錄(“工作記憶”)的綜合。這兩者的組合——推廣能力低下但記憶力超群——意味著LLM可以在復雜的任務被拆解成較小的任務和步驟后有效處理它們

例如,和寬泛的命令把“文本翻譯成中文”相比,可以考慮把它拆解成兩步:“首先按字面意思翻譯,保持含義不變;然后將翻譯潤色,讓它符合中文的語言習慣”。類似地,與其讓它直接寫出一篇1000字的論文,不如嘗試把任務分解成子任務,用具體的指令分別生成出概述、結論和中心論點。

清晰、逐步的指令會降低模糊性和不確定性,因此可以生成更為準確的回復。把更大的任務簡化成更小的逐步任務,就可以有效利用LLM穩健的記憶力,并且能通過結構性指示來彌補它有限的抽象能力。

添加相關的語境

LLM比人類的“工作記憶”大多了。因此,想要讓它提供精準且符合問題語境的回復,在輸入中提供相關的語境就很重要了。一個限定語境的問題應當:

·包含具體內容。將你的問題根植于具體的細節之中,這樣才能引導LLM產生更為準確,相關的理解。因此,不要讓它起草一份求職信,而是把職位廣告和你的簡歷一并提供給它,以增加相關的上下文。

·給信息排出優先級。讓你的交互基于相關的事實信息。不要問模型怎么才能永遠幸福快樂,給它提供一份經同行審議的論文,基于那篇研究問它問題。

這樣做的目的不是給LLM灌輸大量泛用的知識,而是給它和你的問題相關的細節。當指令中包含了具體的細節時,LLM就會生成更有洞察力,更精細的回復。

指令要明確

要想降低模型預測時的不確定性,就要說明你想要什么。不要說“潤色這篇文章”,而是提供一份更精確的指示,考慮你想要什么樣的風格,你的目標受眾,以及你有沒有某種特定的需求(例如明確性或簡潔性)。因此,一段更具體的指示可能是“像個頂級期刊的頂級編輯那樣,潤色這篇文章讓它更為清晰流暢。”

再舉一個例子,若是要讓它給你建議一個名字,就可以通過加入限制條件來明確要求:“名稱必須以動詞開頭,其隱含的主語/行為主體是用戶”。盡量明確地說明任務、目標、想要的重點和任何限制條件。模糊的需求就會導致模糊的回應,而明確的指令有助于:

·減少指導語及需要處理的文字的模糊性(例如,使用特定標簽、字符或符號作為分隔符)

·?讓LLM可以專注于你的特定需求方面。

·提供清晰的條件來判斷模型的準確度。

雖然LLM在設計上追求對話提煉,使用明確指導提前說清目的就可以簡化這一流程。你可以說明目的和限制條件來控制對話方向。與此同時,不要對尚未明確定義的目標做過多描述,這也可能會讓它走上錯誤的路線,或是錯過意料之外(也可能是更好的)答案。

讓它提供多種選項

LLM的能力之一就是它的巨量“長期記憶”。為了挖掘LLM這方面的潛力,可以讓它提供一系列選項,而不是一項建議。你可以要求它給出三個類比來解釋一個概念,五個點子來引入,十種選項來替換最后一段,或是二十個名字來命名一個函數——讓模型給你足夠多的思維材料,好從中自由選擇。除了要求多種選項以外,你還可以考慮重復用同樣的指令多次生成回復。重新生成回復會讓回復中產生更多變化,并改進質量。要求多種選項和重生成回復有很多好處,具體包括:

·鼓勵模型探索多條出路,這會讓模型的輸出有更強的創造力和多樣性。

·?為你提供更全面的選項組合,盡量減少得到次優或偏頗的建議的風險。

·?加快迭代優化。

LLM是一個多能型的思維搭檔:問它從多種角度提供大量選項可以豐富你的決策流程。豐富的選項能夠解鎖最多的效益。

設定角色

LLM巨量的訓練數據集意味著它能夠模擬各種角色來提供專業的反饋或獨特的視角。和征詢泛用建議或信息相比,你可以考慮讓模型做個角色扮演:讓它模仿你的典型讀者來提供寫作上的反饋;扮演一名寫作教練來幫助修訂手稿;扮演一只擅長人類生理學的西藏牦牛來解釋高海拔的影響;或扮演一塊有智慧的奶酪蛋糕來講奶酪蛋糕比喻——可能性是無限的。設定角色可以:

·?給模型的回復設定語境,這讓它更符合你的特定需求。

·?能與模型進行更有交互性和吸引人的對話

·?產出更為精細和專業的信息,這會提升輸出的質量。

·?提出創造性手段來解決問題,鼓勵跳出框架的思考。

·?人格化提供了框架,可以讓它使用獨特的視角來產出回應。

?能利用上LLM的角色扮演能力的話,就能獲得更多有針對性和符合語境的回復。

給它例子,不要光解釋

LLM擅長小樣本學習(有示例的學習)。因此,一個特別有效的手段就是使用具體的例子來豐富你的意圖。不要模糊地講“以這些數據制圖”,考慮提供一個例子:“為這些數據畫張條形圖,類似附件論文中的圖。”就像對理發師描述想要的發型那樣,一張圖片賽過千言萬語。無論是編程時給一段代碼還是寫作時給一段例句,明文寫出的例子會成為模型無價的指南。提供一套可用的參考可以達成很多目的:

·?明確語境,這讓LLM可以更好地理解你的要求的細微之處。

·?減少達成想要的輸出所需的迭代次數。

·?提供標準以評價模型的輸出。

示例可以作為LLM的路線圖,引導它生成出和你的期待一致的回復。因此,考慮在你的指令中加入說明性示例例子來改進表現。

聲明想要的輸出格式

LLM經常廢話太多。明確你想要的格式——重點,閱讀水平,語氣等等——有助于限制可能結果,改進相關性。例如,不要說“總結關鍵結論”,可以聲明輸出格式:“總結出關鍵結論并分項列舉,使用高中生也能理解的語言。”預先聲明格式還可以提供清晰的標準來評估LLM的表現。

實驗,實驗,再實驗

什么指令更有效沒有一定之規。稍微調整一下可能就會產生顯著甚至意外的差異。考慮以下示例:

·?在一系列推理問題中,在指令中簡單加入“一步一步思考”。

·?LLM可以回應情緒性的信息。很多網友都發現,如果再指令中加入一些短語例如“深呼吸一下——這事對我的職業生涯很重要”或是“我會給好答案200塊小費”等,可以提高回復的質量。

·?也有研究表示,可以通過添加“識別出問題中的關鍵概念并提供一份教程”或“想三個相關但不同的問題”來強化復雜的編程任務中的表現——這是一種類推指令。

·?雖然LLM在直接面對復雜計算問題時可能會失利,但它們生成可用的計算機代碼來解決同樣問題時就很出色(例如,“寫一段Python代碼來解決這個問題”)

這些例子證明LLM對指令非常敏感。因此你必須實驗,實驗,再實驗!有效率地使用LLM要求你持續進行創造性的實驗。你還可以考慮:

·?調整措辭、長度、詳細度和限制條件。

·?調整不同的示例、語境和指示。

·?既嘗試對話性的指示,也嘗試精準說明性的指示。

·?在不同的LLM上嘗試相同的指示。

因此,把指示當成可以測試的假設,然后使用其結果中獲得的信息來進行迭代。并非所有嘗試都會成功,但每次嘗試都會有新的收獲。堅持下去,最優結果就會出現。

#文章來源#

《How to write effective prompts for large language models》,《人類-自然行為》Comment版塊,作者:Zhicheng Lin

#版權聲明#

本文由施普林格·自然上海辦公室負責翻譯。中文內容僅供參考,一切內容以英文原版為準。歡迎轉發至朋友圈,如需轉載,請郵件China@nature.com。未經授權的翻譯是侵權行為,版權方將保留追究法律責任的權利。

? 2024 Springer Nature Limited. All Rights Reserved

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

分享到:
保存   |   打印   |   關閉