网易首页 > 网易号 > 正文 申请入驻

Meta官方的Prompt工程指南:Llama 2这样用更高效

0
分享至

机器之心报道

编辑:小舟

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。

最近,Llama 系列开源模型的提出者 Meta 也针对 Llama 2 发布了一份交互式提示工程指南,涵盖了 Llama 2 的快速工程和最佳实践。

以下是这份指南的核心内容。

Llama 模型

2023 年,Meta 推出了 Llama 、Llama 2 模型。较小的模型部署和运行成本较低,而更大的模型能力更强。

Llama 2 系列模型参数规模如下:

Code Llama 是一个以代码为中心的 LLM,建立在 Llama 2 的基础上,也有各种参数规模和微调变体:

部署 LLM

LLM 可以通过多种方式部署和访问,包括:

自托管(Self-hosting):使用本地硬件来运行推理,例如使用 llama.cpp 在 Macbook Pro 上运行 Llama 2。优势:自托管最适合有隐私 / 安全需要的情况,或者您拥有足够的 GPU。

云托管:依靠云提供商来部署托管特定模型的实例,例如通过 AWS、Azure、GCP 等云提供商来运行 Llama 2。优势:云托管是最适合自定义模型及其运行时的方式。

托管 API:通过 API 直接调用 LLM。有许多公司提供 Llama 2 推理 API,包括 AWS Bedrock、Replicate、Anyscale、Together 等。优势:托管 API 是总体上最简单的选择。

托管 API

托管 API 通常有两个主要端点(endpoint):

1. completion:生成对给定 prompt 的响应。

2. chat_completion:生成消息列表中的下一条消息,为聊天机器人等用例提供更明确的指令和上下文。

token

LLM 以称为 token 的块的形式来处理输入和输出,每个模型都有自己的 tokenization 方案。比如下面这句话:

Our destiny is written in the stars.

Llama 2 的 tokenization 为 ["our", "dest", "iny", "is", "writing", "in", "the", "stars"]。考虑 API 定价和内部行为(例如超参数)时,token 显得尤为重要。每个模型都有一个 prompt 不能超过的最大上下文长度,Llama 2 是 4096 个 token,而 Code Llama 是 100K 个 token。

Notebook 设置

作为示例,我们使用 Replicate 调用 Llama 2 chat,并使用 LangChain 轻松设置 chat completion API。

首先安装先决条件:

pip install langchain replicate

from typing import Dict, List

from langchain.llms import Replicate

from langchain.memory import ChatMessageHistory

from langchain.schema.messages import get_buffer_string

import os

# Get a free API key from https://replicate.com/account/api-tokens

os.environ ["REPLICATE_API_TOKEN"] = "YOUR_KEY_HERE"

LLAMA2_70B_CHAT = "meta/llama-2-70b-chat:2d19859030ff705a87c746f7e96eea03aefb71f166725aee39692f1476566d48"

LLAMA2_13B_CHAT = "meta/llama-2-13b-chat:f4e2de70d66816a838a89eeeb621910adffb0dd0baba3976c96980970978018d"

# We'll default to the smaller 13B model for speed; change to LLAMA2_70B_CHAT for more advanced (but slower) generations

DEFAULT_MODEL = LLAMA2_13B_CHAT

def completion (

prompt: str,

model: str = DEFAULT_MODEL,

temperature: float = 0.6,

top_p: float = 0.9,

) -> str:

llm = Replicate (

model=model,

model_kwargs={"temperature": temperature,"top_p": top_p, "max_new_tokens": 1000}

return llm (prompt)

def chat_completion (

messages: List [Dict],

model = DEFAULT_MODEL,

temperature: float = 0.6,

top_p: float = 0.9,

) -> str:

history = ChatMessageHistory ()

for message in messages:

if message ["role"] == "user":

history.add_user_message (message ["content"])

elif message ["role"] == "assistant":

history.add_ai_message (message ["content"])

else:

raise Exception ("Unknown role")

return completion (

get_buffer_string (

history.messages,

human_prefix="USER",

ai_prefix="ASSISTANT",

),

model,

temperature,

top_p,

def assistant (content: str):

return { "role": "assistant", "content": content }

def user (content: str):

return { "role": "user", "content": content }

def complete_and_print (prompt: str, model: str = DEFAULT_MODEL):

print (f'==============\n {prompt}\n==============')

response = completion (prompt, model)

print (response, end='\n\n')

Completion API

complete_and_print ("The typical color of the sky is:")

complete_and_print ("which model version are you?")

Chat Completion 模型提供了与 LLM 互动的额外结构,将结构化消息对象数组而不是单个文本发送到 LLM。此消息列表为 LLM 提供了一些可以继续进行的「背景」或「历史」信息。

通常,每条消息都包含角色和内容:

具有系统角色的消息用于开发人员向 LLM 提供核心指令。

具有用户角色的消息通常是人工提供的消息。

具有助手角色的消息通常由 LLM 生成。

response = chat_completion (messages=[

user ("My favorite color is blue."),

assistant ("That's great to hear!"),

user ("What is my favorite color?"),

print (response)

# "Sure, I can help you with that! Your favorite color is blue."

LLM 超参数

LLM API 通常会采用影响输出的创造性和确定性的参数。在每一步中,LLM 都会生成 token 及其概率的列表。可能性最小的 token 会从列表中「剪切」(基于 top_p),然后从剩余候选者中随机(温度参数 temperature)选择一个 token。换句话说:top_p 控制生成中词汇的广度,温度控制词汇的随机性,温度参数 temperature 为 0 会产生几乎确定的结果。

def print_tuned_completion (temperature: float, top_p: float):

response = completion ("Write a haiku about llamas", temperature=temperature, top_p=top_p)

print (f'[temperature: {temperature} | top_p: {top_p}]\n {response.strip ()}\n')

print_tuned_completion (0.01, 0.01)

print_tuned_completion (0.01, 0.01)

# These two generations are highly likely to be the same

print_tuned_completion (1.0, 1.0)

print_tuned_completion (1.0, 1.0)

# These two generations are highly likely to be different

prompt 技巧

详细、明确的指令会比开放式 prompt 产生更好的结果:

complete_and_print (prompt="Describe quantum physics in one short sentence of no more than 12 words")

# Returns a succinct explanation of quantum physics that mentions particles and states existing simultaneously.

我们可以给定使用规则和限制,以给出明确的指令。

  • 风格化,例如:
  • 向我解释一下这一点,就像儿童教育网络节目中教授小学生一样;
  • 我是一名软件工程师,使用大型语言模型进行摘要。用 250 字概括以下文字;
  • 像私家侦探一样一步步追查案件,给出你的答案。
  • 格式化
  • 使用要点;
  • 以 JSON 对象形式返回;
  • 使用较少的技术术语并用于工作交流中。
  • 限制
  • 仅使用学术论文;
  • 切勿提供 2020 年之前的来源;
  • 如果你不知道答案,就说你不知道。

以下是给出明确指令的例子:

complete_and_print ("Explain the latest advances in large language models to me.")

# More likely to cite sources from 2017

complete_and_print ("Explain the latest advances in large language models to me. Always cite your sources. Never cite sources older than 2020.")

# Gives more specific advances and only cites sources from 2020

零样本 prompting

一些大型语言模型(例如 Llama 2)能够遵循指令并产生响应,而无需事先看过任务示例。没有示例的 prompting 称为「零样本 prompting(zero-shot prompting)」。例如:

complete_and_print ("Text: This was the best movie I've ever seen! \n The sentiment of the text is:")

# Returns positive sentiment

complete_and_print ("Text: The director was trying too hard. \n The sentiment of the text is:")

# Returns negative sentiment

少样本 prompting

添加所需输出的具体示例通常会产生更加准确、一致的输出。这种方法称为「少样本 prompting(few-shot prompting)」。例如:

def sentiment (text):

response = chat_completion (messages=[

user ("You are a sentiment classifier. For each message, give the percentage of positive/netural/negative."),

user ("I liked it"),

assistant ("70% positive 30% neutral 0% negative"),

user ("It could be better"),

assistant ("0% positive 50% neutral 50% negative"),

user ("It's fine"),

assistant ("25% positive 50% neutral 25% negative"),

user (text),

return response

def print_sentiment (text):

print (f'INPUT: {text}')

print (sentiment (text))

print_sentiment ("I thought it was okay")

# More likely to return a balanced mix of positive, neutral, and negative

print_sentiment ("I loved it!")

# More likely to return 100% positive

print_sentiment ("Terrible service 0/10")

# More likely to return 100% negative

Role Prompting

Llama 2 在指定角色时通常会给出更一致的响应,角色为 LLM 提供了所需答案类型的背景信息。

例如,让 Llama 2 对使用 PyTorch 的利弊问题创建更有针对性的技术回答:

complete_and_print ("Explain the pros and cons of using PyTorch.")

# More likely to explain the pros and cons of PyTorch covers general areas like documentation, the PyTorch community, and mentions a steep learning curve

complete_and_print ("Your role is a machine learning expert who gives highly technical advice to senior engineers who work with complicated datasets. Explain the pros and cons of using PyTorch.")

# Often results in more technical benefits and drawbacks that provide more technical details on how model layers

思维链

简单地添加一个「鼓励逐步思考」的短语可以显著提高大型语言模型执行复杂推理的能力(Wei et al. (2022)),这种方法称为 CoT 或思维链 prompting:

complete_and_print ("Who lived longer Elvis Presley or Mozart?")

# Often gives incorrect answer of "Mozart"

complete_and_print ("Who lived longer Elvis Presley or Mozart? Let's think through this carefully, step by step.")

# Gives the correct answer "Elvis"

自洽性(Self-Consistency)

LLM 是概率性的,因此即使使用思维链,一次生成也可能会产生不正确的结果。自洽性通过从多次生成中选择最常见的答案来提高准确性(以更高的计算成本为代价):

import re

from statistics import mode

def gen_answer ():

response = completion (

"John found that the average of 15 numbers is 40."

"If 10 is added to each number then the mean of the numbers is?"

"Report the answer surrounded by three backticks, for example:```123```",

model = LLAMA2_70B_CHAT

match = re.search (r'```(\d+)```', response)

if match is None:

return None

return match.group (1)

answers = [gen_answer () for i in range (5)]

print (

f"Answers: {answers}\n",

f"Final answer: {mode (answers)}",

# Sample runs of Llama-2-70B (all correct):

# [50, 50, 750, 50, 50] -> 50

# [130, 10, 750, 50, 50] -> 50

# [50, None, 10, 50, 50] -> 50

检索增强生成

有时我们可能希望在应用程序中使用事实知识,那么可以从开箱即用(即仅使用模型权重)的大模型中提取常见事实:

complete_and_print ("What is the capital of the California?", model = LLAMA2_70B_CHAT)

# Gives the correct answer "Sacramento"

然而,LLM 往往无法可靠地检索更具体的事实或私人信息。模型要么声明它不知道,要么幻想出一个错误的答案:

complete_and_print ("What was the temperature in Menlo Park on December 12th, 2023?")

# "I'm just an AI, I don't have access to real-time weather data or historical weather records."

complete_and_print ("What time is my dinner reservation on Saturday and what should I wear?")

# "I'm not able to access your personal information [..] I can provide some general guidance"

检索增强生成(RAG)是指在 prompt 中包含从外部数据库检索的信息(Lewis et al. (2020))。RAG 是将事实纳入 LLM 应用的有效方法,并且比微调更经济实惠,微调可能成本高昂并对基础模型的功能产生负面影响。

MENLO_PARK_TEMPS = {

"2023-12-11": "52 degrees Fahrenheit",

"2023-12-12": "51 degrees Fahrenheit",

"2023-12-13": "51 degrees Fahrenheit",

def prompt_with_rag (retrived_info, question):

complete_and_print (

f"Given the following information: '{retrived_info}', respond to: '{question}'"

def ask_for_temperature (day):

temp_on_day = MENLO_PARK_TEMPS.get (day) or "unknown temperature"

prompt_with_rag (

f"The temperature in Menlo Park was {temp_on_day} on {day}'", # Retrieved fact

f"What is the temperature in Menlo Park on {day}?", # User question

ask_for_temperature ("2023-12-12")

# "Sure! The temperature in Menlo Park on 2023-12-12 was 51 degrees Fahrenheit."

ask_for_temperature ("2023-07-18")

# "I'm not able to provide the temperature in Menlo Park on 2023-07-18 as the information provided states that the temperature was unknown."

程序辅助语言模型

LLM 本质上不擅长执行计算,例如:

complete_and_print ("""

Calculate the answer to the following math problem:

((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))

# Gives incorrect answers like 92448, 92648, 95463

Gao et al. (2022) 提出「程序辅助语言模型(Program-aided Language Models,PAL)」的概念。虽然 LLM 不擅长算术,但它们非常擅长代码生成。PAL 通过指示 LLM 编写代码来解决计算任务。

complete_and_print (

# Python code to calculate: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))

""",

model="meta/codellama-34b:67942fd0f55b66da802218a19a8f0e1d73095473674061a6ea19f2dc8c053152"

# The following code was generated by Code Llama 34B:

num1 = (-5 + 93 * 4 - 0)

num2 = (4**4 + -7 + 0 * 5)

answer = num1 * num2

print (answer)

原文链接:https://github.com/facebookresearch/llama-recipes/blob/main/examples/Prompt_Engineering_with_Llama_2.ipynb?utm_source=twitter&utm_medium=organic_social&utm_campaign=llama&utm_content=video

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
广东横琴发布警情通报:陈某波(男,26岁)窜至某小区对两名受害人实施抢劫,并致其中一人死亡,已被抓获

广东横琴发布警情通报:陈某波(男,26岁)窜至某小区对两名受害人实施抢劫,并致其中一人死亡,已被抓获

极目新闻
2026-03-22 14:37:19
伊朗:不接受临时停火,而是要求全面结束战争;伊朗武装部队称正在霍尔木兹海峡采取重大行动,伊朗将以“自身实力”应对相关威胁

伊朗:不接受临时停火,而是要求全面结束战争;伊朗武装部队称正在霍尔木兹海峡采取重大行动,伊朗将以“自身实力”应对相关威胁

大风新闻
2026-03-22 14:39:02
哈梅内伊心腹被斩首,伊朗报仇不隔夜,集束导弹灌顶轰炸以色列

哈梅内伊心腹被斩首,伊朗报仇不隔夜,集束导弹灌顶轰炸以色列

空天力量
2026-03-21 19:09:26
特朗普:48小时内开放霍尔木兹海峡!伊朗回应

特朗普:48小时内开放霍尔木兹海峡!伊朗回应

新浪财经
2026-03-22 12:18:56
震惊!建议尽快刹住所谓“宠物经济”这股歪风邪气!评论区沸腾了

震惊!建议尽快刹住所谓“宠物经济”这股歪风邪气!评论区沸腾了

火山詩话
2026-03-22 12:27:20
杜兰特生涯总得分超越乔丹 比乔丹少用2357次出手

杜兰特生涯总得分超越乔丹 比乔丹少用2357次出手

体坛周报
2026-03-22 12:35:17
“惨案”:伊朗命中以色列核工业城,造成200多人伤亡!

“惨案”:伊朗命中以色列核工业城,造成200多人伤亡!

胜研集
2026-03-22 08:09:41
苹果2TB 产品仅1498 元,真的离谱啊

苹果2TB 产品仅1498 元,真的离谱啊

科技堡垒
2026-03-22 11:21:01
决战温布利!阿森纳曼城争冠:哈兰德欲破0球魔咒 师徒对决

决战温布利!阿森纳曼城争冠:哈兰德欲破0球魔咒 师徒对决

叶青足球世界
2026-03-22 11:48:40
上海出了一家水变油的“科技”公司?财联社还帮忙宣传,全是一伙诈骗犯

上海出了一家水变油的“科技”公司?财联社还帮忙宣传,全是一伙诈骗犯

回旋镖
2026-03-22 10:31:37
穆里尼奥真的是欲哭无泪,本菲卡27轮不败却依然落后榜首4分!

穆里尼奥真的是欲哭无泪,本菲卡27轮不败却依然落后榜首4分!

田先生篮球
2026-03-22 11:18:58
强烈呼吁日本:给卸任首相涨点退休金,太丢人了,连保姆都雇不起

强烈呼吁日本:给卸任首相涨点退休金,太丢人了,连保姆都雇不起

雪中风车
2026-03-22 08:51:54
蹭饭260次后续:庞先生已后悔,发视频道歉,4S店态度坚决不和解

蹭饭260次后续:庞先生已后悔,发视频道歉,4S店态度坚决不和解

奇思妙想草叶君
2026-03-21 19:57:27
干饭人的“天”真的塌了,顾客吃牛蛙天花板掉出一条人腿,店家:楼上装修导致,掉下来的员工没事

干饭人的“天”真的塌了,顾客吃牛蛙天花板掉出一条人腿,店家:楼上装修导致,掉下来的员工没事

环球网资讯
2026-03-22 14:10:21
几十个家庭垄断一座城:县城婆罗门的闭环游戏,正在逼走年轻人

几十个家庭垄断一座城:县城婆罗门的闭环游戏,正在逼走年轻人

黑噪音
2026-03-21 19:33:08
确认离队!杜锋没有随队前往上海客场,广东男篮有望更换主教练?

确认离队!杜锋没有随队前往上海客场,广东男篮有望更换主教练?

绯雨儿
2026-03-22 14:50:35
伊朗用霍尔木兹海峡威胁全世界能源安全!特朗普要求48小时内必须开放,否则轰炸伊朗重要设施

伊朗用霍尔木兹海峡威胁全世界能源安全!特朗普要求48小时内必须开放,否则轰炸伊朗重要设施

爆角追踪
2026-03-22 10:20:59
女教师卖自拍淫秽视频获利24万,将自己裸体视频与和他人的性爱视频通过发送链接,出售给他人观看

女教师卖自拍淫秽视频获利24万,将自己裸体视频与和他人的性爱视频通过发送链接,出售给他人观看

观威海
2026-03-22 07:59:02
以色列经历“艰难一夜” 美伊互放狠话

以色列经历“艰难一夜” 美伊互放狠话

新华社
2026-03-22 15:52:02
加兰41+11加盟新高!快船加时灭独行侠 小卡34分大洛破18000分

加兰41+11加盟新高!快船加时灭独行侠 小卡34分大洛破18000分

醉卧浮生
2026-03-22 11:10:28
2026-03-22 17:55:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12555文章数 142590关注度
往期回顾 全部

科技要闻

嫌台积电太慢 马斯克要把芯片产能飙升50倍

头条要闻

以色列拦截伊朗导弹失败 内塔尼亚胡:非常艰难的一晚

头条要闻

以色列拦截伊朗导弹失败 内塔尼亚胡:非常艰难的一晚

体育要闻

郑钦文连续迎战大满贯冠军 “双教练”团队正式亮相

娱乐要闻

今晚首播!央视年代剧《冬去春来》来了

财经要闻

睡梦中欠债1.2万?这只“虾”杀疯了

汽车要闻

14.28万元起 吉利银河星耀8远航家开启预售

态度原创

房产
健康
艺术
教育
军事航空

房产要闻

全城狂送1000杯咖啡!网易房产【早C计划】,即刻启动!

转头就晕的耳石症,能开车上班吗?

艺术要闻

国内仅存的颜真卿墨迹,没见过比它更美的字

教育要闻

不补课还成绩拔尖的孩子,靠的不是智商,而是赢在了这一点

军事要闻

伊导弹击中以核设施附近 爆炸视频公布

无障碍浏览 进入关怀版