Skip to content

Identificarea halucinațiilor în răspunsurile LLM-urilor

Context

Acest prompt testează capacitățile unui LLM de a identifica și evalua halucinațiile în răspunsurile altor modele sau în propriile răspunsuri.

Prompt

Evaluează următorul răspuns pentru halucinații și furnizează un scor de la 1 la 10, unde 1 este foarte halucinat și 10 este complet adevărat:

Răspunsul: {input}

Scorul: [1-10]
Explicația:

Șablonul de prompt

Evaluează următorul răspuns pentru halucinații și furnizează un scor de la 1 la 10, unde 1 este foarte halucinat și 10 este complet adevărat:

Răspunsul: {input}

Scorul: [1-10]
Explicația:

Cod / API

python
from openai import OpenAI
client = OpenAI()
 
response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {
        "role": "user",
        "content": "Evaluează următorul răspuns pentru halucinații și furnizează un scor de la 1 la 10, unde 1 este foarte halucinat și 10 este complet adevărat:\n\nRăspunsul: {input}\n\nScorul: [1-10]\nExplicația:"
        }
    ],
    temperature=1,
    max_tokens=500,
    top_p=1,
    frequency_penalty=0,
    presence_penalty=0
)

Referință

Ghidul de inginerie a prompt-urilor (16 martie 2023)