Ingineria prompturilor ChatGPT
Prezentare generală
În această secțiune, acoperim cele mai recente tehnici de inginerie prompturi pentru ChatGPT, inclusiv sfaturi, aplicații, limitări, lucrări și materiale suplimentare de citire.
Subiecte
- Introducerea ChatGPT
- Revizuirea sarcinii de conversație
- Conversațiile cu ChatGPT
- Instruirea modelelor de chat
- Notebook-uri
- Referințe
Introducerea ChatGPT
ChatGPT este un model nou antrenat de OpenAI care are capacitatea de a interacționa într-un mod conversațional. Acest model este antrenat să urmeze instrucțiunile dintr-un prompt pentru a furniza răspunsuri adecvate în contextul unui dialog. ChatGPT poate ajuta cu:
- Răspunsuri la întrebări
- Sugestii de rețete
- Scrierea de versuri într-un anumit stil
- Generarea de cod
- Și multe altele
Antrenamentul și capacitățile
ChatGPT este antrenat folosind Învățarea prin întărire din feedback-ul uman (RLHF). Deși acest model este mult mai capabil decât iterațiile anterioare GPT (și este, de asemenea, antrenat să reducă outputurile dăunătoare și neadevărate), încă vine cu limitări.
Accesul și utilizarea
Puteți folosi previzualizarea de cercetare ChatGPT aici, dar pentru exemplele de mai jos vom folosi modul Chat din OpenAI Playground.
Revizuirea sarcinii de conversație
Într-unul dintre ghidurile anterioare, am acoperit puțin despre capacitățile de conversație și promptarea rolului. Am acoperit cum să instruim LLM-ul să aibă o conversație într-un stil specific, cu o intenție, comportament și identitate specifice.
Exemplu de bază
Să revizuim exemplul nostru anterior de bază unde am creat un sistem conversațional capabil să genereze răspunsuri mai tehnice și științifice la întrebări.
Prompt:
Următoarea este o conversație cu un asistent de cercetare AI. Tonul asistentului este tehnic și științific.
Uman: Salut, cine ești?
AI: Salutare! Sunt un asistent de cercetare AI. Cum te pot ajuta astăzi?
Uman: Poți să-mi spui despre crearea găurilor negre?
AI:Componente cheie
Din exemplul de mai sus, puteți vedea două componente importante:
- Intenția sau explicația: Ce este chatbot-ul
- Identitatea: Instruiește stilul sau tonul pe care chatbot-ul îl va folosi pentru a răspunde
Evoluția modelului
Exemplul simplu de mai sus funcționează bine cu API-urile de completare text care folosesc text-davinci-003. Mai recent, OpenAI a anunțat API-urile ChatGPT, care este un model mai puternic și mai ieftin numit gpt-3.5-turbo construit specific pentru acest tip de funcționalitate (completări de chat).
De fapt, OpenAI recomandă acesta ca cel mai bun model al lor, chiar și pentru cazuri de utilizare non-chat. Alte beneficii ale folosirii API-urilor ChatGPT sunt:
- Reducerea semnificativă a costurilor: 90% economii de costuri
- Eficiența îmbunătățită: Performanță și capacități mai bune
Adopția în industrie
Marile companii precum Snap Inc. și Instacart integrează deja funcții conversaționale alimentate de ChatGPT pe produsele lor care variază de la recomandări personalizate la obiective de cumpărare deschise.
Conversațiile cu ChatGPT
Conversații multi-turn
Pentru a începe să demonstrăm capacitățile ChatGPT, vom folosi exemplul asistentului chatbot de mai sus și vom discuta rezultatele. Comparat cu text-davinci-003, modelul gpt-3.5-turbo care alimentează ChatGPT folosește un format de chat ca input. Modelul așteaptă o serie de mesaje ca input și le folosește pe acestea pentru a genera un răspuns.
Input:
SYSTEM: Ești un asistent de cercetare AI. Folosești un ton care este tehnic și științific.
USER: Salut, cine ești?
ASSISTANT: Salutare! Sunt un asistent de cercetare AI. Cum te pot ajuta astăzi?
USER: Poți să-mi spui despre crearea găurilor negre?Output:
ASSISTANT: Desigur! Găurile negre se creează când o stea masivă rămâne fără combustibil și se prăbușește sub propria sa gravitație. Această prăbușire face ca steaua să devină incredibil de densă, cu un câmp gravitațional atât de puternic încât nici măcar lumina nu poate să scape. Acest punct fără întoarcere este cunoscut ca orizontul evenimentelor. Odată ce o stea traversează orizontul evenimentelor, este considerată o gaură neagră...Notă: În exemplul de mai sus, am simplificat inputul și outputul, dar API-ul de completare chat ChatGPT necesită ca mesajele să fie într-un format specific. Am adăugat o captură de ecran mai jos despre cum ar arăta acest exemplu folosind modul Chat din OpenAI Playground:
CHATGPT1
Implementarea API
Apelul API mai formal pentru exemplul nostru ar arăta cam așa:
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "Ești un asistent de cercetare AI. Folosești un ton care este tehnic și științific."},
{"role": "user", "content": "Salut, cine ești?"},
{"role": "assistant", "content": "Salutare! Sunt un asistent de cercetare AI. Cum te pot ajuta astăzi?"},
{"role": "user", "content": "Poți să-mi spui despre crearea găurilor negre?"}
]
)Limbajul de marcare pentru chat
De fapt, modul în care dezvoltatorii vor interacționa cu ChatGPT în viitor se așteaptă să fie realizat prin Limbajul de marcare pentru chat (ChatML pentru scurt).
Sarcini single-turn
Formatul de chat permite conversații multi-turn, dar suportă și sarcini single-turn similare cu ceea ce am folosit cu text-davinci-003. Aceasta înseamnă că putem folosi ChatGPT pentru a executa sarcini similare cu ceea ce am demonstrat pentru modelele GPT originale.
De exemplu, să încercăm să executăm următoarea sarcină de răspuns la întrebări folosind ChatGPT:
Input:
USER: Răspunde la întrebare bazându-te pe contextul de mai jos. Păstrează răspunsul scurt și concis. Răspunde "Nu sunt sigur despre răspuns" dacă nu ești sigur despre răspuns.
Context: Teplizumab își are rădăcinile într-o companie farmaceutică din New Jersey numită Ortho Pharmaceutical. Acolo, oamenii de știință au generat o versiune timpurie a anticorpului, numită OKT3. Originar din șoareci, molecula era capabilă să se lege de suprafața celulelor T și să-și limiteze potențialul de ucidere a celulelor. În 1986, a fost aprobat pentru a ajuta la prevenirea respingerii organelor după transplanturile de rinichi, făcându-l primul anticorp terapeutic permis pentru uz uman.
Întrebare: Din ce era originar OKT3?
Răspuns:Output:
ASSISTANT: Șoareci.Notă: Rețineți că adaug etichetele USER și ASSISTANT pentru a demonstra mai bine cum poate fi executată sarcina folosind ChatGPT. Iată exemplul folosind Playground-ul:
CHATGPTCLASSIC
Apelul API formal
Mai formal, acesta este apelul API (am inclus doar componenta de mesaj a cererii):
CONTENT = """Răspunde la întrebare bazându-te pe contextul de mai jos. Păstrează răspunsul scurt și concis. Răspunde "Nu sunt sigur despre răspuns" dacă nu ești sigur despre răspuns.
Context: Teplizumab își are rădăcinile într-o companie farmaceutică din New Jersey numită Ortho Pharmaceutical. Acolo, oamenii de știință au generat o versiune timpurie a anticorpului, numită OKT3. Originar din șoareci, molecula era capabilă să se lege de suprafața celulelor T și să-și limiteze potențialul de ucidere a celulelor. În 1986, a fost aprobat pentru a ajuta la prevenirea respingerii organelor după transplanturile de rinichi, făcându-l primul anticorp terapeutic permis pentru uz uman.
Întrebare: Din ce era originar OKT3?
Răspuns:
"""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "user", "content": CONTENT},
],
temperature=0,
)Instruirea modelelor de chat
Conform documentației oficiale OpenAI, snapshot-urile modelului gpt-3.5-turbo vor fi, de asemenea, disponibile. De exemplu, putem accesa snapshot-ul din 1 martie gpt-3.5-turbo-0301. Aceasta permite dezvoltatorilor să opteze pentru versiuni specifice ale modelului.
Aceasta înseamnă, de asemenea, că cele mai bune practici pentru instruirea modelelor se pot schimba de la o versiune la alta.
Recomandările actuale
Recomandarea actuală pentru gpt-3.5-turbo-0301 este să adaugi instrucțiuni în mesajul utilizatorului în loc de mesajul de sistem disponibil.
Notebook-uri
Iată un notebook pentru a afla mai multe despre cum să faci apeluri la API-urile ChatGPT folosind biblioteca oficială openai:
Referințe
Lucrări de cercetare recente
- Column Type Annotation using ChatGPT (Iunie 2023)
- Enhancing Programming eTextbooks with ChatGPT Generated Counterfactual-Thinking-Inspired Questions (Iunie 2023)
- ChatGPT an ENFJ, Bard an ISTJ: Empirical Study on Personalities of Large Language Models (Mai 2023)
- A Systematic Study and Comprehensive Evaluation of ChatGPT on Benchmark Datasets (Mai 2023)
- Chatbots put to the test in math and logic problems: A preliminary comparison and assessment of ChatGPT-3.5, ChatGPT-4, and Google Bard (Mai 2023)
- GPT Models in Construction Industry: Opportunities, Limitations, and a Use Case Validation (Mai 2023)
- Fairness of ChatGPT (Mai 2023)
- Mapping ChatGPT in Mainstream Media: Early Quantitative Insights through Sentiment Analysis and Word Frequency Analysis (Mai 2023)
- A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions (Mai 2023)
- Do Language Models Know When They're Hallucinating References? (Mai 2023)
- [HowkGPT: Investigating the Detection of ChatGPT-generated University Student Homework through Context-Aware Perplexity Analysis]
- Playing repeated games with Large Language Models (Mai 2023)
- Zero is Not Hero Yet: Benchmarking Zero-Shot Performance of LLMs for Financial Tasks (Mai 2023)
- Leveraging LLMs for KPIs Retrieval from Hybrid Long-Document: A Comprehensive Framework and Dataset (Mai 2023)
- Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models (Mai 2023)
- The Larger They Are, the Harder They Fail: Language Models do not Recognize Identifier Swaps in Python (Mai 2023)
- InternGPT: Solving Vision-Centric Tasks by Interacting with ChatGPT Beyond Language (Mai 2023)
- Narrative XL: A Large-scale Dataset For Long-Term Memory Models (Mai 2023)
- Does ChatGPT have Theory of Mind? (Mai 2023)
- Can LLM Already Serve as A Database Interface? A BIg Bench for Large-Scale Database Grounded Text-to-SQLs (Mai 2023)
- ZeroSCROLLS: A Zero-Shot Benchmark for Long Text Understanding (Mai 2023)
- Navigating Prompt Complexity for Zero-Shot Classification: A Study of Large Language Models in Computational Social Science (Mai 2023)
- ChatGPT-EDSS: Empathetic Dialogue Speech Synthesis Trained from ChatGPT-derived Context Word Embeddings (Mai 2023)
- Can LLMs facilitate interpretation of pre-trained language models? (Mai 2023)
- Can ChatGPT Detect Intent? Evaluating Large Language Models for Spoken Language Understanding (Mai 2023)
- LLM-empowered Chatbots for Psychiatrist and Patient Simulation: Application and Evaluation (Mai 2023)
- ChatGPT as your Personal Data Scientist (Mai 2023)
- Are Large Language Models Good Evaluators for Abstractive Summarization? (Mai 2023)
- Can ChatGPT Defend the Truth? Automatic Dialectical Evaluation Elicits LLMs' Deficiencies in Reasoning (Mai 2023)
- Evaluating ChatGPT's Performance for Multilingual and Emoji-based Hate Speech Detection (Mai 2023)
- ChatGPT to Replace Crowdsourcing of Paraphrases for Intent Classification: Higher Diversity and Comparable Model Robustness (Mai 2023)
- Distilling ChatGPT for Explainable Automated Student Answer Assessment (Mai 2023)
- Prompt ChatGPT In MNER: Improved multimodal named entity recognition method based on auxiliary refining knowledge from ChatGPT (Mai 2023)
- ChatGPT Is More Likely to Be Perceived as Male Than Female (Mai 2023)
- Observations on LLMs for Telecom Domain: Capabilities and Limitations (Mai 2023)
- Bits of Grass: Does GPT already know how to write like Whitman? (Mai 2023)
- Are Large Language Models Fit For Guided Reading? (Mai 2023)
- ChatGPT Perpetuates Gender Bias in Machine Translation and Ignores Non-Gendered Pronouns: Findings across Bengali and Five other Low-Resource Languages (Mai 2023)
- BAD: BiAs Detection for Large Language Models in the context of candidate screening (Mai 2023)
- MemoryBank: Enhancing Large Language Models with Long-Term Memory (Mai 2023)
- Knowledge Graph Completion Models are Few-shot Learners: An Empirical Study of Relation Labeling in E-commerce with LLMs (Mai 2023)
- A Preliminary Analysis on the Code Generation Capabilities of GPT-3.5 and Bard AI Models for Java Functions (Mai 2023)
- ChatGPT-4 Outperforms Experts and Crowd Workers in Annotating Political Twitter Messages with Zero-Shot Learning (Aprilie 2023)
- ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large Language Models in Multilingual Learning (Aprilie 2023)
- Distinguishing ChatGPT(-3.5, -4)-generated and human-written papers through Japanese stylometric analysis (Aprilie 2023)
- Zero-shot Temporal Relation Extraction with ChatGPT (Aprilie 2023)
- Can ChatGPT and Bard Generate Aligned Assessment Items? A Reliability Analysis against Human Performance (Aprilie 2023)
- Are Large Language Models Ready for Healthcare? A Comparative Study on Clinical Language Understanding (Aprilie 2023)
- The Wall Street Neophyte: A Zero-Shot Analysis of ChatGPT Over MultiModal Stock Movement Prediction Challenges (Aprilie 2023)
- Toxicity in ChatGPT: Analyzing Persona-assigned Language Models (Aprilie 2023)
- Multi-step Jailbreaking Privacy Attacks on ChatGPT (Aprilie 2023)
- Is ChatGPT a Good Sentiment Analyzer? A Preliminary Study (Aprilie 2023)
- A Preliminary Evaluation of ChatGPT for Zero-shot Dialogue Understanding (Aprilie 2023)
- Extractive Summarization via ChatGPT for Faithful Summary Generation (Aprilie 2023)
- What does ChatGPT return about human values? Exploring value bias in ChatGPT using a descriptive value theory (Aprilie 2023)
- On the Evaluations of ChatGPT and Emotion-enhanced Prompting for Mental Health Analysis (Aprilie 2023)
- ChatGPT-Crawler: Find out if ChatGPT really knows what it's talking about (Aprilie 2023)
- Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models (Aprilie 2023)
- Synthesis of Mathematical programs from Natural Language Specifications (Aprilie 2023)
- Large language models effectively leverage document-level context for literary translation, but critical errors persist (Aprilie 2023)
- Investigating Chain-of-thought with ChatGPT for Stance Detection on Social Media (Aprilie 2023)
- ChatGPT for Shaping the Future of Dentistry: The Potential of Multi-Modal Large Language Model (Aprilie 2023)
- Can Large Language Models Play Text Games Well? Current State-of-the-Art and Open Questions (Aprilie 2023)
- Human-like Summarization Evaluation with ChatGPT (Aprilie 2023)
- Evaluation of ChatGPT Family of Models for Biomedical Reasoning and Classification (Aprilie 2023)
- Comparative Analysis of CHATGPT and the evolution of language models (Aprilie 2023)
- Unleashing the Power of ChatGPT for Translation: An Empirical Study (Aprilie 2023)
- Geotechnical Parrot Tales (GPT): Overcoming GPT hallucinations with prompt engineering for geotechnical applications (Aprilie 2023)
- Unlocking the Potential of ChatGPT: A Comprehensive Exploration of its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing (Aprilie 2023)
- Summary of ChatGPT/GPT-4 Research and Perspective Towards the Future of Large Language Models (Aprilie 2023)
- Is ChatGPT a Highly Fluent Grammatical Error Correction System? A Comprehensive Evaluation (Aprilie 2023)
- Safety Analysis in the Era of Large Language Models: A Case Study of STPA using ChatGPT (Aprilie 2023)
- Large language models can rate news outlet credibility (Aprilie 2023)
- Can AI Chatbots Pass the Fundamentals of Engineering (FE) and Principles and Practice of Engineering (PE) Structural Exams? (Aprilie 2023)
- Can AI Put Gamma-Ray Astrophysicists Out of a Job? (Martie 2023)
- Comparing Abstractive Summaries Generated by ChatGPT to Real Summaries Through Blinded Reviewers and Text Classification Algorithms (Martie 2023)
- HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace (Martie 2023)
- SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models (Martie 2023)
- WavCaps: A ChatGPT-Assisted Weakly-Labelled Audio Captioning Dataset for Audio-Language Multimodal Research (Martie 2023)
- How well do Large Language Models perform in Arithmetic tasks? (Martie 2023)
- Assessing Cross-Cultural Alignment between ChatGPT and Human Societies: An Empirical Study (Martie 2023)
- Yes but.. Can ChatGPT Identify Entities in Historical Documents? (Martie 2023)
- Evaluation of ChatGPT for NLP-based Mental Health Applications (Martie 2023)
- A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube (Martie 2023)
- ChatGPT or academic scientist? Distinguishing authorship with over 99% accuracy using off-the-shelf machine learning tools (Martie 2023)
- Zero-shot Clinical Entity Recognition using ChatGPT (Martie 2023)
- ChatGPT is a Knowledgeable but Inexperienced Solver: An Investigation of Commonsense Problem in Large Language Models (Martie 2023)
- ChatGPT4PCG Competition: Character-like Level Generation for Science Birds (Martie 2023)
- ChatGPT as a Factual Inconsistency Evaluator for Abstractive Text Summarization (Martie 2023)
- Chat-REC: Towards Interactive and Explainable LLMs-Augmented Recommender System (Martie 2023)
- A comprehensive evaluation of ChatGPT's zero-shot Text-to-SQL capability (Martie 2023)
- Towards Making the Most of ChatGPT for Machine Translation (Martie 2023)
- Error Analysis Prompting Enables Human-Like Translation Evaluation in Large Language Models: A Case Study on ChatGPT (Martie 2023)
- ChatGPT Outperforms Crowd-Workers for Text-Annotation Tasks (Martie 2023)
- ChatGPT or Grammarly? Evaluating ChatGPT on Grammatical Error Correction Benchmark (Martie 2023)
- ChatGPT and a New Academic Reality: AI-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing (Martie 2023)
- Are LLMs the Master of All Trades? : Exploring Domain-Agnostic Reasoning Skills of LLMs (Martie 2023)
- Is ChatGPT A Good Keyphrase Generator? A Preliminary Study (Martie 2023)
- MM-REACT: Prompting ChatGPT for Multimodal Reasoning and Action (Martie 2023)
- Large Language Models Can Be Used to Estimate the Ideologies of Politicians in a Zero-Shot Learning Setting (Martie 2023)
- Chinese Intermediate English Learners outdid ChatGPT in deep cohesion: Evidence from English narrative writing (Martie 2023)
- A Comprehensive Capability Analysis of GPT-3 and GPT-3.5 Series Models (Martie 2023)
- ChatGPT as the Transportation Equity Information Source for Scientific Writing (Martie 2023)
- Translating Radiology Reports into Plain Language using ChatGPT and GPT-4 with Prompt Learning: Promising Results, Limitations, and Potential (Martie 2023)
- ChatGPT Participates in a Computer Science Exam (Martie 2023)
- Consistency Analysis of ChatGPT (Martie 2023)
- Algorithmic Ghost in the Research Shell: Large Language Models and Academic Knowledge Creation in Management Research (Martie 2023)
- Large Language Models in the Workplace: A Case Study on Prompt Engineering for Job Type Classification (Martie 2023)
- Seeing ChatGPT Through Students' Eyes: An Analysis of TikTok Data (Martie 2023)
- Extracting Accurate Materials Data from Research Papers with Conversational Language Models and Prompt Engineering -- Example of ChatGPT (Martie 2023)
- ChatGPT is on the horizon: Could a large language model be all we need for Intelligent Transportation? (Martie 2023)
- Making a Computational Attorney (Martie 2023)
- Does Synthetic Data Generation of LLMs Help Clinical Text Mining? (Martie 2023)
- MenuCraft: Interactive Menu System Design with Large Language Models (Martie 2023)
- A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT (Martie 2023)
- Exploring the Feasibility of ChatGPT for Event Extraction
- ChatGPT: Beginning of an End of Manual Annotation? Use Case of Automatic Genre Identification (Martie 2023)
- Is ChatGPT a Good NLG Evaluator? A Preliminary Study (Martie 2023)
- Will Affective Computing Emerge from Foundation Models and General AI? A First Evaluation on ChatGPT (Martie 2023)
- UZH_CLyp at SemEval-2023 Task 9: Head-First Fine-Tuning and ChatGPT Data Generation for Cross-Lingual Learning in Tweet Intimacy Prediction (Martie 2023)
- How to format inputs to ChatGPT models (Martie 2023)
- Can ChatGPT Assess Human Personalities? A General Evaluation Framework (Martie 2023)
- Cross-Lingual Summarization via ChatGPT (Februarie 2023)
- ChatAug: Leveraging ChatGPT for Text Data Augmentation (Februarie 2023)
- Dr ChatGPT, tell me what I want to hear: How prompt knowledge impacts health answer correctness (Februarie 2023)
- An Independent Evaluation of ChatGPT on Mathematical Word Problems (MWP) (Februarie 2023)
- ChatGPT: A Meta-Analysis after 2.5 Months (Februarie 2023)
- Let's have a chat! A Conversation with ChatGPT: Technology, Applications, and Limitations (Februarie 2023)
- Check Your Facts and Try Again: Improving Large Language Models with External Knowledge and Automated Feedback (Februarie 2023)
- On the Robustness of ChatGPT: An Adversarial and Out-of-distribution Perspective (Februarie 2023)
- How Generative AI models such as ChatGPT can be (Mis)Used in SPC Practice, Education, and Research? An Exploratory Study (Februarie 2023)
- Can ChatGPT Understand Too? A Comparative Study on ChatGPT and Fine-tuned BERT (Februarie 2023)
- A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT (Februarie 2023)
- Zero-Shot Information Extraction via Chatting with ChatGPT (Februarie 2023)
- ChatGPT: Jack of all trades, master of none (Februarie 2023)
- A Pilot Evaluation of ChatGPT and DALL-E 2 on Decision Making and Spatial Reasoning (Februarie 2023)
- Netizens, Academicians, and Information Professionals' Opinions About AI With Special Reference To ChatGPT (Februarie 2023)
- Linguistic ambiguity analysis in ChatGPT (Februarie 2023)
- ChatGPT versus Traditional Question Answering for Knowledge Graphs: Current Status and Future Directions Towards Knowledge Graph Chatbots (Februarie 2023)
- What ChatGPT and generative AI mean for science (Februarie 2023)
- Applying BERT and ChatGPT for Sentiment Analysis of Lyme Disease in Scientific Literature (Februarie 2023)
- Exploring AI Ethics of ChatGPT: A Diagnostic Analysis (Ianuarie 2023)
- ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education (Ianuarie 2023)
- The political ideology of conversational AI: Converging evidence on ChatGPT's pro-environmental, left-libertarian orientation (Ianuarie 2023)
- Techniques to improve reliability - OpenAI Cookbook
- Awesome ChatGPT Prompts
- Introducing ChatGPT (Noiembrie 2022)
Învățăminte cheie
- ChatGPT folosește formatul de chat: Modelul așteaptă o serie de mesaje cu roluri (sistem, utilizator, asistent)
- Capacități multi-turn: Suportă atât conversații cât și sarcini single-turn
- Cost eficient: 90% reducere a costurilor comparat cu modelele anterioare
- Gata pentru industrie: Deja adoptat de companii majore
- Arhitectură flexibilă: Poate gestiona atât prompturi conversaționale cât și orientate pe sarcini
- Evoluție continuă: Snapshot-urile modelului permit optimizarea specifică versiunii
