Course Content
Mastering Zero-Shot & Few-Shot Prompting in LLMs

📘 Pre-training और Fine-tuning का अंतर


🔰 परिचय

किसी भी Large Language Model (LLM) की शक्ति का मूल स्रोत है — उसका Training Process, जो मुख्यतः दो चरणों में होता है:

  1. Pre-training (पूर्व-प्रशिक्षण)

  2. Fine-tuning (सूक्ष्म-प्रशिक्षण)

यह दोनों चरण मिलकर मॉडल को General Language Understanding से लेकर Specific Task Execution तक सक्षम बनाते हैं।

इस अध्याय में हम इन दोनों प्रक्रियाओं को गहराई से समझेंगे।


🔍 Pre-training क्या होता है?

✳️ परिभाषा

Pre-training वह प्राथमिक चरण होता है जिसमें मॉडल को विशाल मात्रा में Internet-scale Text Data पर अनसुपरवाइज्ड तरीके से प्रशिक्षित किया जाता है।

🧠 उद्देश्य

“Model को General Language Structure, Syntax, Grammar, और Basic World Knowledge सिखाना।”

🧰 उपयोग किया गया डेटा

  • Wikipedia

  • Common Crawl (Web Pages)

  • BooksCorpus

  • Code Datasets (जैसे: GitHub)

  • Social Media Text (संभवतः)

🔄 प्रक्रिया का स्वरूप

  • Model को कोई बड़ा text passage दिया जाता है

  • Model को बताया नहीं जाता कि Text किस Task से जुड़ा है

  • Model केवल यही सीखता है कि “अगला शब्द क्या हो सकता है?”

🧮 उदाहरण:

Input: "The capital of France is"
Target: "Paris"

✅ फायदे

  • विशाल सामान्य ज्ञान का अर्जन

  • Grammar, Structure और Idioms की समझ

  • Language Generation में सशक्त आधार


🔧 Fine-tuning क्या होता है?

✳️ परिभाषा

Fine-tuning वह द्वितीय चरण होता है जिसमें पहले से Pre-trained मॉडल को विशेष कार्यों (Tasks) के लिए सटीक रूप से प्रशिक्षित किया जाता है।

🎯 उद्देश्य

“Model को Task-specific व्यवहार सिखाना, जैसे कि Summarization, Translation, Q&A, Chatbot Behavior आदि।”

🧰 उपयोग किया गया डेटा

  • Labeled Data (जैसे: प्रश्न और उत्तर का सही जोड़ा)

  • Instruction-following Data (Prompt + Ideal Response)

  • Human Feedback Data (RLHF)

  • Domain-specific Data (जैसे: मेडिकल, लीगल टेक्स्ट)

🧮 उदाहरण:

Input Prompt: "Summarize the following text: [Text Passage]"
Fine-tuned Output: Concise Summary

✅ फायदे

  • विशेष कार्यों में सटीकता और दक्षता

  • यूज़र-फ्रेंडली Output देने की क्षमता

  • Real-world deployment में उपयोगी


⚖️ Pre-training vs Fine-tuning: तुलना तालिका

विशेषता Pre-training Fine-tuning
उद्देश्य सामान्य भाषा ज्ञान अर्जन कार्य-विशिष्ट सिखावन
डेटा प्रकार विशाल, अनलेबल्ड डेटा लघु, लेबल्ड/निर्देशित डेटा
व्यवहार Language Prediction Task Completion
लागत अत्यधिक GPU संसाधन तुलनात्मक रूप से कम
मॉडल का विकास चरण प्राथमिक द्वितीयक
आउटपुट Generic Controlled / Optimized

🧠 Advanced Example: GPT Series

मॉडल केवल Pre-trained Fine-tuned उपयोग
GPT-2 Raw Text Generation
GPT-3 ✅ (Few variants) API Responses
ChatGPT (GPT-3.5/4) ✅ (Instruction tuned + RLHF) Dialog/chat applications
Claude, Gemini, LLaMA-3 Custom task handling

📎 Fine-tuning के अन्य रूप

Technique विवरण
Instruction Tuning Model को इंस्ट्रक्शन को समझना सिखाया जाता है
Reinforcement Learning with Human Feedback (RLHF) Human-preferred output के आधार पर Model को ट्यून किया जाता है
Adapters / LoRA Fine-tuning Lightweight तरीके से कुछ ही parameters को ट्यून किया जाता है
Domain Adaptation Model को विशिष्ट domain data पर fine-tune करना

🧠 Key Takeaways

  • Pre-training: General language skills की नींव रखता है

  • Fine-tuning: उस नींव को task-specific उपयोग में बदलता है

  • दोनों प्रक्रियाएं मिलकर एक स्मार्ट और उपयोगी LLM बनाती हैं

  • Instruction-following, Summarization, Chat आदि के लिए Fine-tuning आवश्यक है

  • LLMs का व्यवहार Fine-tuning की गुणवत्ता पर बहुत निर्भर करता है

0% Complete