From c8548e98a3eec830a37bca9f053c2f97a7699b0a Mon Sep 17 00:00:00 2001 From: Translator Date: Mon, 4 Aug 2025 12:30:51 +0000 Subject: [PATCH] Translated ['src/AI/AI-llm-architecture/2.-data-sampling.md'] to sr --- .../AI-llm-architecture/2.-data-sampling.md | 87 ++++++++++++++++--- 1 file changed, 74 insertions(+), 13 deletions(-) diff --git a/src/AI/AI-llm-architecture/2.-data-sampling.md b/src/AI/AI-llm-architecture/2.-data-sampling.md index 9aab8d635..a2f8f7556 100644 --- a/src/AI/AI-llm-architecture/2.-data-sampling.md +++ b/src/AI/AI-llm-architecture/2.-data-sampling.md @@ -1,30 +1,30 @@ -# 2. Uzorkovanje podataka +# 2. Uzorkovanje Podataka {{#include ../../banners/hacktricks-training.md}} -## **Uzorkovanje podataka** +## **Uzorkovanje Podataka** -**Uzorkovanje podataka** je ključni proces u pripremi podataka za obuku velikih jezičkih modela (LLM) poput GPT-a. Uključuje organizovanje tekstualnih podataka u ulazne i ciljne sekvence koje model koristi da nauči kako da predviđa sledeću reč (ili token) na osnovu prethodnih reči. Pravilno uzorkovanje podataka osigurava da model efikasno hvata jezičke obrasce i zavisnosti. +**Uzorkovanje Podataka** je ključni proces u pripremi podataka za obučavanje velikih jezičkih modela (LLM) poput GPT-a. Uključuje organizovanje tekstualnih podataka u ulazne i ciljne sekvence koje model koristi da nauči kako da predviđa sledeću reč (ili token) na osnovu prethodnih reči. Pravilno uzorkovanje podataka osigurava da model efikasno hvata jezičke obrasce i zavisnosti. > [!TIP] -> Cilj ove druge faze je vrlo jednostavan: **Uzorkujte ulazne podatke i pripremite ih za fazu obuke obično razdvajanjem skupa podataka na rečenice određene dužine i generisanjem očekivanog odgovora.** +> Cilj ove druge faze je vrlo jednostavan: **Uzorkujte ulazne podatke i pripremite ih za fazu obučavanja obično razdvajanjem skupa podataka na rečenice određene dužine i generisanjem očekivanog odgovora.** -### **Zašto je uzorkovanje podataka važno** +### **Zašto je Uzorkovanje Podataka Važno** -LLM-ovi kao što je GPT obučeni su da generišu ili predviđaju tekst razumevanjem konteksta koji pružaju prethodne reči. Da bi se to postiglo, obučeni podaci moraju biti strukturirani na način da model može naučiti odnos između sekvenci reči i njihovih sledećih reči. Ovaj strukturirani pristup omogućava modelu da generalizuje i generiše koherentan i kontekstualno relevantan tekst. +LLM-ovi kao što je GPT obučavaju se da generišu ili predviđaju tekst razumevanjem konteksta koji pružaju prethodne reči. Da bi se to postiglo, obučeni podaci moraju biti strukturirani na način da model može naučiti odnos između sekvenci reči i njihovih sledećih reči. Ovaj strukturirani pristup omogućava modelu da generalizuje i generiše koherentan i kontekstualno relevantan tekst. -### **Ključni koncepti u uzorkovanju podataka** +### **Ključni Koncepti u Uzorkovanju Podataka** 1. **Tokenizacija:** Razbijanje teksta na manje jedinice nazvane tokeni (npr. reči, podreči ili karakteri). -2. **Dužina sekvence (max_length):** Broj tokena u svakoj ulaznoj sekvenci. -3. **Klizni prozor:** Metoda za kreiranje preklapajućih ulaznih sekvenci pomeranjem prozora preko tokenizovanog teksta. +2. **Dužina Sekvence (max_length):** Broj tokena u svakoj ulaznoj sekvenci. +3. **Klizni Prozor:** Metod za kreiranje preklapajućih ulaznih sekvenci pomeranjem prozora preko tokenizovanog teksta. 4. **Korak:** Broj tokena koje klizni prozor pomera unapred da bi kreirao sledeću sekvencu. -### **Primer korak po korak** +### **Primer Korak po Korak** Hajde da prođemo kroz primer kako bismo ilustrovali uzorkovanje podataka. -**Primer teksta** +**Primer Teksta** ```arduino "Lorem ipsum dolor sit amet, consectetur adipiscing elit." ``` @@ -230,9 +230,70 @@ tensor([[ 367, 2885, 1464, 1807], [ 3285, 326, 11, 287]]) ] ``` -## Reference +## Napredne strategije uzorkovanja (2023-2025) -- [https://www.manning.com/books/build-a-large-language-model-from-scratch](https://www.manning.com/books/build-a-large-language-model-from-scratch) +### 1. Težinsko mešanje zasnovano na temperaturi +Najmoderniji LLM-ovi retko se obučavaju na jednom korpusu. Umesto toga, uzorkuju iz nekoliko heterogenih izvora podataka (kod, web, akademski radovi, forumi…). Relativni udeo svakog izvora može snažno uticati na performanse u nastavku. Nedavni modeli otvorenog koda kao što je Llama 2 uveli su **shemu uzorkovanja zasnovanu na temperaturi** gde verovatnoća izvlačenja dokumenta iz korpusa *i* postaje +``` +p(i) = \frac{w_i^{\alpha}}{\sum_j w_j^{\alpha}} +``` +• *wi* – sirovi procenat tokena korpusa *i* +• *α* ("temperatura") – vrednost u (0,1]. α < 1 izravnava distribuciju, dajući veću težinu manjim visokokvalitetnim korpusima. +Llama 2 je koristila α = 0.7 i pokazala da smanjenje α povećava ocene evaluacije na zadacima bogatim znanjem, dok stabilizuje mešavinu obuke. Ista taktika se koristi u Mistral (2023) i Claude 3. +```python +from collections import Counter + +def temperature_sample(corpus_ids, alpha=0.7): +counts = Counter(corpus_ids) # number of tokens seen per corpus +probs = {c: c_count**alpha for c, c_count in counts.items()} +Z = sum(probs.values()) +probs = {c: p/Z for c, p in probs.items()} +# Now draw according to probs to fill every batch +``` + +``` + +### 2. Sequence Packing / Dynamic Batching +GPU memory is wasted when every sequence in a batch is padded to the longest example. "Packing" concatenates multiple shorter sequences until the **exact** `max_length` is reached and builds a parallel `attention_mask` so that tokens do not attend across segment boundaries. Packing can improve throughput by 20–40 % with no gradient change and is supported out-of-the-box in + +* PyTorch `torchtext.experimental.agents.PackedBatch` +* HuggingFace `DataCollatorForLanguageModeling(pad_to_multiple_of=…)` + +Dynamic batching frameworks (e.g. FlashAttention 2, vLLM 2024) combine sequence packing with just-in-time kernel selection, enabling thousand-token context training at 400+ K tokens/s on A100-80G. + +### 3. Deduplication & Quality Filtering +Repeated passages cause memorization and provide an easy channel for data-poisoning. Modern pipelines therefore: + +1. MinHash/FAISS near-duplicate detection at **document** and **128-gram** level. +2. Filter documents whose perplexity under a small reference model is > µ + 3σ (noisy OCR, garbled HTML). +3. Block-list documents that contain PII or CWE keywords using regex & spaCy NER. + +The Llama 2 team deduplicated with 8-gram MinHash and removed ~15 % of CommonCrawl before sampling. OpenAI’s 2024 "Deduplicate Everything" paper demonstrates ≤0.04 duplicate ratio reduces over-fitting and speeds convergence. + +## Security & Privacy Considerations During Sampling + +### Data-Poisoning / Backdoor Attacks +Researchers showed that inserting <1 % backdoored sentences can make a model obey a hidden trigger ("PoisonGPT", 2023). Recommended mitigations: + +* **Shuffled mixing** – make sure adjacent training examples originate from different sources; this dilutes gradient alignment of malicious spans. +* **Gradient similarity scoring** – compute cosine similarity of example gradient to batch average; outliers are candidates for removal. +* **Dataset versioning & hashes** – freeze immutable tarballs and verify SHA-256 before each training run. + +### Membership-Inference & Memorization +Long overlap between sliding-window samples increases the chance that rare strings (telephone numbers, secret keys) are memorized. OpenAI’s 2024 study on ChatGPT memorization reports that raising stride from 1 × `max_length` to 4 × reduces verbatim leakage by ≈50 % with negligible loss in perplexity. + +Practical recommendations: + +* Use **stride ≥ max_length** except for <1B parameter models where data volume is scarce. +* Add random masking of 1-3 tokens per window during training; this lowers memorization while preserving utility. + +--- + +## References + +- [Build a Large Language Model from Scratch (Manning, 2024)](https://www.manning.com/books/build-a-large-language-model-from-scratch) +- [Llama 2: Open Foundation and Fine-Tuned Chat Models (2023)](https://arxiv.org/abs/2307.09288) +- [PoisonGPT: Assessing Backdoor Vulnerabilities in Large Language Models (BlackHat EU 2023)](https://arxiv.org/abs/2308.12364) {{#include ../../banners/hacktricks-training.md}}