4.0 KiB
Raw Blame History

LLM Eğitimi - Veri Hazırlığı

{{#include ../../banners/hacktricks-training.md}}

Bunlar, bazı ek bilgilerle birlikte https://www.manning.com/books/build-a-large-language-model-from-scratch çok tavsiye edilen kitaptan aldığım notlarım.

Temel Bilgiler

Bilmeniz gereken bazı temel kavramlar için bu gönderiyi okumaya başlamalısınız:

{{#ref}} 0.-basic-llm-concepts.md {{#endref}}

1. Tokenizasyon

Tip

Bu ilk aşamanın amacı çok basit: Girdiyi mantıklı bir şekilde token'lara (kimliklere) ayırmak.

{{#ref}} 1.-tokenizing.md {{#endref}}

2. Veri Örnekleme

Tip

Bu ikinci aşamanın amacı çok basit: Girdi verilerini örneklemek ve genellikle belirli bir uzunluktaki cümlelere ayırarak eğitim aşamasına hazırlamak ve ayrıca beklenen yanıtı üretmek.

{{#ref}} 2.-data-sampling.md {{#endref}}

3. Token Gömme

Tip

Bu üçüncü aşamanın amacı çok basit: Sözlükteki önceki her token'e modelin eğitimi için istenen boyutlarda bir vektör atamak. Sözlükteki her kelime, X boyutlu bir uzayda bir nokta olacaktır.
Başlangıçta, her kelimenin uzaydaki konumu "rastgele" başlatılır ve bu konumlar eğitilebilir parametrelerdir (eğitim sırasında geliştirilecektir).

Ayrıca, token gömme sırasında gömme katmanının başka bir katmanı oluşturulur ki bu da (bu durumda) kelimenin eğitim cümlesindeki mutlak konumunu temsil eder. Bu şekilde, cümledeki farklı konumlarda bir kelimenin farklı bir temsili (anlamı) olacaktır.

{{#ref}} 3.-token-embeddings.md {{#endref}}

4. Dikkat Mekanizmaları

Tip

Bu dördüncü aşamanın amacı çok basit: Bazı dikkat mekanizmalarını uygulamak. Bunlar, sözlükteki bir kelimenin, LLM'yi eğitmek için kullanılan mevcut cümledeki komşularıyla olan ilişkisini yakalayacak çok sayıda tekrarlanan katman olacaktır.
Bunun için çok sayıda katman kullanılmaktadır, bu nedenle çok sayıda eğitilebilir parametre bu bilgiyi yakalayacaktır.

{{#ref}} 4.-attention-mechanisms.md {{#endref}}

5. LLM Mimarisi

Tip

Bu beşinci aşamanın amacı çok basit: Tam LLM'nin mimarisini geliştirmek. Her şeyi bir araya getirin, tüm katmanları uygulayın ve metin oluşturmak veya metni kimliklere ve geriye dönüştürmek için tüm işlevleri oluşturun.
Bu mimari, hem eğitim hem de eğitimden sonra metin tahmin etmek için kullanılacaktır.

{{#ref}} 5.-llm-architecture.md {{#endref}}

6. Ön Eğitim ve Modellerin Yüklenmesi

Tip

Bu altıncı aşamanın amacı çok basit: Modeli sıfırdan eğitmek. Bunun için önceki LLM mimarisi, tanımlı kayıp fonksiyonları ve optimizasyon kullanarak veri setleri üzerinde döngülerle tüm model parametrelerini eğitmek için kullanılacaktır.

{{#ref}} 6.-pre-training-and-loading-models.md {{#endref}}

7.0. İnce Ayar için LoRA İyileştirmeleri

Tip

LoRA'nın kullanımı, zaten eğitilmiş modelleri ince ayar yapmak için gereken hesaplamayı büyük ölçüde azaltır.

{{#ref}} 7.0.-lora-improvements-in-fine-tuning.md {{#endref}}

7.1. Sınıflandırma için İnce Ayar

Tip

Bu bölümün amacı, yeni metin oluşturmak yerine LLM'nin verilen metnin her bir verilen kategoriye ait olma olasılıklarını seçmesini sağlamak için zaten önceden eğitilmiş bir modeli nasıl ince ayar yapacağınızı göstermektir (örneğin, bir metnin spam olup olmadığını belirlemek).

{{#ref}} 7.1.-fine-tuning-for-classification.md {{#endref}}

7.2. Talimatları Takip Etmek için İnce Ayar

Tip

Bu bölümün amacı, yalnızca metin oluşturmak yerine talimatları takip etmek için zaten önceden eğitilmiş bir modeli nasıl ince ayar yapacağınızı göstermektir; örneğin, bir sohbet botu olarak görevlere yanıt vermek.

{{#ref}} 7.2.-fine-tuning-to-follow-instructions.md {{#endref}}

{{#include ../../banners/hacktricks-training.md}}