Hugging Face Transformers¶
Hugging Face Transformers adalah pustaka yang menyediakan akses mudah ke ribuan model pre-trained untuk Natural Language Processing (NLP). Dengan Transformers, Anda dapat menjalankan berbagai tugas NLP hanya dengan beberapa baris kode.
Mengapa Transformers?¶
Mutakhir (state-of-the-art) - Model terbaik untuk berbagai tugas NLP
Pre-trained - Model sudah dilatih pada data besar, tinggal pakai
Mudah digunakan - API
pipelineyang sangat sederhanaModel Hub - Ribuan model dari komunitas global
Multibahasa - Banyak model mendukung berbagai bahasa
Instalasi¶
python -m pip install "transformers[torch]"
Atau jika menggunakan uv:
uv add transformers torch
Catatan
Contoh di materi ini menggunakan backend PyTorch. Model diunduh otomatis saat pertama digunakan dan disimpan di cache lokal (~/.cache/huggingface/).
Daftar Materi¶
Contoh Cepat¶
from transformers import pipeline
# Buat pipeline untuk analisis sentimen
classifier = pipeline(
"sentiment-analysis",
model="distilbert-base-uncased-finetuned-sst-2-english",
)
# Gunakan pipeline
result = classifier("I love learning about AI!")
print(result)
# [{'label': 'POSITIVE', 'score': 0.9998}]
Contoh NER¶
from transformers import pipeline
ner = pipeline("ner", aggregation_strategy="simple")
text = "Apple Inc. was founded by Steve Jobs in California."
entities = ner(text)
for entity in entities:
print(f"{entity['word']:20} → {entity['entity_group']}")
Output:
Apple Inc. → ORG
Steve Jobs → PER
California → LOC
Perbandingan spaCy vs Transformers¶
Aspek |
spaCy |
Transformers |
|---|---|---|
Kecepatan |
Sangat cepat |
Lebih lambat |
Akurasi |
Baik |
Mutakhir (state-of-the-art) |
Ukuran model |
Kecil (MB) |
Besar (100MB-GB) |
GPU |
Opsional |
Disarankan |
Kasus penggunaan |
Produksi, real-time |
Akurasi maksimal |
Langkah Selanjutnya¶
Lanjutkan ke Transformers Dasar untuk mempelajari konsep dasar dan berbagai pipeline yang tersedia.