Hugging Face Transformers

Hugging Face Transformers adalah pustaka yang menyediakan akses mudah ke ribuan model pre-trained untuk Natural Language Processing (NLP). Dengan Transformers, Anda dapat menjalankan berbagai tugas NLP hanya dengan beberapa baris kode.

Mengapa Transformers?

  • Mutakhir (state-of-the-art) - Model terbaik untuk berbagai tugas NLP

  • Pre-trained - Model sudah dilatih pada data besar, tinggal pakai

  • Mudah digunakan - API pipeline yang sangat sederhana

  • Model Hub - Ribuan model dari komunitas global

  • Multibahasa - Banyak model mendukung berbagai bahasa

Instalasi

python -m pip install "transformers[torch]"

Atau jika menggunakan uv:

uv add transformers torch

Catatan

Contoh di materi ini menggunakan backend PyTorch. Model diunduh otomatis saat pertama digunakan dan disimpan di cache lokal (~/.cache/huggingface/).

Daftar Materi

Contoh Cepat

from transformers import pipeline

# Buat pipeline untuk analisis sentimen
classifier = pipeline(
    "sentiment-analysis",
    model="distilbert-base-uncased-finetuned-sst-2-english",
)

# Gunakan pipeline
result = classifier("I love learning about AI!")
print(result)
# [{'label': 'POSITIVE', 'score': 0.9998}]

Contoh NER

from transformers import pipeline

ner = pipeline("ner", aggregation_strategy="simple")

text = "Apple Inc. was founded by Steve Jobs in California."
entities = ner(text)

for entity in entities:
    print(f"{entity['word']:20}{entity['entity_group']}")

Output:

Apple Inc.           → ORG
Steve Jobs           → PER
California           → LOC

Perbandingan spaCy vs Transformers

Aspek

spaCy

Transformers

Kecepatan

Sangat cepat

Lebih lambat

Akurasi

Baik

Mutakhir (state-of-the-art)

Ukuran model

Kecil (MB)

Besar (100MB-GB)

GPU

Opsional

Disarankan

Kasus penggunaan

Produksi, real-time

Akurasi maksimal

Langkah Selanjutnya

Lanjutkan ke Transformers Dasar untuk mempelajari konsep dasar dan berbagai pipeline yang tersedia.