Back to Pembelajaran Mesin Lanjut

RNN Fundamentals and Sequential Data Motivation

Questions/Cues

  • Mengapa RNN diperlukan untuk data berurutan?
  • Perbedaan mendasar Feedforward vs RNN
  • Bagaimana parameter sharing bekerja di RNN?
  • Contoh aplikasi RNN di kehidupan nyata
  • Masalah utama RNN tradisional

Reference Points

  • Lecture_01_DFS.pptx (Slides 5-11, 26-28)
  • Advanced_Algorithms.pdf (Halaman 142-144)

Konsep Jaringan Saraf Berulang

Recurrent Neural Network (RNN) adalah jenis jaringan saraf tiruan dengan sambungan umpan balik (feedback) yang memungkinkan informasi bertahan antar langkah waktu. Berbeda dengan jaringan feedforward yang hanya memproses input secara independen, RNN memiliki memori internal yang merekam konteks sekuensial. Mekanisme ini meniru cara manusia memahami bahasa - kita menginterpretasikan setiap kata berdasarkan urutan kata sebelumnya. Analogi: Bayangkan membaca novel sambil mencatat karakter dan plot di buku catatan. RNN bertindak seperti buku catatan ini, di mana setiap halaman (hidden state) berisi ringkasan cerita hingga bab tersebut. Saat membaca bab baru (input baru), kita memperbarui catatan berdasarkan halaman sebelumnya.

Motivasi Data Sekuensial

RNN dirancang khusus untuk data dengan ketergantungan temporal atau urutan, dimana:

  1. Data deret waktu (time-series): Harga saham, data cuaca, lalu lintas
  2. Data simbolik berurutan: Histori penelusuran web, urutan klik pengguna
  3. Data bahasa alami: Teks, ucapan, terjemahan mesin Contoh konkret: Prediksi jumlah penumpang maskenerapkan RNN dapat mengidentifikasi pola musiman (liburan) dan tren jangka panjang, sementara model feedforward hanya melihat snapshot waktu tertentu tanpa konteks historis.

Arsitektur Dasar RNN

RNN memiliki tiga komponen utama:

  1. Input (xₜ): Vektor fitur pada langkah waktu t
  2. Hidden state (hₜ): Memori jaringan yang menyimpan informasi dari langkah sebelumnya
  3. Output (yₜ): Prediksi pada langkah t Persamaan fundamental:
hₜ = f(Uxₜ + Whₜ₋₁ + b)

Dimana U, W adalah matriks bobot dan b adalah bias. Parameter ini dibagikan di semua langkah waktu, memungkinkan jaringan mempelajari pola berulang secara efisien. Karakteristik ini berbeda dengan CNN yang menggunakan parameter berbeda di setiap lapisan.

Keunggulan dan Tantangan

Kelebihan RNN:

  • Mampu menangani input/output dengan panjang variabel
  • Menangkap ketergantungan jarak jauh (teoretis)
  • Efisien untuk data sekuensial melalui parameter sharing Tantangan Utama:
  • Vanishing gradient: Gradien menyusut secara eksponensial saat backpropagation melalui waktu, menyulitkan pembelajaran ketergantungan jangka panjang
  • Kekakuan memori: RNN tradisional kesulitan memilih informasi mana yang perlu disimpan/dibuang
  • Komputasi sekuensial menyulitkan paralelisasi

Summary

RNN merupakan solusi fundamental untuk pemrosesan data sekuensial dengan memperkenalkan memori internal melalui mekanisme hidden state. Arsitekturnya mengatasi keterbatasan model feedforward dengan parameter sharing di seluruh langkah waktu dan kemampuan menangkap konteks temporal. Meski memiliki keunggulan dalam tugas seperti prediksi deret waktu dan pemrosesan bahasa, RNN tradisional menghadapi tantangan utama dalam pembelajaran ketergantungan jangka panjang akibat masalah vanishing gradient.