Recurrent Neural Networks (RNN) memiliki mekanisme propagasi maju yang unik karena sifat rekursifnya. Berbeda dengan jaringan feedforward, RNN memproses data sekuensial dengan mempertahankan hidden state (h_t) yang membawa informasi dari langkah waktu sebelumnya.
Proses ini dijelaskan dengan persamaan:
h_t = tanh(Ux_t + Wh_{t-1} + b_xh)
dimana:
U: Matriks bobot input ke hidden layer
W: Matriks bobot hidden state sebelumnya
b_xh: Bias untuk hidden layer
Sebagai analogi, bayangkan membaca sebuah novel: otak kita (h_t) tidak hanya memproses halaman saat ini (x_t), tetapi juga mengingat konteks dari halaman sebelumnya (h_{t-1}).
Konstruksi Dataset Sekuensial
Dataset untuk RNN dibangun dengan memperhatikan urutan temporal. Misal untuk data penumpang maskapai:
Perhatikan bagaimana informasi dari ‘A’ (t1) memengaruhi perhitungan ‘B’ (t2).
Summary
Forward propagation di RNN melibatkan perhitungan rekursif hidden state (h_t) yang mengkombinasikan input saat ini (x_t) dengan konteks sebelumnya (h_{t-1}). Parameter U dan W dishare di semua timestep, memungkinkan model memproses sekuens panjang. Output (y_t) dihasilkan melalui transformasi linear dan softmax. Contoh numerik menunjukkan bagaimana informasi mengalir melalui empat timestep dengan hidden state yang berkembang secara bertahap.