tensorflowにてRNNの勉強をしています。
今はtflearnを使用しての実装をお試ししています。

下記の通りlstm,gru,...APIに渡すInputのTensorの形は[samples, timesteps, input dim]となっています。
http://tflearn.org/layers/recurrent/

この内timestepsの用途が理解できておりません。

RNNはそもそも以前の入力をメモリに覚えているので、
1回1回の入力データとして過去のデータを渡す必要がないという理解です。
事実timestepsを[1]にして、当該の入力データしか渡さない場合もうまく学習できています。

timestepsはどのような用途に使うのでしょうか?

コードはこちらのサイトを参考にして勉強しております。
https://deepage.net/deep_learning/2016/09/17/tflearn_rnn.html