photo

拓生 香山


Last seen: 1年以上 前 2021 年からアクティブ

Followers: 0   Following: 0

統計

  • Thankful Level 2
  • Thankful Level 1

バッジを表示

Feeds

表示方法

質問


学習済みAgentの再学習
いつもお世話になっております。 現在、DDQNを使用し、強化学習で解析を行っているのですが、 学習済みagentを再度学習を行うことはできますでしょうか。 ちなみに学習済みagentを再度学習させることが転移学習もしくはファインチューニングという考え...

2年弱 前 | 1 件の回答 | 0

1

回答

質問


強化学習のメモリ不足の解消法
お世話になっております。 現在、simulinkを用いて強化学習の解析を流しております。 エピソード数を現在は500episodeに設定しております。 以前、200episodeで解析を流していた際は、このようなエラーは出ていませんでしたが、...

2年弱 前 | 1 件の回答 | 1

1

回答

質問


【緊急】強化学習の際のmemoryブロックのステップ遅れについて
お世話になっております。 memoryブロックのステップ遅れについて質問があります。 現在、MATLAB/Simulinkを通じて強化学習を行っています。 agentブロックからactionを受け渡す際に以下のようなエラーが発生します。 -----...

2年以上 前 | 1 件の回答 | 0

1

回答

質問


ワークスペースのデータを1ステップごとに受け渡す方法(強化学習)
いつもお世話になっております。 以前、回帰学習器で作成した予測モデルを環境として,Simulinkを用いて強化学習を行おうとしています。 予測モデル(環境)の入力: 強化学習の行動 action 外乱(ワークスペースにある気象庁のデータ)4項目...

2年以上 前 | 0 件の回答 | 0

0

回答

質問


回帰学習器で作成した予測モデルを強化学習の環境とする方法
お世話になっております。 以前、回帰学習器で予測モデルを作成しました。 予測モデルの入力値には強化学習の行動(+外乱など)とし、出力値には次のステップの状態値としています。 そこで強化学習の環境として予測モデルを用いることは可能でしょうか。 ...

3年弱 前 | 1 件の回答 | 0

1

回答