{"created":"2023-05-15T08:38:07.493402+00:00","id":891,"links":{},"metadata":{"_buckets":{"deposit":"f99747bb-c9ff-4101-abd0-f2b3d28bba27"},"_deposit":{"created_by":3,"id":"891","owners":[3],"pid":{"revision_id":0,"type":"depid","value":"891"},"status":"published"},"_oai":{"id":"oai:uec.repo.nii.ac.jp:00000891","sets":["9:20"]},"author_link":["6669"],"control_number":"891","item_10006_date_granted_11":{"attribute_name":"学位授与年月日","attribute_value_mlt":[{"subitem_dategranted":"2015-03-25"}]},"item_10006_degree_grantor_9":{"attribute_name":"学位授与機関","attribute_value_mlt":[{"subitem_degreegrantor":[{"subitem_degreegrantor_name":"電気通信大学"}],"subitem_degreegrantor_identifier":[{"subitem_degreegrantor_identifier_name":"12612","subitem_degreegrantor_identifier_scheme":"kakenhi"}]}]},"item_10006_degree_name_8":{"attribute_name":"学位名","attribute_value_mlt":[{"subitem_degreename":"博士(工学)"}]},"item_10006_description_10":{"attribute_name":"学位授与年度","attribute_value_mlt":[{"subitem_description":"2014","subitem_description_type":"Other"}]},"item_10006_description_7":{"attribute_name":"抄録","attribute_value_mlt":[{"subitem_description":"生産工程などあらかじめ作業内容や環境が固定された状況で用いられる産業用ロボットに対し,最近では人間の代わりに日常環境で用いられる家の中の掃除を行う家庭用ロボットや,介護用ロボット,警備を行うロボットなどが数多く登場している.産業用ロボットなどでは目標や動作環境が固定されているので,通常の最適制御などにより最適な行動を設定することができる.しかし,今後導入が見込まれる家庭用のロボットは運用先によって目標とする状態や目標達成に必要な行動セット(政策)が異なるため,それぞれの運用先に合わせた適切な政策を設定しなければならないが,われわれが多種多様なロボットに対して,また考えうる環境条件すべてを考慮して適切な政策を設定するのは大きな負荷となる.本研究では,ロボットコントローラの容易な構築を実現するために強化学習による手法を取り扱う.強化学習はロボットの内部状態や詳細な環境情報を与えなくとも,ロボット自身による試行錯誤の結果より自動的に適切なコントローラを学習することが可能である.一般的に目標達成に最適な政策を得るためには膨大な学習時間を必要とするため,特にロボットのコントローラへの応用では最適な政策を得ることよりも学習時間の短縮が重要となる.しかし,強化学習では“ 次元の呪い”と呼ばれる環境認識に関する問題や,報酬や内部パラメータの初期値によっては学習がなかなか進まない,といった問題がある.一方,生物の持つ生態機構や進化の仕組みなどを工学モデル化し,最適解探索や学習などの分野に応用する試みが盛んに行われている.その一つに免疫機構の振る舞いに着目し,その働きをモデル化した免疫型強化学習がある.免疫型強化学習法は従来の強化学習法と比べ,特定環境において準最適解を高速な学習収束速度で得ることができる.しかし,免疫型強化学習は動作環境が連続値で表現される場合では従来の強化学習法と同じく次元の呪いによる影響を受けてしまう.これは免疫型強化学習法のアルゴリズムにおいて環境情報を離散値へ変換する必要があるためである.この変換方式として動作環境の連続値表現を一定の間隔で区切ることによって離散値表現に置き換えを行うタイルコーディングが多く用いられている.この際,状態を区切る間隔によって学習の収束速度および得られる解の質のトレードオフが発生するが,多くの場合において事前に適切な間隔を知ることはできない上,学習途中で離散化の間隔を変更することもできない.このため,事前に適切な離散化間隔を設定する必要のあるタイルコーディングによらない状態表現方法が必要となる.さらに,制御工学で重要な安定状態を維持するといった課題においても十分な解を得ることができない.免疫型強化学習やProfit Sharing をはじめとした一部の強化学習法では,タスクの達成のための最適解を得るのではなく,実用的な解を短時間で得ることを目標に主眼をおいてアルゴリズムが構築されているからである.またその制約条件として,報酬は正の値を使用しなければならないこともあげられる.安定化制御問題では報酬を与える明確なタイミングとして安定状態から不安定状態へ遷移した時が考えられる.この場合においては望ましくない状態へ遷移したため罰報酬を与える必要があるが,これまでの手法では正しく罰を取り扱うことができない.このため,安定化制御を考慮した報酬の処理法が必要となる.本研究ではこれらの問題を解決する手法を提案し,実ロボットへ適用できる学習によるコントローラの構築法を確立することが目的である.連続値環境を前提とした免疫型強化学習法の拡張方法を提案する.拡張したアルゴリズムが従来の離散型免疫型強化学習法の更新方式と等価であることを示し,さらに連続値環境に用いる際に利点となる状態の取り扱い方法について述べる.この提案手法を倒立振子の振り上げ制御シミュレーション例などに適用し,従来の代表的な強化学習法と比較をおこない,その有効性を示す.従来の報酬割り当て関数が安定化制御問題へ適用できないことを示し,安定化制御問題へ適用する際の条件の検討を行う.得られた条件からProfit Sharing 及び免疫型強化学習において有効な報酬割り当て関数の一例を提案する.提案する報酬関数を用いて倒立振子の安定化制御およびRoboCup サッカーシミュレーションリーグのサブ問題であるKeepaway のシミュレーションに適用し,その有効性を示す.","subitem_description_type":"Abstract"}]},"item_10006_dissertation_number_12":{"attribute_name":"学位授与番号","attribute_value_mlt":[{"subitem_dissertationnumber":"甲第810号"}]},"item_10006_version_type_18":{"attribute_name":"著者版フラグ","attribute_value_mlt":[{"subitem_version_resource":"http://purl.org/coar/version/c_970fb48d4fbd8a85","subitem_version_type":"VoR"}]},"item_access_right":{"attribute_name":"アクセス権","attribute_value_mlt":[{"subitem_access_right":"open access","subitem_access_right_uri":"http://purl.org/coar/access_right/c_abf2"}]},"item_creator":{"attribute_name":"著者","attribute_type":"creator","attribute_value_mlt":[{"creatorNames":[{"creatorName":"細川, 嵩","creatorNameLang":"ja"},{"creatorName":"ホソカワ, シュウ","creatorNameLang":"ja-Kana"},{"creatorName":"Hosokawa, Shu","creatorNameLang":"en"}],"nameIdentifiers":[{}]}]},"item_files":{"attribute_name":"ファイル情報","attribute_type":"file","attribute_value_mlt":[{"accessrole":"open_date","date":[{"dateType":"Available","dateValue":"2016-09-15"}],"displaytype":"detail","filename":"9000000798.pdf","filesize":[{"value":"4.5 MB"}],"format":"application/pdf","licensetype":"license_note","mimetype":"application/pdf","url":{"label":"9000000798.pdf","url":"https://uec.repo.nii.ac.jp/record/891/files/9000000798.pdf"},"version_id":"44853f02-efd7-4546-b50f-88ce6ba0765a"}]},"item_language":{"attribute_name":"言語","attribute_value_mlt":[{"subitem_language":"jpn"}]},"item_resource_type":{"attribute_name":"資源タイプ","attribute_value_mlt":[{"resourcetype":"doctoral thesis","resourceuri":"http://purl.org/coar/resource_type/c_db06"}]},"item_title":"獲得免疫系に基づいた強化学習による制御器設計に関する研究","item_titles":{"attribute_name":"タイトル","attribute_value_mlt":[{"subitem_title":"獲得免疫系に基づいた強化学習による制御器設計に関する研究","subitem_title_language":"ja"},{"subitem_title":"A Controller Design Using Adaptive Immune System Based Reinforcement Learning","subitem_title_language":"en"}]},"item_type_id":"10006","owner":"3","path":["20"],"pubdate":{"attribute_name":"PubDate","attribute_value":"2015-03-25"},"publish_date":"2015-03-25","publish_status":"0","recid":"891","relation_version_is_last":true,"title":["獲得免疫系に基づいた強化学習による制御器設計に関する研究"],"weko_creator_id":"3","weko_shared_id":-1},"updated":"2024-02-02T05:49:53.357313+00:00"}