{"created":"2023-05-15T08:43:36.857415+00:00","id":8644,"links":{},"metadata":{"_buckets":{"deposit":"b49a45fb-e9b4-425e-8d60-f391cae82613"},"_deposit":{"created_by":13,"id":"8644","owners":[13],"pid":{"revision_id":0,"type":"depid","value":"8644"},"status":"published"},"_oai":{"id":"oai:uec.repo.nii.ac.jp:00008644","sets":["9:178"]},"author_link":["23477"],"control_number":"8644","item_10006_date_granted_11":{"attribute_name":"学位授与年月日","attribute_value_mlt":[{"subitem_dategranted":"2018-03-23"}]},"item_10006_degree_grantor_9":{"attribute_name":"学位授与機関","attribute_value_mlt":[{"subitem_degreegrantor":[{"subitem_degreegrantor_name":"電気通信大学"}],"subitem_degreegrantor_identifier":[{"subitem_degreegrantor_identifier_name":"12612","subitem_degreegrantor_identifier_scheme":"kakenhi"}]}]},"item_10006_degree_name_8":{"attribute_name":"学位名","attribute_value_mlt":[{"subitem_degreename":"博士(工学)"}]},"item_10006_description_10":{"attribute_name":"学位授与年度","attribute_value_mlt":[{"subitem_description":"2017","subitem_description_type":"Other"}]},"item_10006_description_7":{"attribute_name":"抄録","attribute_value_mlt":[{"subitem_description":"Computers continue to evolve as a tool to expand human intellectual, creative, and emotional activities. Human-computer interfaces play an important role in utilizing the power of computers without interrupting human activities. In recent years, the collaboration between humans and computers has expanded, and the scope of human activity is expanding. Therefore, an interface between humans and computers becomes more important.\n An effective interface enabling real-world-oriented and intuitive operations is a major factor for increasing the appeal of using computers for information retrieval. \nSuch an interface fundamentally affects human activities widely and generally. When using an interface, the natural action of looking at the screen and moving one's hand is most frequently used. Therefore, the purpose of this research is to develop an interface that extends the interactions between a human and a computer and enables intuitive operations by \"seeing and moving.\"\n In recent years, intuitive operations by \"seeing and moving\" focus mainly on touch operations used in smartphones and tablets. Therefore, such operations are limited to short-distance interactions in small-to medium-sized environments with a display. In this research, as an approach to extend such interactions, we consider those in which basic elements such as size, interaction distance, and type of screen in real environments are not restricted. Furthermore, such considerations will enable the creation of an interface that uses a human's natural gestures. Therefore, we conducted research and development with the following two pre-requisites.\nI. Create an interface that can operate a large screen from an optimal viewing distance.\nA large screen is excellent for displaying content with a high degree of visibility. This advantage is secured when its content can easily be viewed from far away. Therefore, we will develop an interface that uses natural gestures from the optimum viewing distance of a large screen.\nII. Create a human interface that can be operated by touching a non-display surface. It is natural to approach a screen and touch it with your hands. However, \nif you do not have a physical display like a projector or wearable device, you can not touch the screen. Therefore, by enabling the operation of touching a non-display surface, we can extend the interactions.\nThe third section describes a human interface that can operate a large screen from an optimum viewing distance. In this research, we decided to develop a gesture operation method for a digital signage system. We designed the graphical structure and operation methods of the digital signage system. In addition, a usability evaluation was carried out by general subjects to confirm the system's practicality. We determined the following three mechanisms of interaction.\n(i)As an interface with a graphical structure can be operated intuitively, it is effective to hierarchize the information to be operated and to visualize that hierarchy as a menu by using the depth direction of the screen.\n(ii)As gesture operations can be performed intuitively and efficiently, it is effective to recognize the movement of a hand approaching the screen and apply this gesture to the selection operation of the menu.\n(iii)As the position of a large screen affects the operations performed on it, for\nexample, if the screen is laid flat to improve visibility, consideration for reducing the burden on a person's body is necessary.\nThe fourth section describes an interface that can be operated by touching a non-display surface. The most effective way to use this type of interface is to display an image from a projector or head-mounted display onto surrounding real-world surfaces and touch it directly. However, these surrounding surfaces are not always flat. For example, there might be outlets in a wall or magnets on a desk. In general, there are many surfaces where protrusions are present and/or objects are placed. Therefore, we propose a new touch detection method and a prototype system with an IR camera and two IR lights that requires no surface sensors and can detect a touch even on non-flat surfaces. There are three main contributions in this work. \n(i)We conducted experiments to determine the accuracy required for touch detection. As a result, nearly all touch operations could be detected if the position of a user's finger is 5 mm or more away from a surface.\n(ii)We propose a new touch detection method and a prototype system with an IR camera and two IR lights that requires no surface sensors and can detect a touch even on non-flat surfaces. To improve touch detection, we have developed two echniques: extraction of shadow area and detection of shadow shape change.\n(iii)We evaluated the accuracy of touch detection with our prototype system and found that a touch can be detected with high accuracy over a large (80 inches wide) operating surface.\nThe fifth section concludes the results of this research. In this research, to extend human-computer interactions, we developed a real-world-oriented interface that enables intuitive operations by \"seeing and moving\" with various environments and devices. We want to further develop the interface not only to make it easier for a human being to use a computer but also develop technology that contributes to maintaining the quality and value of a sophisticated system.\n\nコンピュータは人の知的,創造的,感性的な活動を拡張するための道具として進化を続けている.人の活動を阻害することなくコンピュータのパワーを利用するために,ヒューマンインタフェースは重要な役割を担ってきた.近年では,人とコンピュータが高度に連携,融合するインタラクションの拡張により人の活動範囲が広がっており,人とコンピュータの界面となるヒューマンインタフェースがより重要度を増している.実世界指向で直感的な操作性を実現した快適なヒューマンインタフェースは,情報機器製品としてのコンピュータの魅力を高める大きな要因となっている.このような実世界指向インタフェースは,人が常に具体的な環境の中にいるが故に,人の活動において最も基本的であり,広く一般に影響を及ぼす.実世界指向インタフェースにおいて,特に「見て,手を動かす」操作は人が自然に利用でき,尚且つ,最も利用頻度が高い操作のひとつである.そこで,本研究では,実世界指向インタフェースによるインタラクション拡張のために,「見て,動かす」直感的な操作を可能にするヒューマンインタフェースを実現することを目的とした.\n 「見て,動かす」直感的な操作は,近年,スマートフォンやタブレットなどのタッチ操作を中心に洗練されてきた.これは「中小型」「手元」「ディスプレイ」という限定された実環境でのみ,直感的な操作が実現されていると言い換えることができる.そこで,本研究では,インタラクションを拡張するためのアプローチとして,実環境における画面の「大きさ」「距離」「種類」という基本的な要素が限定されることのないインタラクションを検討し,人の自然な行為を取り入れたヒューマンインタフェースを実現する.そこで,次の2つの観点で研究開発を行った.\n・大画面を最適視距離で操作できるヒューマンインタフェース\n  大画面は視認性や情報の一覧性に優れる.この長所は,大画面を見やすい距離\n  (以下,最適視距離)に離れて見るときに担保されるため,最適視距離で行う\n  自然な行為を操作に取り入れて,インタラクションの拡張を実現する.\n・非ディスプレイ面に触れて操作できるヒューマンインタフェース\n  画面に近づいて手を触れて操作することは直感的であり自然な行為として行わ\n  れるが,プロジェクタやウェアラブルデバイスのように物理的なディスプレイ\n  が存在しない場合,画面に触れて操作できない.そこで,このような非ディス\n  プレイ面に触れて操作できるようにすることで,インタラクションの拡張を実\n  現する.\n 本論文は以下のように構成される.第1章は序論として,研究の背景とヒューマンインタフェースの役割を述べ,研究の目的とアプローチを明らかにする.第2章では,従来研究について論述し,その課題について議論する.第3章と第4章は,論文の主内容として研究開発したヒューマンインタフェースを整理する.第3章は大画面を最適視距離で操作できるヒューマンインタフェースについて論じる.本研究では,大画面の用途を具体的に定め,その用途を対象とした操作およびシステムを統合的に開発することで,大画面を最適視距離で操作するための基本技術を確立する方針とした.この具体的な用途として,ジェスチャ操作を用いてフロアガイドコンテンツをインタラクティブに操作できるデジタルサイネージを選定した.グラフィック構造および操作方法の設計を行い,デジタルサイネージのシステムを実装して試作検証した.また,一般被験者でのユーザビリティ評価により,利用方法を説\n明することなく目的の操作を実行できる,公共用途に適した実用性を確認した.インタラクションの仕組みとして以下の3つの成果を得て,これにより大画面を最適視距離で操作する基本技術を確立した.\n(i) 直感的に操作できるグラフィック構造として,操作対象の情報を階層化すると\n ともに,画面の奥行き方向を利用して階層を可視化する表現が有効である.\n(ii) 直感的かつ効率的に操作可能なジェスチャ操作として,手が近づく動きのジェ\n スチャを認識してメニュー階層の選択操作に適用することが有効である.\n(iii) 大画面の操作は,画面を寝かせて見やすくするなど,身体への負担軽減の配慮\n が必要である.\n 第4章は非ディスプレイ面に触れて操作できるヒューマンインタフェースについて論じる.本ヒューマンインタフェースの最も有用な用途は,周囲の実空間の様々な面にプロジェクタやヘッドマウントディスプレイで画面を重畳して表示し,重畳した画面に直接タッチ操作することであると考える.しかしながら,身の回りにある机上や壁面などの様々な面上は,物が置かれる,突起物があるなどの状態が多い.そこで,面上や面の周囲の様々な状態に対応してタッチ検出する方法として,赤外カメラと2つの赤外照明を用いて指先の左右にできる影を利用して指先の接触を検出する新たな手法を提案する.提案手法を用いてタッチ検出を行うシステムを開発した.この開発を通じて,以下の3つの成果を得て,これにより非ディスプレイ面に触れて操作する基本技術を確立した.\n(i) タッチ検出に必要な精度を求める実験を行い,面から指が5mm以上離れたこと\n が判別できれば,ほぼ全てのタッチ操作が検出できることを明らかにした.\n(ii) 赤外カメラと2つの赤外照明を用いて,非ディスプレイ面でタッチ検出できる新\n たな手法を提案し,高精度なタッチ検出を実現するために,影領域の抽出技術と影\n の変化の検出技術の2つの技術を開発した.\n(iii) 提案手法の試作検証とタッチ検出精度の評価を行い,80インチの操作対象面の全\n 面で高精度にタッチ検出できることを確認し,提案手法の有効性を確認した.\n 第5章では本研究の成果を総括する.本研究では,人間とコンピュータのインタラクションの拡張に向けて,実世界指向インタフェースにおける「見て,動かす」直感的な操作を様々な実環境やデバイスで実現するヒューマンインタフェースの基本技術を確立した.ヒューマンインタフェースは,人間とコンピュータの界面としてインタラクションを支える役割を増している.ヒューマンインタフェースが人間にとっての使いやすさを超えて,高度なシステムの質や価値を維持するために効果を発揮する技術開発にさらに努めたい.","subitem_description_type":"Abstract"}]},"item_10006_dissertation_number_12":{"attribute_name":"学位授与番号","attribute_value_mlt":[{"subitem_dissertationnumber":"甲第921号"}]},"item_10006_text_22":{"attribute_name":"専攻","attribute_value_mlt":[{"subitem_text_value":"情報理工学研究科"},{"subitem_text_value":"情報学専攻"}]},"item_10006_text_23":{"attribute_name":"学術成果タイプ","attribute_value_mlt":[{"subitem_text_value":"博士学位論文"}]},"item_10006_version_type_18":{"attribute_name":"著者版フラグ","attribute_value_mlt":[{"subitem_version_resource":"http://purl.org/coar/version/c_970fb48d4fbd8a85","subitem_version_type":"VoR"}]},"item_access_right":{"attribute_name":"アクセス権","attribute_value_mlt":[{"subitem_access_right":"open access","subitem_access_right_uri":"http://purl.org/coar/access_right/c_abf2"}]},"item_creator":{"attribute_name":"著者","attribute_type":"creator","attribute_value_mlt":[{"creatorNames":[{"creatorName":"松原, 孝志","creatorNameLang":"ja"},{"creatorName":"マツバラ, タカシ","creatorNameLang":"ja-Kana"}],"nameIdentifiers":[{}]}]},"item_files":{"attribute_name":"ファイル情報","attribute_type":"file","attribute_value_mlt":[{"accessrole":"open_date","date":[{"dateType":"Available","dateValue":"2018-03-29"}],"displaytype":"detail","filename":"1640011_Thesis.pdf","filesize":[{"value":"4.3 MB"}],"format":"application/pdf","licensetype":"license_note","mimetype":"application/pdf","url":{"label":"1640011_Thesis.pdf","url":"https://uec.repo.nii.ac.jp/record/8644/files/1640011_Thesis.pdf"},"version_id":"568e0638-1b57-4257-be4a-4433ec7a62e3"}]},"item_language":{"attribute_name":"言語","attribute_value_mlt":[{"subitem_language":"jpn"}]},"item_resource_type":{"attribute_name":"資源タイプ","attribute_value_mlt":[{"resourcetype":"doctoral thesis","resourceuri":"http://purl.org/coar/resource_type/c_db06"}]},"item_title":"人とコンピュータのインタラクション拡張のための画像認識を用いた実世界指向ヒューマンインタフェースの研究","item_titles":{"attribute_name":"タイトル","attribute_value_mlt":[{"subitem_title":"人とコンピュータのインタラクション拡張のための画像認識を用いた実世界指向ヒューマンインタフェースの研究","subitem_title_language":"ja"},{"subitem_title":"Study on Real World Oriented Interface Using Image Recognition for Expansion of Human - Computer Interaction","subitem_title_language":"en"}]},"item_type_id":"10006","owner":"13","path":["178"],"pubdate":{"attribute_name":"PubDate","attribute_value":"2018-03-29"},"publish_date":"2018-03-29","publish_status":"0","recid":"8644","relation_version_is_last":true,"title":["人とコンピュータのインタラクション拡張のための画像認識を用いた実世界指向ヒューマンインタフェースの研究"],"weko_creator_id":"13","weko_shared_id":-1},"updated":"2023-07-07T06:03:08.989276+00:00"}