PDF

179
システム/制御/情報,Vol. 47, No. 4, pp. 179–184, 2003
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
「『多様化するヒューマンインタフェースと高次インタラクション』特集号」解
説
実世界インタラクションにおける状況認識の役割
角 康之*
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
1.
はじめに
これまでヒューマンインタフェースは主に、WIMP
(Window, Icon, Menu, Pointing device)、デスクトッ
プメタファ、GUI(Graphical User Interface)と呼ば
れるパラダイムの基に発展してきた。これらは確かに
ディスプレイ、キーボード、マウスで構成されたワー
クステーションやパソコンを操作するには適したパラ
ダイムであった。しかし、近年、コンピュータの携帯
化や携帯電話の普及が進み、コンピュータは身の回り
のあらゆる電子機器(家電やオフィス機器)に埋め込
まれている。それにともない、人とシステムのインタ
フェースは多様化し、場合によってはインタフェース
が姿を消しつつある。
ディスプレイ、キーボード、マウスで構成されたコ
ンピュータは、ユーザがその前に座り、操作されるこ
とを想定してきた。つまりこれまでは、人の方がコン
ピュータの世界に歩み寄ってインタラクションしてき
たのであり、そのインタラクションは実世界の「状況」
とは、むしろ、切り離しながら行われるようにデザイ
ンされていた。
しかし、最初に述べたように、複数の様々な形態を
したコンピュータシステムが利用できる現在、ユーザ
とシステムのインタラクションは実世界の「状況」に
深く埋め込まれており、
「状況」と切り離してデザイン
することが難しくなってきた。これからのコンピュー
タシステムには、
「状況」情報を活用して、情報サービ
スを目の前のユーザ向けに個人化したり、状況に適応
させることが求められている。本稿では、そういった
ヒューマンインタフェース研究の新しい動向を、研究
事例を挙げながら解説する。
2.
「状況」とは何か
「状況(context)」とは、Dey ら [1] の定義による
と、ユーザとシステムのインタラクションに関連しそ
うな事物(人、場所、もの)の状態を特徴づける情報
のことである。その典型的なものは、人、グループ、
ものなどの場所、身元、状態といった情報である。
∗
ATR メディア情報科学研究所
interaction, context-awareness, ubiquitous
computing, wearable computing
Key Words :
– 21 –
人の周辺を特徴づける状況情報を、5 つの W に応じ
て書き並べてみると以下のようになろう。
Who 氏名、身体、年齢、性別、服装、職業、グループ
What 動作、発話、対象物
Where 位置、移動履歴、社会、文化
When 時刻、日課、季節、時代
Why 興味、知識、意図、計画、信念、情動、感情
あるひとつの観点、例えば「時間(When)」をとっ
てみたとしても、世界を分節(articulate)する粒度に
よって様々な情報が考えられる。例えば、ある事象が
起きた正確な時刻に着目することもあれば、大体の時
間帯を知れば良い場合もある。また、週や月のような
レベルでの時期や、季節、年代として時間状況を分節
したいときもあるであろう。場合によっては、時代や
文化が重要な状況情報になることもありうる。
特に実世界インタラクションを考えるときに重要と
なる状況情報とは、インタラクションの主役となる人
を特定する情報(ID; identification)、インタラクショ
ンの相手となる人工物や環境の ID、インタラクショ
ンがなされる時刻、場所などであろう。また、実世界
インタラクションをヒューマンインタフェースの文脈
で考えるからには、コンピュータシステムをよりうま
く使いこなすことが目標にあるわけであるから、ユー
ザの意図や興味、そのときのタスクのプラン、場合に
よっては感情といったものも重要な状況情報である。
3.
「状況認識」のモデル化
「状況」情報を実世界インタラクションに基づいたア
プリケーションに役立てるには、
「状況認識(contextawareness)」を行うセンサレベルと、そのデータを利
用するアプリケーションレベルの間のギャップを埋め
る必要がある。1990 年代に入って、状況認識を利用し
た様々なアプリケーションが提案され始めた頃には、
各プロジェクトごとに(いわば行き当たりばったりで)
対処してきたが、実際は多くの研究者が似たような課
題を共有しているわけであるから、再利用性の高いフ
レームワークを確立しようという要求が自然と発生し
てきた。
Dey ら [1] は、GUI 開発の効率化に貢献した Widget
と同じ概念を、状況認識アプリケーションの基本的な
180
システム/制御/情報 第 47 巻 第 4 号 (2003)
アクティブ・バッジ・システム [4] は、建物内の人の
位置を知るためのデバイスとしては、最も早い時期に
開発されたものである。ユーザは個別 ID を発信し続
ける赤外線バッジを常時身につけ、その信号を検出す
る赤外線センサを各部屋や廊下に設置することで、今
誰が建物内のどこにいるのか、を知ることができる。
Forget-me-not[5] は、アクティブ・バッジ・システム
と PDA(Personal Digital Assistant; 携帯情報端末)
を組み合わせた、初期の最も興味深いシステムである。
このシステムは PDA の持ち主であるユーザの様々な
状況情報を収集し、それらの状況情報を検索のインデ
クスとし、ユーザのエピソード記憶の想起や、ドキュ
メントの検索を支援する。インデクスとして利用され
る状況情報は、アクティブ・バッジ・システムによっ
て検出されたユーザ自身の位置や他人と出会ったとき
の位置に関する情報だけでなく、ユーザがコンピュー
タ上でいつどのアプリケーションを実行したかとか、
他のユーザとのファイル交換や印刷の記録、電話の着
信記録である。
屋外の位置を知るには、最近、GPS(Global Positioning System)を利用することが多い。例えば、我々
は既にカーナビゲーションシステムに慣れ親しんでい
る。GPS による位置情報を利用したアプリケーション
としては、目の前にある展示の情報を PDA 上で提供
してくれるもの(Cyberguide[6] など)がある。また、
垂水ら [7] は、PDA や携帯電話による情報へのアクセ
スを特定の位置や時間に限ることによって、実世界で
の情報流通の効率化やエンターテインメント性を高め
る手法を提案している。
今目の前にあるものが何なのか、誰なのかを知るに
は、上記のような位置検出デバイスを利用する以外に、
目の前のものや人の ID をビジュアルに認識するアプ
ローチもあり得る。Feiner ら [8] は、プリンタのメンテ
ナンスガイドを例題にし、あらかじめ用意されたプリ
ンタの 3 次元モデルやプリンタの内部構造やメンテナ
ンス情報を、HMD(Head Mounted Display)上に重
畳表示するアプリケーションを開発した。
フレームワークに導入した。その基本的な方針は以下
の 3 点である。
• 状況認識のための個々のセンサの特殊性を隠蔽す
る。例えば、位置認識ひとつをとっても、赤外線
バッジを利用することもあれば、電波による方式
を利用することもあろう。Widget を利用すること
で、アプリケーション開発者はそういったそれぞ
れのセンサ固有の表現を意識せずに、位置認識の
出力のみを単純に利用することができる。
• センサデータを、アプリケーションが必要とする
表現レベルまで抽象化する。例えば、位置検出の
センサは秒刻みで個別ユーザの位置データを出力
するであろうが、多くのアプリケーションが必要
とするのは、ある部屋から別の部屋に移動した、
といったような状況変化が生じた時刻であったり、
特定の部屋の滞在時間であろう。
• 複数の状況情報の組み合わせを容易にする。GUI
Widget のように、複数の機能を組み合わせてアプ
リケーションを迅速に試作できるようにする。
Dey らの提供する Widget は、いわば状況認識センサ
ごとのデバイスドライバに対応する。そして、実世界
インタラクションは、まさに Widget に基づいた GUI
開発のときと同じように、Widget に対するメッセー
ジと、ある条件を満たしたときの Widget からのコー
ルバックによって記述される。
それに対して Hong ら [2] はサーバ–クライアント方
式のアーキテクチャを提案した。これは、ネットワー
ク上に分散したリソースを利用してシステムを開発す
るには理解しやすいアーキテクチャである。
これらのアーキテクチャがプロセス(機能)を中心に
据えたアーキテクチャであったのに対し、Winograd[3]
はデータを中心に据えたアーキテクチャ、すなわち黒
板モデルを提唱している。つまり、ある程度のサービ
スを自律的に実行する複数モジュールが、「黒板」へ
の読み書きを通してデータを共有し緩く協調する枠組
みであり、マルチエージェント的な考え方である。
4.
研究動向
ここからは、実世界インタラクションにおける状況
認識を利用した具体的な研究事例を紹介しながら、状
況認識の方法やその利用の仕方の可能性を概観する。
4.1
位置認識と ID 認識
状況認識によって実世界インタラクションを情報強
化することを目標としたときに、最も受け入れやすい
シナリオは、
「今ここ」の情報や「今目の前にある」も
のや人の情報を簡単に得ることができる、というもの
であろう。その実現のためには、人の位置を知る、と
いうことと、目の前にあるものを知る、ということを
コンピュータに自動認識してもらう必要がある。
4.2
コミュニケーション支援
実世界インタラクションにおける状況認識は、個人
ユーザ向けの情報サービスの可能性を広げるだけでな
く、状況を共有する人と人のコミュニケーション支援
にも活用できる。ここではその具体例として、C-MAP
(Context-aware Mobile Assistant Project)と呼ばれ
るプロジェクト [9–11] を紹介する。
第 1 図に C-MAP システムの全体構成を示す。CMAP システムは、博物館、学会イベント、研究所公
開など、興味を共有する人達が知識のやり取りを求め
て集まるような展示型の会場での、見学ガイドやユー
ザ同士のコミュニケーション支援を目的とする。
– 22 –
角:実空間インタラクションにおける状況認識の役割
÷±Ž
‚·z”·
”·tt
¡·q±Ž
‚·z”·
”·tt
ep_ƒp·Žt
181
_®z·
_®z·ˆˆ~ƒ
n𠆁
n𠆁^^ˆ~
ˆ~ƒƒª·j
®¼¹
p·‹
£˜¥
×Gã
§¸ÃĞÌ
§¸ÃĞÌÀÀ»¼+
±Žhetj
´³+VL1pÁ
第1図
,Ýdµ
÷‚
‚1
1:q{
C-MAP システム全体の構成
ユーザは、PalmGuide と呼ばれる PDA 上で動作す
るガイドシステムによって見学個人ガイドのサービス
を利用することができる。PalmGuide は基本的には
展示情報を手元でみることができる情報閲覧システム
であるが、ユーザの状況情報(それまでの見学履歴)
を利用して、まだ見ていない展示の中からユーザが興
味を持つであろうものを推薦する機能がある。また、
PalmGuide 上のガイドキャラクタを赤外線通信によっ
て移動させることで、会場に設置された情報キオスク
上のオンラインサービス(会場地図サービスや各展示
の詳細情報閲覧サービス)を個人化することができる。
同様に、PalmGuide 上のガイドキャラクタは展示デモ
画面に乗り移り、ユーザ個人の興味に応じて展示デモ
そのものを個人化することも可能である。
このようなサービスを可能にするために、C-MAP シ
ステムでは様々な状況情報を利用した。例えば、ユー
ザの個人プロファイル(名前、年齢)や見学履歴(ど
の展示をいつ見て、どの程度気に入ったか)を利用し
た。見学履歴は、PalmGuide 上でユーザが意識的に入
力しなければいけない場合もあるし、展示ブースごと
に設置された情報キオスクと PalmGuide を接続したと
きに自動的に収集する手段もある。また、赤外線バッ
ジによる位置検出システムを利用して、各ブースでの
滞在時間などを自動的に収集する手段も併用した。ま
た、展示推薦を実現するには、展示ブースの物理的な
位置とユーザの現在位置の関係、展示のスケジュール
情報といった、展示環境側の状況情報も利用される。
どのユーザがどの展示に興味があるか、といった情
報は、ユーザ間の出会いや語らいを支援するのに利
用できる。例えば、展示とそれらに興味を持ったユー
ザのつながりをコミュニティネットワークとして可視
化したり、大画面に乗り移らせた複数ユーザのガイド
キャラクタにそれまでの見学履歴に応じたおしゃべり
をさせることでユーザ同士のカジュアルな語らいの場
を提供をすること [12] ができる。
どの展示を見学したか、誰と会っておしゃべりした
り名刺交換したか、どの展示デモにアクセスしたか
といったような、展示会場における実世界インタラク
ションは、インターネットを介して提供されるオンラ
インのサービス(「会場外のサービス」と言う意味で
「オフサイトサービス」と呼ぶ)にも利用できる。上
述したコミュニティネットワークは、博物館や学会に
参加するコミュニティメンバ間の互いの興味の関連性
を可視化するので、会場の時空間的な制約に縛られず
に、互いの「気づき」
(アウェアネス)の可能性を高め
てくれる。また、実空間で拾い集められた状況情報を
利用することで見学日記を自動的に作成する、という
サービスも容易に提供できる。コミックダイアリと呼
ばれるシステムは、PalmGuide に蓄積されたユーザ個
人の状況情報や、C-MAP システムのサーバに蓄積さ
れたコミュニティ全体の状況情報(どの展示が人気が
あったか、といった情報)を利用して、見学日記を漫
画表現する [13]。個人の立場によって様々な状況情報
を要約することで、さらにコミュニティメンバ間での
– 23 –
182
システム/制御/情報 第 47 巻 第 4 号 (2003)
語らいや知識交換の機会が増えると考えられる。
以上で概観したように、実世界インタラクションの
状況認識は、分散した様々な情報サービスを個人向け
に統合するのに役立つだけでなく、その「状況」を共
有しているユーザグループの中でのコミュニケーショ
ンの支援にも役立つ。そのときに利用される状況情
報とは、実空間における展示物(もの)や他の見学者
(人)とのインタラクションであり、そういう実世界に
根差した状況の共有があるからこそ、オンライン上で
のさらなるコミュニケーションが際立つのだと考える。
4.3
ウェアラブル
前節までは、PDA もしくはバッジを用いて、人の状
況情報を収集する試みを紹介した。ここではもっと個
人と密着した形態で状況情報を収集するアプローチと
してウェアラブルによる試みを概観する。
Mann は 1980 年代から独自でウェアラブル・コン
ピュータの試作を続け、主に頭部に搭載されたカメラ
によって得られる画像データから自分の記憶補助をし
たり目の前のものの情報付加を行うシステムを構築し
た [14]。
第2図
第3図
センサが埋め込まれたぬいぐるみインタフェース
ぬいぐるみは、人との身体的接触に対する抵抗感が
低い。そこで米澤ら [18] は、ぬいぐるみに様々なセン
サ(カメラ、マイク、タッチセンサ、曲げセンサなど)
を埋め込むことで、それを抱いたり撫でたりするユー
ザの存在や感情的な振る舞いを間接的にモニタし、音
楽演奏パートナーとしてのぬいぐるみインタフェース
を試作したり、離れた人の間のつながり感を表現する
手段について議論した(第 3 図参照)。今後、擬人化
パートナーとしてテーマパークでの一日のビデオ日記
を作ってくれたり、子供の遊び相手として子供の安全
を見守る手段としても発展が期待できる。
ATR で開発されているロボビー [19] は、人とイン
タラクションすることに主眼をおかれた人型ロボット
である。前述のぬいぐるみインタフェース同様、カメ
ラ、マイク、タッチセンサなど、人との接触やインタ
ラクションに関するセンサ能力を持つと共に、自ら動
き、話しかける能力を持つ。したがって、人の状況を
単に受動的に認識するだけでなく、エピソードを設定
して人に対して自ら働き掛けることで、より積極的に
人の状況認識をすることが可能となる。
ウェアラブルな日課識別システム
Clarkson ら [15] は、自分の前方と後方につけられた
カメラから得られる画像と、マイクによって収集され
る音の情報のパターン識別を行い、個人の日常生活の
日課の自動識別を試みた(第 2 図参照)。
ウェアラブルなシステムは、装着者自身の動き、体
性感覚情報、生体情報などをモニタリングするのにも
適している。例えば、加速度センサ、電子コンパスを
内蔵した小さなボックスを(万歩計のように)腰につ
けておくことで、建物の中での相対的な移動位置を知
るシステム [16] や、手の平の発汗量を計測することで
びっくりしりしたシーンを写真撮影することを目的と
した StartleCam と呼ばれるシステム [17] なども提案
されている。
4.4
認識を行うアプローチもありうる。
4.5
環境
人が生活する環境全体(家、オフィスなど)で人のイ
ンタラクションを見守り、情報サービスを提供しよう
とする試みがある。AwareHome プロジェクト [20] は、
家庭内の人の行き来や台所での作業などを見守り、情
報サービスのローミング、異常状態の検知、人の記憶
補助などに役立てることを目指している。EasyLiving
プロジェクト [21] は、主に居間における情報家電との
連携を目指して、人の身振り手振りを自動認識するこ
とを目指している。これらの試みにおける状況認識は、
基本的に複数カメラによる画像認識を用いている。
部屋の天井や壁に複数のカメラを埋め込む他にも、
我々が日常的に使っている文房具、家具、部屋の至る
所にタッチセンサ、温度センサ、加速度センサ、光セン
サなどの様々なセンサを埋め込み、連携させることで、
そこでの人や環境そのものの状況情報を収集すること
擬人化パートナー
厳めしいセンサやバッグを自ら身につけることに抵
抗がある人も少なくないであろう。そこで、人と近接
したりインタラクションすることを想定した人工物を
経由して、人の実世界インタラクションに関する状況
– 24 –
183
角:実空間インタラクションにおける状況認識の役割
も考えられる。最近ユビキタス・コンピューティング
の研究分野では盛んにセンサネットワークという概念
が議論されている。これは、小さいサイズのモジュー
ルに様々なセンサや無線通信能力を埋め込み、センサ
データを互いに伝播させながら空間全体の状況認識を
行おうというものであり(例えば [22])、最近は、塵程
度のサイズのモジュールも開発されている [23]。
4.6
より深いインタラクションの理解に向けて
実世界インタラクションにおける状況認識の最も大
きな動機は、人と共生する情報技術を実現すること
である。そのためには、人が他人や人工物とどのよう
にインタラクションするのか、もっとコンピュータに
理解してもらう必要がある。それには、個別のアプリ
ケーション開発ごとに行き当たりばったりで状況認識
に取り組んでいてはもはや不十分であり、人のインタ
ラクションを理解するための、機械可読の辞書のよう
なものがどうしても必要である。
筆者らはそういった動機から、実世界インタラクショ
ンを大量に蓄積し、蓄積されたデータに緩い構造を与
えて、インタラクション研究の基礎データとなるよう
な、インタラクション・コーパスの構築を提唱してい
る [24]。その最初の試みとして、大勢の見学者が訪れ
る研究発表会場における、説明員と見学者の間のイン
タラクションを包括的に記録することを試みた [25]。
?º¥1v®pèfœ¤ì™_j죜› ›v®pé
?º¥.LO"£œ› ›zk
fœ¤+£œ› ›
1v®pçzk
‰·ƒŒxn®
11&"‹~k
第4図
\@™_j
複数センサ群によるインタラクションの記録
テムによる視線情報や、生体センサによる情報、音声
のボリューム情報などから、実時間でインデクスが付
与される。したがって、希望のインタラクション・パ
ターン、例えば、ユーザ A が他人と会話しているシー
ンとか、ユーザ A が展示ブース X に滞在しているシー
ンとか、同一の対象物に会場の 5 人以上が同時に視線
を集中させたシーン、といったような部分を容易に抽
出することができる。
このようなインタラクション・コーパスをインタラ
クション分析に利用していくことで、人と人の会話に
おける身体表現のパターン(ミクロ的なインタラク
ション・パターン)や、開放空間における人の離合集
散のパターン(マクロ的なインタラクション・パター
ン)の社会的なプロトコルを理解していくための研究
が進むことを期待している。
5.
おわりに
WIMP、GUI、デスクトップメタファといったこれ
までのヒューマンインタフェースのパラダイムを超え
て、実世界インタラクションに基づいたヒューマンイ
ンタフェースを実現するためには、「状況認識」が重
要な役割を果たすことを解説した。
実世界インタラクションに基づいたヒューマンイン
タフェースを作る、ということは、人と共生する知的
システムを作ることに他ならない。まさにそういうこ
とを目標としてきた人工知能研究者の間では最近、環
境から独立した個体としての知的システム構築は不可
能であり、システムがおかれる「状況」にこそ知性や
意味が存在している、つまり、状況情報と組み合わせ
ながら知性を記述しよう、という考え方が広まってき
ている [26]。
本稿で紹介してきたように、実世界インタラクショ
ンと状況認識に関する研究はまだ緒についたばかりで
ある。WIMP、GUI、デスクトップメタファがパソコン
を多くの人々に広めることに貢献したように、実世界
インタラクションに基づいたヒューマンインタフェー
スについても、それらに代わるようなパラダイムが確
立されるべく、さらなる研究の発展に期待する。
謝
この試みの特徴は、第 4 図にあるように、環境側に
埋め込まれたセンサ群と、インタラクションの主体と
なる人が身につけるウェアラブルなセンサ群の統合で
ある。赤外線の ID システムを利用して、カメラ視野
に入った人やもの(ポスターや展示物など)の ID が、
実時間でインデクスとして記録される。また、展示会
場内には擬人化パートナーとしてのロボットも参加さ
せ、積極的にユーザとのインタラクションを演出・記
録することを試みた。
記録された大量のビデオデータには、赤外線 ID シス
– 25 –
辞
本稿の執筆には、間瀬健二第一研究室長をはじめと
する ATR メディア情報科学研究所諸員との日頃の共
同研究や議論が役立った。ここに感謝の意を表する。
参考文献
[1] A. K. Dey, G. D. Abowd, and D. Salber: A conceptual framework and a toolkit for supporting the rapid
prototyping of context-aware ppplications. HumanComputer Interaction, Vol. 16, No. 2-4, pp. 97–166,
2001.
184
システム/制御/情報 第 47 巻 第 4 号 (2003)
[2] J. I. Hong and J. A. Landay:
An infrastructure approach to context-aware computing. HumanComputer Interaction, Vol. 16, No. 2-4, pp. 287–303,
2001.
[3] T. Winograd: Architecture for context. HumanComputer Interaction, Vol. 16, No. 2-4, pp. 401–419,
2001.
[4] R. Want, A. Hopper, V. Falcão, and J. Gibbons:
The active badge location system. ACM Transactions on Information Systems, Vol. 10, No. 1, pp.
91–102, 1992.
[5] M. Lamming and M. Flynn:
“Forget-me-not”
Intimate computing in support of human memory. In Proceedings of International Symposium on
Next Generation Human Interface ’94, pp. 150–158.
FRIEND21, 1994.
[6] G. D. Abowd, C. G. Atkeson, J. Hong, S. Long, R.
Kooper, and M. Pinkerton: Cyberguide: A mobile
context-aware tour guide. Wireless Networks, Vol. 3,
No. 5, pp. 421–433, 1997.
[7] 垂水, 森下, 中尾, 上林: 時空間限定型オブジェクトシ
ステム: Spacetag. 安村通晃(編), インタラクティブ
システムとソフトウェア VI (WISS’98), pp. 1–10. 日本
ソフトウェア科学会, 近代科学社, 1998.
[8] S. Feiner, B. MacIntyre, and D. Seligmann:
Knowledge-based augmented reality. Communications of the ACM, Vol. 36, No. 7, pp. 52–62, 1993.
[9] 角, 江谷, フェルス, シモネ, 小林, 間瀬: C-MAP:
context-aware な展示ガイドシステムの試作. 情報処理
学会論文誌, Vol. 39, No. 10, pp. 2866–2878, 1998.
[10] 角, 間瀬: 実世界コンテキストに埋め込まれたコミュニ
ティウェア. 情報処理学会論文誌, Vol. 41, No. 10, pp.
2679–2688, 2000.
[11] 角: JSAI2000 デジタルアシスタントプロジェクトの
報告. 人工知能学会誌, Vol. 15, No. 6, pp. 1012–1026,
2000.
[12] 角, 間瀬: エージェントサロン:パーソナルエージェ
ント同士のおしゃべりを利用した出会いと対話の促
進. 電子情報通信学会論文誌, Vol. J84-D-I, No. 8, pp.
1231–1243, 2001.
[13] 角, 坂本, 中尾, 間瀬: コミックダイアリ:経験や興味を
伝え合うための漫画日記. インタラクション 2002, pp.
101–108. 情報処理学会, 2002.
[14] S. Mann: Humanistic intelligence: WearComp as
a new framework for intelligence signal processing.
Proceedings of the IEEE, Vol. 86, No. 11, pp. 2123–
2125, 1998.
[15] B. P. Clarkson: Life Patterns: Structure from Wearable Sensors. PhD thesis, MIT Media Lab, 2002.
[16] S.-W. Lee and K. Mase: Incremental motion-base location recognition. In The 5th International Symposium on Wearable Computers (ISWC2001), pp. 123–
– 26 –
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
130. IEEE, 2001.
J. Healey and R. W. Picard: StartleCam: A cybernetic wearable camera. In The 2th International Symposium on Wearable Computers (ISWC’98). IEEE,
1998.
米澤, クラークソン, 間瀬: 文脈適応型音楽生成をとも
なうぬいぐるみインタラクション. 情報処理学会論文
誌, Vol. 43, No. 8, pp. 2810–2820, 2002.
T. Kanda, H. Ishiguro, M. Imai, T. Ono, and K.
Mase: A constructive approach for developing interactive humanoid robots. In 2002 IEEE/RSJ International Conference on Intelligent Robots and Systems
(IROS 2002), pp. 1265–1270, 2002.
C. D. Kidd, R. Orr, G. D. Abowd, C. G. Atkeson,
I. A. Essa, B. MacIntyre, E. Mynatt, T. E. Startner, and W. Newstetter: The aware home: A living laboratory for ubiquitous computing research. In
Proceedings of CoBuild’99 (Springer LNCS1670), pp.
190–197, 1999.
B. Brumitt, B. Meyers, J. Krumm, A. Kern, and S.
Shafer: EasyLiving: Technologies for intelligent environments. In Proceedings of HUC 2000 (Springer
LNCS1927), pp. 12–29, 2000.
H.-W. Gellersen, A. Schmidt, and M. Beigl: Multisensor context-awareness in mobile devices and smart
artefacts. Mobile Networks and Applications, Vol. 7,
No. 5, pp. 341–351, 2002.
J. M. Kahn, R. H. Katz, and K. S. J. Pister: Next
century challenges: Mobile networking for “Smart
Dust”. In Proceedings of Mobicom ’99, pp. 271–278.
ACM, 1999.
角, 間瀬, 萩田: 人と人工物の共生を実現するためのイ
ンタラクション・コーパス. 第 16 回人工知能学会全国
大会, 2002.
角, 伊藤, 松口, Fels, 内海, 鈴木, 中原, 岩澤, 小暮, 間
瀬, 萩田: 複数センサ群による協調的なインタラクショ
ンの記録. インタラクション 2003, pp. 255–262. 情報
処理学会, 2003.
中島: 人工知能の身体性と社会性. 情報処理, Vol. 41,
No. 5, pp. 547–550, 2000.
著者略歴
すみ
やす
ゆき
角 康 之
1968 年 1 月 14 日生.1990 年早稲田
大学理工学部電子通信学科卒業.1995
年東京大学大学院(情報工学)修了.同
年より,ATR 知能映像通信研究所研究
員.現在,ATR メディア情報科学研究
所 主 任 研 究 員 .博 士( 工 学 ).研 究 の
興 味 は 知 識 処 理 シ ス テ ム と ヒュー マ ン イ ン タ フェー ス .
http://www.atr.co.jp/mis/˜sumi