Contents
- 12月2日(水)
- 10:00 デモ会場オープン
- 10:30 受付開始
- 13:15-13:35 オープニング
- 13:35-13:55 デモ中継
- 13:55-15:15 デモ・ポスターセッション1
- 15:15-15:30 休憩 (15分)
- 15:30-16:45 セッション1「デバイスと操作」 座長:瀬川典久(京産大)
- 16:45-17:00 休憩 (15分)
- 17:00-18:15 セッション2「音楽」 座長:伊藤貴之(お茶大)
- 21:00-0:00 ナイトセッション
- 0:00- ミッドナイトセッション
- 12月3日(木)
- 9:00-10:40 セッション3「コミュニケーションと作業支援」 座長:小倉加奈代(岩手県立大)
- 10:40-10:55 休憩 (15分)
- 10:55-12:10 セッション4「プログラム管理とテキスト操作」 座長:橋本直(明治大)
- 12:10-13:15 昼休み (65分)
- 13:15-13:35 デモ中継
- 13:35-14:55 デモ・ポスターセッション2
- 14:55-15:10 休憩 (15分)
- 15:10-16:25 セッション5「ジェスチャ」 座長:簗瀬洋平(Unity)
- 16:25-16:40 休憩 (15分)
- 16:40-17:55 セッション6「ペットとロボット」 座長:中村裕美(東大)
- 21:00-0:00 ナイトセッション
- 0:00- ミッドナイトセッション
- 12月4日(金)
- 9:00-9:20 デモ中継
- 9:20-10:40 デモ・ポスターセッション3
- 10:40-10:55 休憩 (15分)
- 10:55-11:55 招待講演 /座長: 塚本昌彦(神戸大) (60分)
- 11:55-12:30 クロージング
プログラム
プロシーディングスは WISS の Webサイトにて公開中です。
- 発表時間は、発表15分+質疑応答10分の合計25分です。(プレゼンを多少短くして質疑応答を増やしても構いません)
- 登壇発表セッションの後の15分間は、会場前方における発表者との質疑のためのオフィスアワーとします。
- デモ・ポスターセッションは、最初の20分程度が「デモ中継」の時間に割り当てられます。
12月2日(水)
10:00 デモ会場オープン
10:30 受付開始
13:15-13:35 オープニング
13:35-13:55 デモ中継
13:55-15:15 デモ・ポスターセッション1
15:15-15:30 休憩 (15分)
15:30-16:45 セッション1「デバイスと操作」 座長:瀬川典久(京産大)
Capacitive Blocks: 静電容量に基づくブロックシステム
吉田 有花,志築 文太郎,田中 二郎(筑波大)
我々は静電容量に基づくブロックシステム(Capacitive Blocks)を開発した.このシステムの個々のブロック(Capacitive Block)は静電容量を持つコンデンサとなるように作られており,3Dプリンタで印刷することが可能である.本システムは,静電容量を計測することにより,積み重ねられたブロックの計数を行い,仮想空間内に3Dモデルを表示する.ペイントインタフェースによるボリュームセグメンテーション
五十嵐 健夫,庄野 直之,斉藤 季,金 太一(東大)
3次元医用画像からセグメンテーション処理によってサーフェスモデルを効率よく作成するための新しいユーザインタフェースとして、従来のように無駄な部分を個別に選んで取り除くのでなく,目的とする部分をクリックやドラッグでペイントすることによって「色づけ」してく方法を提案する.また,技術的な工夫として,個別の画素に対して異なる閾値を割り当て,それをペイント操作によって間接的に編集するという仕組みを導入する.なでて操作するカードボード HMD
加藤 邦拓,宮下 芳明(明治大)
本研究ではカードボードHMD のためのコントローラ作成手法を提案する.これによりHMD をなでてのスクロールやスワイプなどの操作ができる.また,コンテンツにマッチした様々なインタラクションを実現できる.提案手法では先行研究ExtensionSticker の技術を用いることで,内部に格納したスマートフォンを操作する.今回,VR コンテンツを作成するメイカソンを実施し,提案手法によって実現しうる様々なインタラクションの可能性も議論する.16:45-17:00 休憩 (15分)
17:00-18:15 セッション2「音楽」 座長:伊藤貴之(お茶大)
LyriSys: 歌詞の大局的構造に基づいた作詞支援インタフェース
渡邉 研斗,松林 優一郎,乾 健太郎(東北大),中野 倫靖,深山 覚,後藤 真孝(産総研)
本研究では,作詞の専門知識を持たない人に対して作詞支援をするインタフェースLyriSysを提案する.本インタフェースでは,モーラ数を含む楽曲の構造と「切ない」「情景」などのストーリー要素,品詞や活用形などの形態素パターンを指定することで,ストーリーを考慮した歌詞や1番と類似した形態素パターンを持つ2番の歌詞を制作することが可能となる.Songrium RelayPlay: リレー再生による同曲異唱コンテンツ視聴支援インタフェース
濱崎 雅弘,中野 倫靖,後藤 真孝(産総研)
大量の同曲異唱コンテンツ(同一楽曲を異なる人々がそれぞれ歌った音楽コンテンツ)を視聴するための新しい音楽視聴支援インタフェース Songrium RelayPlay を提案する.提案インタフェースはWeb上の同曲異唱コンテンツを自動抽出し,自動的につないで一つの楽曲として再生(リレー再生)する機能を提供する.これにより,ある一つの楽曲を聴くという体験に,複数の歌手の歌声を聴くという体験を付け加えることができる.LyricListPlayer: 歌詞でリアルタイムにザッピングできる音楽再生インタフェース
中野 倫靖,後藤 真孝(産総研)
音楽プレイリストの再生において、再生中の歌詞に局所的に類似している他の楽曲の歌詞を、リアルタイムに一覧表示して可視化する音楽再生インタフェースLyricListPlayerを提案する。一覧表示された類似歌詞をクリックすると、その該当箇所から再生できるザッピング機能も持つ。今聴いている歌詞やその意味が、他の曲ではどういう文脈で使われ、歌手によってどう歌われるのか等といった、楽曲を横断した観点での音楽鑑賞を可能とする。21:00-0:00 ナイトセッション
0:00- ミッドナイトセッション
12月3日(木)
9:00-10:40 セッション3「コミュニケーションと作業支援」 座長:小倉加奈代(岩手県立大)
ChameleonMask: 人の存在感を提示する仮面型テレプレゼンスシステム
三澤 加奈(東大),暦本 純一(東大/ソニーCSL)
ChameleonMaskは遠隔ユーザの顔が表示された顔ディスプレイを代理人が着用することで、社会的な存在感と身体的な存在感の提示を目指すテレプレゼンスシステムである。多くのテレプレゼンスシステムは、遠隔ユーザの存在感を提示するのに自律移動ロボットを用いてきた。一方、本システムは遠隔ユーザの代理として“ひと”に着目した。システムの紹介の他、ChameleonMaskの今後の可能性について述べる。i/k-Contact:ユーザ間の信頼関係を利用したコンテキストアウェア認証
藤田 真浩,有村 汐里(静岡大),可児 潤也(富士通研究所),司波章(富士通研),西垣 正勝(静岡大)
ユーザ間に成立する「物理的な信頼関係」という文脈を用いて被認証者の認証可否をコントロールするコンテキストアウェア認証を提案する.提案方式は,隣席者同士が目視によって携帯デバイスの所有者を確認する仕組み「i-Contact」とi-Contactを通じて集約される情報を利用して認証閾値を動的変更するユーザ認証「k-Contact」から構成される.物理的な信頼関係を利用しているため,ユーザ同士の対面コミュニケーションを促進する効果も期待される.遠隔作業支援シナリオにおける注視位置可視化の効果
樋口 啓太,米谷 竜,佐藤 洋一(東大)
実世界における作業者に対して遠隔地にいる他者(指示者)の指示を伝達する遠隔作業支援シナリオにおいて,指示者の視線情報を利用した新たな支援の枠組みを提案する.本研究では,1) 机上での組み立て作業を想定した固定視点カメラ・プロジェクタベースの支援システム, 2) 移動を伴う作業を想定したウェアラブルカメラ・HMDベースの支援システムを構築・評価し,作業空間への指示がより効率的に行えることを示した.
作業者の身体性に基づく建築の設計及び施工手法
鷹見 洋介,五十嵐 健夫,小渕 祐介,永田 康介,米田 一晃,堀田 憲祐(東大)
本研究では, 設計・施工両方において計画的に作業負担を軽減するため, 作業者の身体性を考慮した建築設計・施工手法を提案する. 作業内容を作業中の動作パターン数種類に限定し, 設計でこれらを用いて大型構造物建設の施工プロセスを生成する. 提案手法の検証として, 発砲ウレタン材からなる棒状の骨組みを手作業で空中に描いていく実験的な建築工法に応用し, 建築スケールのモックアップの設計・建設を行った.10:40-10:55 休憩 (15分)
10:55-12:10 セッション4「プログラム管理とテキスト操作」 座長:橋本直(明治大)
単純さと高機能性を両立した小規模バージョン管理ツール
三上 裕明,坂本 大介,五十嵐 健夫(東大)
(準備中)コメントイン:コメントを先に書くことによる新形態のAPI リファレンス
薄羽 大樹,宮下 芳明(明治大)
「使うべきAPIの仕様が分からないユーザ」を対象とし,コメントを先に書くことによる新形態のAPIリファレンス「コメントイン」を提案する.ユーザが入力したコメントに関連して「そのプログラミング言語でできること」を推薦する.ユーザは,候補一覧から「やりたかったこと」をプレビュー・選択し,プログラムを記述する.これにより,ユーザは仕様が分からない命令をも簡単に自身のプログラムに取り入れることができる.Fix and Slide: 文字列全体を操作することによるキャレットの操作手法
鈴木 健司,岡部 和昌,坂本 竜基(ヤフー),坂本 大介(東大)
スマートフォンに代表されるタッチ操作可能な小型携帯端末では,指が画面を隠してしまい操作が難しくなる場合が存在する.この問題は「画面をタッチする指で操作対象そのものを操作する」ことに起因しているため,操作対象そのものではなく画面全体を操作するアプローチにより問題解決が可能であると考えられる.本稿では画面全体を移動させることで文字列選択を可能とするUIを実装し評価した結果を報告する.12:10-13:15 昼休み (65分)
13:15-13:35 デモ中継
13:35-14:55 デモ・ポスターセッション2
14:55-15:10 休憩 (15分)
15:10-16:25 セッション5「ジェスチャ」 座長:簗瀬洋平(Unity)
ThumbSlide: 親指スライドジェスチャによるスマートウォッチ操作手法
青山 周平,阿部 哲也,志築 文太郎,田中 二郎(筑波大)
スマートウォッチを装着した側の手のみを用いてスマートウォッチを操作するための手法「ThumbSlide」を示す.ThumbSlide は,スマートウォッチを装着した手の親指を人差し指の側面にてスライドさせ,スマートウォッチ上のカーソルを横軸方向に操作する手法である.操作の認識には,赤外線近接センサを用いて,親指動作に伴う手首の形状変化を測定することにより行う.B2B-Swipe:超小型タッチパネル端末のためのベゼルからベゼルへのスワイプジェスチャ
久保 勇貴,志築 文太郎,田中 二郎(筑波大)
超小型端末のタッチパネル上において,1本指にて行えるタッチジェスチャB2B-Swipeを示す.B2B-Swipeは超小型端末のベゼルからベゼルへのスワイプである.超小型端末のタッチパネルは小さい,すなわちベゼル間の距離が短いためユーザはB2B-Swipeを容易に行える.また,ユーザは指から得られる触覚によって各ベゼルを区別できるため,B2B-Swipeをアイズフリーにて行うことができる.またB2B-Swipeは,センサを追加せず超小型端末上の入力語彙を増やすことが可能である.MonoTouch:複数ジェスチャ判別が可能な単一電極タッチセンサ
高田 崚介,志築 文太郎,田中 二郎(筑波大)
MonoTouchはタップ,上下左右スワイプを判別可能な静電容量式の単一電極タッチセンサである.この電極はジェスチャごとに応答が異なるように設計された,導電部と非導電部からなる電極パターンを有しており,3Dプリントが可能である.複数の導電部に指がまたがることにより判別精度が落ちる問題があったが,サイズおよび形状を変えた電極を用いた実験から,電極形状を工夫することにより改善できることが示唆された.16:25-16:40 休憩 (15分)
16:40-17:55 セッション6「ペットとロボット」 座長:中村裕美(東大)
球体型自走ロボットを用いたダンスパフォーマンス環境の構築
土田 修平(神戸大),寺田 努(神戸大/JST),塚本 昌彦(神戸大)
(準備中)〜CyclePet〜プロジェクション型ARを利用したサイクリング促進システム
松下 卓矢(中京大),濱川 礼(中京大/東大)
本研究ではプロジェクション型ARを用い,ペットの映像や仲間とのサイクリング風景などを表現することでサイクリストのモチベーション向上をはかることを目的としている.今回実システムとして『CyclePet』を開発した.『CyclePet』はプロジェクターから自転車の先を走る動物を投影することでペットと散歩しているかのような体験ができるシステムである.実験の結果,評価者のサイクリングに対するモチベーションの短期的な向上が確認できた.いたねこ:人間に痛みを伝える遠隔猫じゃらし
安齊 クレア(お茶の水女子大),的場 やすし(お茶の水女子大学),椎尾 一郎(お茶の水女子大)
遠隔地から自宅の猫の様子をビデオ画面で確認しつつ,猫じゃらしを遠隔操作するシステムを開発した.本システムの大きな特徴は,猫が猫じゃらしを捕まえると操作者の手にひっかかれた感触が伝わる点である.21:00-0:00 ナイトセッション
0:00- ミッドナイトセッション
12月4日(金)
9:00-9:20 デモ中継
9:20-10:40 デモ・ポスターセッション3
10:40-10:55 休憩 (15分)
10:55-11:55 招待講演 /座長: 塚本昌彦(神戸大) (60分)
「音声分析による感情推定とその応用」
光吉 俊二(みつよし しゅんじ)(東京大学大学院医学系研究科社会連携講座特任講師)
音声から感情を推定する手法を人体構造と自律神経の関連性を数学的にモデル化し、従来ないような緻密な感情モデルとそれをもとにした高性能な感情推定エンジンを構築した。さらにそれらの技術をベースにベンチャーを立ち上げ、数々の応用分野で画期的かつ実用的な成果をあげた後、企業を辞めて大学に奉職。その後も音声分析技術をベースにさまざまなパートナーとともに数々の大型プロジェクトを遂行している。本講演ではそれらの技術および成果の概要について解説していただく。