Contents
- 12月4日(水)
- 10:00 デモ会場オープン
- 10:30 受付
- 13:00-13:20 オープニング
- 13:20-13:40 デモ・ポスター中継1
- 13:40-15:00 デモ・ポスターセッション1
- 15:20-16:50 セッション1 「対話と共有」 座長: 江渡 浩一郎
- 17:05-18:05 招待講演
- 21:00-00:00 ナイトセッション
- 00:00-03:00 ミッドナイトセッション
- 12月5日(木)
- 09:00-10:30 セッション2 「読み書き」 座長: 豊田 正史
- 10:45-11:55 セッション3 「実世界」 座長: 野嶋 琢也
- 13:10-13:30 デモ・ポスター中継2
- 13:30-15:10 デモ・ポスターセッション2
- 15:30-16:40 セッション4 「動画」 座長: 伊藤 貴之
- 16:55-18:05 セッション5 「I/O」 座長: 坂本 大介
- 21:00-00:00 ナイトセッション
- 00:00-03:00 ミッドナイトセッション
- 12月6日(金)
- 09:00-09:20 デモ・ポスター中継3
- 09:20-10:40 デモ・ポスターセッション3
- 11:00-11:45 セッション6 「記憶」 座長: 渡邊 恵太
- 12:00-12:30 クロージング
- Excursion
プログラム
- 発表時間は、発表17分+質疑応答5分の合計22分です。(プレゼンを多少短くして質疑応答を増やしても構いません)
- 登壇発表セッションの後の15分間は、会場前方における発表者との質疑のためのオフィスアワーとします。
- デモ・ポスターセッションは、最初の20分程度が「デモ中継」の時間に割り当てられます。
12月4日(水)
10:00 デモ会場オープン
10:30 受付
13:00-13:20 オープニング
13:20-13:40 デモ・ポスター中継1
13:40-15:00 デモ・ポスターセッション1
15:20-16:50 セッション1 「対話と共有」 座長: 江渡 浩一郎
ネイティブ英語発話の日本人風の発音への変換による国際的な意識の促進
西田 健志 (神戸大学)
日本人の話している英語の方が聞き取りやすい。それならネイティブが話しているのも日本人みたいな発音に変えてしまえばいいと私は思いました。聞き取りやすければ話そうという気力も湧いてくるものですし、ネイティブの側にも「こういう風に話せば日本人には通じやすいのか」と気付いて優しい気持ちを持ってくれたらうれしいです。あなたもそう思いませんか?[最優秀論文賞受賞]SmartVoice:言語の壁を越えたプレゼンテーションサポーティングシステム
李 翔 (東京大学), 暦本 純一 (東京大学/Sony CSL)
音声データ化した原稿を講演者の口の動きにあわせてスマートに送り出し,講演者が自分のタイミングで講演できるように,言語の壁を越えてプレゼンを可能にするシステム「SmartVoice」を提案する.音声のイントネーションや強弱も,口の位置と形状に基づいて制御するため,まるで講演者本人が直接喋っているように見える.多言語によるプレゼンに限らず,映像に音声・セリフを入れるアフターレコーディングなど他分野における応用も可能.視覚障害者のための写真撮影・閲覧・共有インタフェース
浅川 智恵子, 原田 丞, 佐藤 大介, 石原 辰也, 木 啓伸 (日本IBM)
視覚障害者の写真撮影・閲覧・共有を可能にするスマートフォンアプリ“Accessible Photo Album”(APA) を開発した.APAは写真と音声メモ・周辺音を結びつけて記録する.5人の視覚障害者被験者が実験者とペアで外出して写真を撮影したうえで,別の実験者に写真を説明するという実験を行い,音声メモと周辺音を活用して視覚障害者が主体的に撮影・閲覧・共有を楽しめることを示した.
個人的な小さな幸せを実現するブラウザ上での動画編集・共有手法
中村 聡史 (明治大学), 石川 直樹 (東京農工大学), 渡邊 恵太 (明治大学)
本研究では,YouTubeやニコニコ動画などの動画共有サイトに投稿されている任意の動画に対して,ユーザの嗜好に基づく独自の味付け(音量変化やスキップ,音声の付与など)を可能とする新しい動画視聴および編集環境を実現する.実現手法は,ウェブブラウザの拡張として実装されており,動画をダウンロードすること無く気軽に編集することが可能であり,他者との共有も可能としている.17:05-18:05 招待講演
智猶水也:研究構想の経験から
石田亨(京都大学)
21:00-00:00 ナイトセッション
00:00-03:00 ミッドナイトセッション
12月5日(木)
09:00-10:30 セッション2 「読み書き」 座長: 豊田 正史
HirakuReader : 行間を拡張する電子書籍
中村 将達, 西田 健志 (神戸大学)
文章中にある行間をメディアとして活用する電子書籍リーダー、HirakuReaderを提案する。電子書籍は能動的読書を促す効果が期待されているが、その機能・デザインに紙の本が持つイメージを強く残しているためにその本領を発揮できていない。本研究では、行間を開くことで読者による本への書き込みの共有や情報提示を実現し、電子書籍の可能性を引き出す試みを行った。SuprIME: IMEによるテキスト編集機能の統合
中園 翔, 増井 俊之 (慶應義塾大学)
計算機上で様々なテキストエディタが利用されているが,システムごとに編集方法や編集機能が異なっているのが不便である.本研究では,各国語入力のためにOSに用意されているIME(Input Method Editor)機能を利用することにより,あらゆるテキストエディタにおいて同じ操作によるテキスト編集を可能にする方法を提案する.CapStudio: プログラムの実行画面の録画映像を利用した統合開発環境
深堀 孔明, 坂本 大介, 加藤 淳, 五十嵐 健夫 (東京大学)
通常,プログラム開発は,コードエディタ上でプログラムのソースコードを編集することによって行われる.しかし,ゲーム開発においては,キャラクタ画像やボタンの配置など見た目に関わる部分はゲームの実行画面を見ながらリアルタイムに編集できた方が直感的である.そこで本稿ではゲーム画面の録画映像をベースとしたエディタ(スクリーンキャスト)を組み込んだ統合開発環境 CapStudio を実装した順解析と逆解析を相互に利用する打楽器のインタラクティブなデザインインタフェース
山本 和彦 (東京大学/ヤマハ株式会社), 五十嵐 健夫 (東京大学)
打楽器のデザインを行うために,物体形状からその音色を計算する順解析と音色からそれを再現可能な形状を推定する逆解析を交互に行い,その支援を行うインタフェースを提案する.本システムでは,形状を編集した場合には音色を,音色を編集した場合には対応する形状をそれぞれインタラクティブにフィードバックすることによって形状と音色両面から打楽器をデザインしていくことを可能とする.10:45-11:55 セッション3 「実世界」 座長: 野嶋 琢也
SensingFork:フォーク型センサを用いた食行動改善手法
門村 亜珠沙 (お茶の水女子大学), 李 爭原, 陳 嚴章 (国立台湾大学) 塚田 浩二 (はこだて未来大学), 朱 浩華 (国立台湾大学)
本研究では,子供の食行動の改善を目的に,食事中の動作と大まかな食材の種類を検出するために,カラーセンサ/電極/マイコン/Bluetooth/バッテリーなどのモジュールをフォーク自体に組み込んだデバイス:センシングフォークの設計と実装を行った.さらに,センシングフォークと連動し,子供の食習慣改善を目指すスマートフォン用のアプリケーション:腹ペコパンダを実装した.鍵盤上への演奏補助情報投影機能をもつピアノ学習支援システムにおける熟達化プロセスに関する調査
竹川 佳成, 椿本 弥生, 田柳 恵美子, 平田 圭二 (公立はこだて未来大学)
本研究では,筆者らが提案してきたピアノ学習支援システムを成人ピアノ初級者に5日間連続で練習してもらい,そのときに得られた視線データや打鍵データから,演奏補助情報と熟達度の関係や,提案システムで獲得できるメタな学習能力について議論する.視線データより熟達するにつれ演奏補助情報から離脱する様子が観測され,個人の学習方略が熟達度に大きく影響する結果が得られた.LumoSpheres: 複数浮遊物体の実時間追跡にもとづく映像投影
山口 裕明, 小池 英樹 (電気通信大学)
空中を浮遊する大量の粒子を実時間追跡し映像を投影することで体積型の立体ディスプレイを実現する構想を提案し,その基礎段階として少数の運動している球に実時間追跡にもとづき映像を投影するシステムを構築した.応用例として,トスジャグリングの球に映像を投影するDigitalJugglingと,立体ディスプレイの構想に向けたプロトタイプを実装し,構想を実現するための要素を議論した.13:10-13:30 デモ・ポスター中継2
13:30-15:10 デモ・ポスターセッション2
15:30-16:40 セッション4 「動画」 座長: 伊藤 貴之
画像照合に基づく多メディア間の話題追跡システム
豊田 正史, 伊藤 正彦 (東京大学), Cai-Zhi Zhu, 佐藤 真一 (国立情報学研究所), 喜連川 優 (東京大学 生産技術研究所)
Webと放送映像との間の画像の対応関係に基づき話題の追跡を行うため,ブログ等のWebメディアに投稿された大量の画像から大きな話題になった画像群を抽出し,これらが放送映像を起源とするものかどうかを放送映像アーカイブと照合することで,話題の時差や露出の差を調査できる手法を実現した.本システムを用いて,大規模なブログアーカイブと放送映像アーカイブを分析した事例を幾つか示すことで本システムの有用性を示す.静止画内物体への変形指示による動画検索
川手 裕太, 岡部 誠, 尾内 理紀夫 (電気通信大学), 平野 廣美 (楽天株式会社/電気通信大学)
我々は動画から視聴したいシーンを素早く,容易に検索するためのユーザインタフェースを提案する.ユーザは動画内の一時停止フレーム等の静止画を入力し,静止画内の物体の変形を矢印2本のスケッチによって指示をする.その後,システムはユーザが矢印で指定した変形に類似したシーンを検索し,ユーザは目的のシーンを視聴することができる.料理画像をアニメーションすることによる魅力的な料理動画生成システム
崎山 翔平, 岡部 誠, 尾内 理紀夫 (電気通信大学), 平野 廣美 (楽天株式会社/電気通信大学)
1枚の料理画像をアニメーションすることでより魅力的な料理動画を作成するためのシステムを提案する.泡や湯気,具材の揺れなど,料理をより魅力的に見せる要素は多く存在するが,これらは非常に多くのパラメータを持ち,アニメーションの中でうまく表現することは難しい。本研究ではユーザの少ない入力を基にシステムがそれらのパラメータを適切に設定し,誰でも簡単に短時間で料理動画の生成を可能とするシステムを実現した.16:55-18:05 セッション5 「I/O」 座長: 坂本 大介
SyncBlink: 同期刺激によるナビゲーション方式の提案と評価
志摩 駿介 (神戸大学), 綾塚 祐二 (株式会社電通国際情報サービス), 寺田 努, 塚本 昌彦 (神戸大学)
ユーザを誘導する情報を提示するシステムにおいて課題となるのは,提示情報と現実世界とのマッチングである.例えば,画面上の地図に進むべきルートや曲がるべき交差点が明示されていても,それらが目の前のどの道,どの交差点に対応するかわからなければユーザは迷うことになる.そこで本研究では,パーソナルデバイスと環境側が連携し,同期した刺激をユーザに提示することでナビゲーションを行う方式 SyncBlink を提案する.Traxion:仮想力覚提示デバイス
暦本 純一 (東京大学/Sony CSL)
(準備中)
HandyScope:引き出しジェスチャを用いたテーブルトップ用遠隔地操作手法
栗原 拓郎, 三田 裕策, 大西 主紗, 志築 文太郎, 田中 二郎 (筑波大学)
HandyScopeは大型テーブルトップを対象とした遠隔地操作手法である.HandyScopeを用いることにより,ユーザは手元から遠隔地を操作することができる.また,手元と遠隔地の間にてオブジェクトの移動を行うことが出来る.HandyScopeの起動,操作には引き出しジェスチャを用いるため,ユーザは従来のマルチタッチ操作と競合することなく素速くポインティングを行うことができる.21:00-00:00 ナイトセッション
00:00-03:00 ミッドナイトセッション
12月6日(金)
09:00-09:20 デモ・ポスター中継3
09:20-10:40 デモ・ポスターセッション3
11:00-11:45 セッション6 「記憶」 座長: 渡邊 恵太
ライフログによる記憶拡張のための探索手法とその実践
中村 聡史 (明治大学)
主観写真ライフログは,短期作業記憶と長期記憶を補完する,拡張記憶の可能性を秘めている.本稿では,このライフログを単に記録するだけでなく,記録を検索して記憶として引き出すことを可能とする仕組みを実現する.また,写真ベースの膨大なライフログを効果的に活用する手法を実現する.さらに,10年近いライフログの利活用から見えてきた利点や問題点などを整理する.EpisoPass: エピソード記憶にもとづくパスワード管理
増井 俊之 (慶應義塾大学)
(準備中)