<松田ゼミ-18 前へ>

報告者: 山下愛加(松田ゼミ 3年)

公共交通オープンデータ協議会が主催する「東京公共交通オープンデータチャレンジ」に応募し、東京地下鉄特別賞を受賞したので報告します。

image001 20180515_174157無

  1. 応募のきっかけ
    今回のコンテストの応募は、ゼミを通して、松田先生からこのコンテストを教えて頂いたことがきっかけです。コンテストを知ってから、公共交通オープンデータ協議会が、「東京」の公共交通を誰もがスムーズに乗りこなせるようにすることを目指し、公共交通関連データのオープン化を進めていることを知りました。私は、企画することに興味がありましたが、何より社会に出ると、公共交通オープンデータ協議会のように「誰かのために何かを考えること」はとても大切なことでやりがいも感じられると思ったので、応募することにしました。
  1. コンテストの内容と開催概要
    東京公共交通オープンデータチャレンジは、首都圏の様々な公共交通機関のデータを公開し、「東京」を応援するアプリケーションやアイデアの募集するコンテストでした。アプリケーション部門とアイデア部門がありましたが、私は、公共交通オープンデータを活用した新しいアプリケーション、サービス、ビジネス等のアイデアを募集する「アイデア部門」に応募しました。

    主催: 公共交通オープンデータ協議会
    共催: INIAD cHUB(東洋大学情報連携学部 学術実業連携機構)、東京大学大学院情報学環ユビキタス情報社会基盤研究センター、CPaaS.ioプロジェクト
    特別協力: 東京地下鉄株式会社、東京都交通局、東日本旅客鉄道株式会社
    協力: 小田急電鉄株式会社/京王電鉄株式会社/京成電鉄株式会社/京浜急行電鉄株式会社/ 西武鉄道株式会社/東京急行電鉄株式会社/東京臨海高速鉄道株式会社/ 東武鉄道株式会社/株式会社ゆりかもめ/小田急バス株式会社/関東バス株式会社/ 京王電鉄バス株式会社/ジェイアールバス関東株式会社/西武バス株式会社/ 東急バス株式会社/西東京バス株式会社/全日本空輸株式会社/ 東京国際空港ターミナル株式会社/成田国際空港株式会社
    オープンデータ・パートナー 一般社団法人オープン&ビッグデータ活用・地方創生推進機構(VLED)、国土地理院、気象庁、文化庁、公益社団法人 全国公立文化施設協会
    後援: 内閣官房IT総合戦略本部、総務省、国土交通省、東京都、気象ビジネス推進コンソーシアム

  1. 応募内容

・応募タイトル:「各駅の魅力を知ることが出来る電車内窓ビジョン広告」

・応募作品の説明: 現在、電車は日本を代表する交通機関の一つです。多くの人が利用する交通機関だからこそ電車は非常に効果の高い広告媒体ですが、現在はポスターなどの静的広告が多く、動きによって宣伝効果を高める動的広告は数が少ないのが現状です(図1-1)。また、2020年に開催される東京オリンピック・パラリンピックでは、世界中から色々な国籍、年齢、職業、身体特性を持つ方が、東京を訪れるために電車を利用します。そこで、「東京の駅の魅力を知ってもらうこと」を目的に、電車の窓を使った「窓ビジョン広告」を提案しました。

image002

1-1 現在の電車

「窓ビジョン広告」は、図1-2のように電車の走行中に車両の窓全体に、次の駅の人気観光スポット(渋谷のスクランブル交差点など)が写真で前から後ろへ流れるように映し出されます。


1-2 窓ビジョン広告(スクランブル交差点)

写真はInstagram、Twitterなどで募集し、日替わりで投影します。また、通学・通勤者が多い朝の限られた時間帯では、図1-3のようにお店の当日限定クーポンを窓に流し、そのクーポンを写真に撮ってお店で見せることで割引がされます。

image004

1-3 窓ビジョン広告(お店のクーポン)

本提案により、大画面での投影によって大きなインパクトを与えられるだけでなく(図1-4)、観光や通勤・通学に楽しさも加えられると思います。また、『世界一複雑とも言われる「東京」の公共交通を誰もがスムーズに乗りこなせるようにすること』の手助けをすることが可能になると思います。

image005

1-4 吊革に捕まった時の目線から見た写真の大きさ

コンテストの経緯は以下の通りです。
2017/12/27 企画することに興味があると、ゼミ面談で松田先生にお話しました。
2018/1~3  松田先生にコンテストを教えてもらい、アイデアを考え始め、アイデアの内容について相談にのってもらいました。
3/13  コンテストへ応募しました。
4/23  メールで入賞結果をいただきました。
5/15  表彰式とレセプションパーティーに出席しました。

  1. 「窓ビジョン広告」に込めた思い
    今回提案した「電車内窓ビジョン広告」は、自分の日々の生活から考えたものです。応募するにあたってアイデアを考えていたある日、私が通学のために利用した電車の中で、電車内は多くの人が乗っていて、色々な人が同じ場所で、それぞれの気分で過ごす特別な空間だと思いました。幸せな気分の人はより楽しく、たとえ辛い気持ちであっても、電車に乗って幸せな気分になれる素敵な広告があるといいなと思い、窓ビジョン広告の考えに至りました。次に降りようとする駅がある時、目的とする駅の魅力ある写真が窓を流れる広告は、きっと誰もを幸せな気分に出来るのではと思います。また、本提案により2020年に開催される東京オリンピック・パラリンピックでは、世界中から多種多様な国籍、年齢、職業、身体特性の方が、東京を訪れるために、多くの人が幸せな気分になれるのではないかと思います。これらの私の思いが伝わってくるような広告として提案が出来ていたらとても嬉しく思います。
  1. 最後に
    今回のコンテストは、私以外の入賞した方々の作品の驚くようなアイデアにとても刺激を受けました。また自分以外の考えを知ることは、とても勉強になりました。途中、自分に自信が持てず不安に思ったこともありましたが、松田先生をはじめとする応援し支えてくださった方々のおかげで、まだまだな私でもここまで進むことが出来ました。これからも様々なことに挑戦し、諦めず頑張っていこうと思います。本当にありがとうございました。
LINEで送る
Share on Facebook

<松田ゼミ-17 前へ>

報告者: 植田智恵美(松田ゼミ)

卒業研究として行った「ARを用いた「見て操作する」システムの試作と評価」を、3月15日、早稲田大学で開催された第80回情報処理学会全国大会で発表し、学生奨励賞を頂きましたので報告します。受賞理由は以下です。

  • 家電機器を操作する研究は今後重要である。
  • 実装から評価までをしっかり行っている。
    15210993921760gazeAward

論文はこちらをクリックしてください。

1.情報処理学会に関して

情報処理全般にわたる分野の調査・研究を目的とした学会で、全国大会は情報処理学会が年1回(春季)開催する学会最大のイベントです。大会では最新の学術・技術動向や情報に関する新しい研究成果やアイディア発表を通し意見交換・交流が行われます。

gazePresen

2.発表内容

今日、電化製品を含む様々な機器がIoT化されつつありますが、機器の操作方法は機能・設置場所に応じ様々です。例えば、天井の蛍光灯の照明はスイッチが操作対象(照明)と離れた場所にあり、どのスイッチがどの照明を制御するか分かりにくい、また、操作対象にスイッチがついている電気スタンドなどでは、手の届く範囲にない場合、スイッチを消しに行く必要があります。

このような不便さを解決する方法として、リモコンがありますが、リモコンは置いた場所を忘れたり、複数個使用していた場合は、電化製品ごとにリモコンを判断して使い分けるという使用上の負荷が生じます。今後、ARの発達に伴いHoloLensのようなカメラ付きのシースルー型の眼鏡の普及が予想される中、本研究では、これまで提案してきた「見て操作する」方式を、ARを用いて開発したシステムを使用して実験を行い、評価しました。

gazeAndControl

本システムは、Processingで開発し、AR用ライブラリとしてNyAR4psgを使用、電化製品の操作にはArduinoに赤外線LEDを搭載して用いました。本システムを起動し、電化製品に付けたマーカを認識するとタブレットの画面にカメラに映った電化製品とその操作ボタンが表示され、それをタッチすることで機器のON・OFF操作ができます。様々な機能の付いた機器では、各機能に対応するコントロールを表示し、制御する機能を持ちます。

gazeSystem

本システムの評価は、20名の本学の学生を対象に、本システムと複数のリモコン、学習リモコンを用い3つの照明器具を制御する実験を行いました。実験では、それぞれの試行における操作時間を計測し、最後に使い易さや操作に関するアンケートを行いました。

実験の結果、3つの器具の操作にかかった平均時間は、本システム(15.2秒)が最も短く、次いでリモコン(16.5秒)、学習リモコン(71.65秒)となりました。

gazeResult1

この結果から、本システムとリモコン、本システムと学習リモコンの操作時間に関してt検定を行ったところ、本システムとリモコンとでは有意差は認められませんでしたが、学習リモコンとでは有意差が認められました。一方、本システムとリモコンとでは有意差が認められなかった原因は、今回の実験ではリモコンを手元に並べた状態でON・OFF操作だけを行ったためと考えられ、様々な種類のリモコンが散在していたり、他の機能を操作する実環境では差が出るものと考えられます。

また、アンケートの結果から、3つの操作方法(本システム、複数のリモコン、学習リモコン)の中で本システムが最も使い易かったと80%が感じており、ユーザー体験としては良好なものであることが分かりました。

gazeResult2

以上より、「見て操作する」方式を使用した本システムは、他の方法と比べ最も早く操作出来た人が多く、アンケートからも被験者に受け入れられる可能性が高いということが分かりました。今後の予定としては、本実験では簡易評価のため視覚的なマーカと赤外線による機器操作を用いましたが、マーカは、赤外線マーカなど目に見えないものに変更、機器の操作もIoT化を前提にネットワーク経由で行えるようにすることなどがあげられます。また、ネットワーク上に機器の状態管理サーバを置くことで、複数の人が同一機器を操作したしたときに機器の状態をUIに反映することが可能となります。

gazeStateServer
3.
発表に関して

全国大会当日は、午前の部で発表を行いました。初めての学会発表で、私が参加したセッションの中でもトップバッターだったということもあり、とても緊張しましたが、無事に発表を終えることができました。発表後3人の方から質問、コメントをいただきました。

  • 複数の電化製品のマーカが画面の中にあった場合はどうなるのか?
  • 最終的にはHoloLensのようなHMDで研究をするのか?HoloLensにはこのような研究を行うのに適したライブラリがある。
  • 被験者は学習リモコンを使ったことがあるのか?無い場合は、練習はしたのか?
  • Sonyが出しているタッチパネル型の学習リモコンで評価するとよい

等の質問以外にも、新たなアイディアや知識も得ることができ、とても充実した15分間となりました。

4.終わりに

3年次の後期から本研究を始め、システムの制作で思い通りにいかないこともありましたが、ご指導をいただきました松田晃一教授、非常勤講師の永田雅人先生、実験やアンケートに協力して下さった松田ゼミのメンバーをはじめ多くの方々の協力によって、今回の発表を成功させることができました。発表後、他の大学の方々から面白い研究だったというお言葉をいただき、評価していただけたことを非常に嬉しく思います。また、他の大学の方の研究も聞くことができ、視野を広げることができました。このような素晴らしい経験をさせていただきありがとうございました。この経験は今後の生活の中でも活かしていきたいと思います。

LINEで送る
Share on Facebook

<松田ゼミ-16 前へ>

報告者: 平野愛里(松田ゼミ)

卒業研究として行った「 ヒューマノイド型ロボット“Pepper”を用いた学習支援システムの 試作と評価 」を、3月13日に早稲田大学で開催され第80回情報処理学会全国大会で発表してきましたので報告します。論文はここをクリックしてください。

1.情報処理学会に関して

情報処理全般にわたる分野の調査・研究を目的とした学会で、全国大会は情報処理学会が年1回(春季)開催する学会最大のイベントです。大会では最新の学術・技術動向や情報に関する新しい研究成果やアイディア発表を通し意見交換・交流が行われます。

pepperPresen

2.発表内容

近年のヒューマノイド型ロボットの性能は人工知能の発達に伴い著しく向上し、近い将来、このようなロボットが家庭内に家事以外にも勉強を支援するようになると考えられます。従来の勉強法には暗記やリビング学習、スマホ勉強法などがありますが、これらは基本的に、進捗を管理したり、解答の正否が分かるだけのものが多く、単調な学習の繰り返しになりやすかったり、飽きやすく継続しにくいという問題があります。本研究では、学習を褒めるという行為に注目し、家庭内にヒューマノイド型ロボットが居る環境での学習支援に関し、Pepperを用いて開発した学習支援システムを用いた実験・評価をしました。

pepperSystem

本システム開発は、ChoregrapheでPepperのアプリケーションとして開発し、テストと採点システムの開発はHTML5とJavaScriptで行いました。

システムを起動すると、Pepperが挨拶と説明を発話し、テストを胸タブレットに表示します。ユーザは胸部タブレットに表示された問題を解き、解答作業が終了すると結果を表示、Pepperが得点に応じて三次元的な「褒める」動作を行い、応援メッセージを発話します。動作と応援メッセージは得点ごとに異なります。

pepperTabletpepperMotion

本システムの評価は、24名の大学生を対象に12名ずつ2グループに分けてテスト問題を解く実験を行いました。グループAは紙の問題用紙と本システムでPepper、グループBはタブレット端末上のテストシステムとPepperで解いてもらいました。タブレット端末にはPepperで動いているテストシステムと同じものが動いており、音声で褒めるだけな点が異なります。テストは2017年のITパスポートから10問を選び被験者ごとに異なるものを使用しました。どちらのグループもテストの解答から答え合わせまでの時間の計測を行い、テスト終了後、被験者にアンケート(4項目)を実施しました。

テストの解答時間の平均は、タブレットと本システムとでは差があまりなく、紙テストは1分ほど長く、これは答え合わせの時間と考えられます。

pepperResult1

学習の継続性本システムと紙のテストでは75%が本システムの方が継続できそう、本システムとタブレット端末では、88%が本システムの方が継続できそうと回答しました。これは、Pepperが発話を交えて褒める動作が学習者に影響したためと考えられます。

pepperResult2

学習の達成感本システムと紙テストでは、58%が本システム、本システムとタブレット端末では、83%が本システムの方が達成感を感じていたことが分かりました。本システムと紙との差が大きくないのは、従来の解答を紙に書き込むという作業に伴う達成感に起因するものと考えられます。

pepperResult3

問題の解きやすさ本システムと紙テストでは67%が本システムの方が解きやすいと感じ、本システムとタブレット端末では問題の解きやすさは同じでした。これは、紙との比較では、本システムの解答作業がPepperのタブレットをタップするだけで済む簡易さに起因するものと考えられます。

pepperResult4

褒められた感テスト後の声掛けで褒められたと感じたのは70%の人がタブレット端末よりも本システムと回答しました。音声だけのタブレット端末に比べ、人型をしたPepperの褒める動作が、学習者により褒められているという印象を与えたものと考えられます。

pepperResult5

また、自由記述欄からは、「Pepperが出来によって声をかけてくれるので継続しても飽きないと感じた」、「Pepperの動作が人間のように感じ、人に見られている気がして集中できるような気がした」などの意見が得られ、Pepperの身体性が影響していることが分かりました。

3. 発表に関して

全国大会当日は、大会初日の午前の部で発表を行いました。当日までの練習の甲斐あって、とても緊張したものの練習通りに発表することができました。発表後には3人の方から質問、コメントをいただきました。

  • Pepperの行動を分岐させるのは点数で行っているのか?
  • タブレットで動いているシステムはPepperのとどこが異なるのか?
  • 実験には、男子も入れた実験をやってみるとよい。高齢者でやっても面白いかもしれない

4.終わりに

発表では想定していなかった質問もあり、緊張しましたが、何とか回答して無事に発表を終えることが出来ました。今回の学会発表では、他の学生の発表を聞けたり、研究を褒めていただいたり、自分にとってとても良い経験になりました。今回の経験を、これからに生かしていきたいと思います。

LINEで送る
Share on Facebook

<松田ゼミ-15 前へ>

報告者: 狩野麗羅(松田ゼミ)

卒業研究として行った「心拍の可視化システムの試作とコミュニケーションに与える影響の評価—図形、光、振動を用いて」を3月13日に早稲田大学で開催され第80回情報処理学会全国大会で発表してきましたので報告します。論文はここをクリックしてください。

1.情報処理学会に関して

情報処理全般にわたる分野の調査・研究を目的とした学会で、全国大会は情報処理学会が年1回(春季)開催する学会最大のイベントです。大会では最新の学術・技術動向や情報に関する新しい研究成果やアイディア発表を通し意見交換・交流が行われます。

heartPresen

2.発表内容

今日行われている遠隔コミュニケーションは、電話以外にも、SNS、チャット、LINE等を用いたものなど多彩になってきています。また、インターネットの発達により様々な情報を伝えられるようになってきていますが、これらのツールが伝える情報は音声や文字、画像などが主であり、それ以外の対話者の情報はプロフィールや写真等の静的な情報が多いままです。一方で、対話者そのものの動的な情報を伝える遠隔コミュニケーション方法にTV電話がありますが、これは必要以上に情報を伝え過ぎる点で上記のツールに比べて普及していません。

本研究では簡易に対話者の動的な情報を伝える手段として対話者の心拍に注目しました。心拍は人の精神や体の状態がよく現われ、心拍数は気分と関係することが分かっています。本稿では、遠隔コミュニケーションに心拍を、図形のアニメーション、光、振動の3方法で可視化するシステムを導入・評価しました。

heartSys

本システムの評価方法は20名の女子大学生を対象に行いました。2 名 1 組で、部屋A、部屋Bに分かれ行い、電話を用い会話内容は指定せずに5分間会話、実験中に会話が心拍と連動していると感じた際にマウスのクリックをお願いしました。最後にアンケートを行いました。

実験の結果、心拍の可視化方法として、分かりやすかった可視化方法は、振動65%、アニメーション30%、光5%となりました。この結果から視覚情報だけでなく振動を聴覚でも感じる事が出来たため振動が一番となったことが分かりました。

result1

アニメ・光・振動の3つの可視化方法として、どれがコミュニケーションに影響したかの問いに関しては、アニメ、振動が80%と同数となり光が55%となりました。この結果から、アニメ、振動が同じなのは、可視化表示が話題の盛り上がりと連動していると感じられたためという事が分かりました。

result2

心拍と連動したと感じたクリック回数の総数では、振動>光>アニメの順となりました。振動や光の方がアニメーションよりも会話と連動している印象を与え易いことが分かり。

result3

理由として、振動や光の方がアニメーションよりも会話を妨げずに情報を取得し易いと考えられます。

本システムを体験し、コミュニケーションに違いが出たかの問いに対して、違いが出たと感じた、少し感じたのは100%となりました。結果から、可視化表示を利用し、積極的にコミュニケーションをとることが分かりました。

result4

また、自由記述欄からは、「日常生活で会話しているときには相手の心拍は分からないので、それらが可視化されて見ることができ、とても面白かった」、「話の流れによって心拍の変動を見ることが出来て楽しかった」、「話し相手の心拍が可視化されることによって相手の状況が読めるのは単純に面白いと感じた」などの意見が得られ、本体験が「楽しい・面白い」ものと感じていたことが分かりました。

3.発表に関して

全国大会当日は、午後の部で発表を行いました。とても緊張しましたが、当日までに何度も練習を行ってきたので何とか練習通りに発表することができました。発表後3人の方から質問、コメントをいただきました。

  • 人によっては心拍を相手に伝えることを不快に感じるのではないか?
  • 円による可視化は直感的なのか?グラフの方が直感的では?
  • 振動モーターを使ってどのよう遠隔コミュニケーションを考えているのか?

想定していた質問もありましたが、緊張してしまいうまく答えることができず、もっと自分の研究に対して何でも答えられるようにしないといけないということを実感しました。

4.終わりに

3年の秋ごろから研究を本格化し、システムの制作や実験で大変な時期もありましたが無事に発表を終えることができました。発表後、他大の教授から面白い研究だったと仰っていただき、自分の研究を他の学生などに知ってもらうとても良い経験をさせていただきました。この経験を社会でも活かしていきたいと思います。

 

 

 

 

LINEで送る
Share on Facebook

<松田ゼミ-14 前へ>

社会情報学部情報デザイン専攻の松田ゼミでは、地域連携プロジェクト「ヒューマノイドロボットPepperによる地域児童の参加・コミュニケーション体験型イベント」の活動の一環として2016年11月15日に唐木田児童館で子供達を集めPepperの体験イベントを開催しました。

1. 唐木田児童館との連携イベント

近年の機械学習やAI(人工知能)の進展により、近い将来ますますロボットやAIが地域社会の日常生活に欠かせない身近な存在になっていくことが考えられます。本プロジェクトでは、多摩市立唐木田児童館と連携し、たくさんの児童にロボットとの共生のあり方を考える場を提供する体験型イベントを開催しました(11月15日)。唐木田児童館では、平成27年にも地域連携イベントとしてPepperによる「ようかい体操」を開催し大変好評でした。

今回も、児童館の三枝館長にアドバイスとご協力をいただきながらイベントの設定を進めてきました。児童館には、イベントのポスターと告知用の広報誌を作成していただき(図1)、事前の申し込み受付や参加者の把握などを行っていただきました。

パンフレットs
図1 児童館ポスター

イベントは準備段階からPepper 2台を設置し、自然な動作をしたり、音声・人物認識で人の方向を向くように設定しておいたので、Pepperの周りに子供たちが集まり、Pepperに「こっちを向いて!」や「ペッパー!」と話しかけたりするなど興味津々でした(図2)。最初のうちは子供たちがイベント中に集まってくれるか少し心配していましたが、学校を終えた子供たちが徐々に駆けつけてくれました。

ペッパー_171212_0024
図2 イベント開始前の様子

2. ゼミ紹介・ロボット講演・Pepperクイズ大会

イベントでは最初に、松田ゼミの研究紹介や横浜国大の永田氏によるロボットについての講演を行いました(図3)。年少さんや低学年児童らにとっては、用語などが少し難しいところもあったかもしれませんが、みな熱心に聞いてくれました。

ペッパー_171212_0066ペッパー_171212_0068

図3 松田ゼミの研究紹介とロボットについての講演

その後、Pepperが中心となってクイズ大会を実施しました(図4)。今回もゼミ生11人が中心になって、児童らにロボットに対する親近感や興味を持ってもらい、多学年(年少~小6)の児童が楽しめる参加型のクイズ大会を企画しました。イベントの流れは、絵コンテやリハーサルなどを繰り返すことで確認し、できるだけ違和感がなくなるようにPepperのイベント用のプログラムを開発しました。

クイズの形式は、Pepperが音声で出題した後にジェスチャでカウントダウンし、児童らがその間に正解のエリアに移動、その後、Pepperが正解を発話するものです。移動時やPepperによる正解発表時には児童らは大変盛り上がっていました。

ペッパー_171212_0088ペッパー_171212_0076

図4 Pepperクイズ大会

クイズ大会の後は、質問タイムを設けました。子供たちは次々に手を挙げて、「ペッパーは歌を歌えるの?」、「ペッパーはどうやって動いているの?」といった質問をし、ロボットに対する興味の高さが伺えました(図5左)。最後に、子供たちに今回のイベントに関するアンケートを記入してもらいました(図5右)。アンケートを提出するときには、ゼミ生らが作成した「Pepper認定証カード」を渡しました。

ペッパー_171212_0093ペッパー_171212_0108

図5 質問タイムとアンケート

3. アンケートの結果

イベント後のアンケート結果より、小学1・2年生が59%を占め、88%がイベントを楽しみ、92%がまた来たいと答えていました(図6)。

グラフaグラフb

グラフcグラフd

図6 アンケート結果1

図7左に、全5問のクイズの正解数のグラフを示します。クイズは、低学年児童でも答えられるような内容(例えば「パンダのしっぽは黒いか白いか?」)を、ゼミ生らが相談して決めました。難易度のバランス的にはちょうど良かったのではないかと思います。

グラフgグラフh

図7 アンケート結果2

図7右は、Pepperが自宅にあるとどう思うかについてのアンケート結果です。大半の子供たちが「Pepperが自宅にあると楽しそう」と答え、「楽しくなさそう」と答えている児童は一人もいなかったことから、Pepperなどのロボットに対して親近感を持っているのではないかと考えられます。

4. 最後に

今回のようなイベントでは、自由奔放な児童らの対応や、その場の「空気を読んだ」指示出し、どのタイミングで次のアクションに移行するかなどが重要ですが、Pepperやその他のロボットAIにとっては現状では難しいため、今回はサポートのゼミ生らが行いました。 今後は、そのようなイベント構成要素をどれだけロボットに組み込んで自動化できるかが課題であると考えています。

ご協力頂いた唐木田児童館の館長の話によると、子供たちはイベントの次の日から早くも「ペッパーは次いつ来るの?」といった質問があったそうで、期待の高さと興味がうかがえます。次世代を担う地域児童にテクノロジーを自然な形で紹介し、興味を持った児童らが将来的に地域社会の活性化につなげてくれることを期待したいと思います。

●司会: 新保楓
●ビデオ、カメラ撮影係: 竹畑柚希・藤田夏海・藤川瑞生
●パネル提示係: 大滝美幸・藤吉綾乃
●児童の対応、誘導係: 伊藤有紀・今田歩実・大滝美幸・藤巻佳純・松下彩

LINEで送る
Share on Facebook

<松田ゼミ-13 前へ>

松田ゼミに所属するゼミ生(谷口)は、卒業研究として「拡張現実感(AR)を用いた書籍情報提示システムの試作とそのユーザー体験の評価」を行いました。今回は、3月10日、慶應義塾大学の矢上キャンパスで開催され情報処理学会が主催する第78回全国大会で発表してきましたので報告します。論文はここをクリックしてください。

1.情報処理学会に関して

データベースシステム、ソフトウェア工学など情報処理全般にわたる分野の調査・研究を目的とした機関です。全国大会は情報処理学会が年1回(春季)開催する学会最大のイベントです。最新の学術・技術動向や情報に関する新しい研究成果やアイディア発表を通し意見交換・交流を行っています。

1

2.発表内容

書店で書籍を購入する際にユーザーはあらすじや表紙を参考にしています。しかし、このようなあらすじを読んだり、表紙を見たりするには、本棚から本を取り出し、手に取り、読んでは元の本棚に戻すという動作を繰り返す必要があります。
本研究では、このような手間を省略することを可能にする書籍情報提示システムを試作し評価しました。

本システムは、Processingで開発し、拡張現実感用のライブラリとしてNyAR4psgを使用しました。システムを起動すると、カメラを通して得られた映像の上部にファインダーが表示され、ファインダーにマーカーを合わせるとあらすじが表示されます。

2

本システムの評価方法は15名の女子大学生を対象に行いました。対象書籍は漫画とし、事前アンケートで得た、被験者の知らない10種類の漫画3巻ずつをA、Bの2セット、計60冊を用意し、被験者には、指定された本(主人公の概要を示した)を、手に取って探す方法(以下、手取)でAセットから、本システムを使用する方法でBセットから探してもらいました。指定された本を見つけるまでの本の参照回数と時間をそれぞれの方法で計測し、最後にアンケートを行いました。

実験の結果、被験者全員の手取での平均探索時間は12.34s(平均探索回数5.3回),本システムでの平均探索時間は10.42s(平均探索回数9.1回)となりました。この結果から、手取の遅い方の2つのデータと、本システムの速い方の2つのデータを外れ値として除いたデータを用い平均探索時間に関しt検定を行った結果、有意差が認められました(p= 0.0028 < 0.05)。手で本を探すよりも本システムで探索するほうが一冊当たりの本の探索時間が短くなることが証明できました。

4

しかし、探索時間は本システムの方が短かったのですが、両システムの差は2秒程度という結果になりました。また、アンケート結果から本システムで早く探せたと感じた人は40%と半分以下にとどまり、ユーザー体験的には十分ではないことわかりました。この原因としてはファインダーにマーカーを合わせるのが大変だったという点と、手取りの場合は表紙、背表紙がすぐに見れたが、本システムではあらすじのみだったため目的の本のイメージがしにくかったという点があります。今後の課題としてはマーカー認識の手間を軽減し、ユーザー体験をより向上させる、あらすじ以外にも表紙の画像を表示させることなどで、自分の読みたい書籍をより選びやすく支援するなどの点があげられます。

3.発表に関して

全国大会当日は、午後の部で発表を行いました。とても緊張しましたが、当日までに何度も練習を行ってきたので何とか練習通りに発表することができました。発表後4人の方から質問、コメントをいただきました。

  • マーカーが、すべての漫画についていないのはなぜか
  • この研究は選ぶ時間を短縮したいのか?
  • 漫画喫茶などで使えば面白そう

等、想定していた質問もされましたが、緊張してしまいうまく答えることができず、もっと自分の研究に対して何でも答えられるようにしないといけないということを実感しました。

4.終わりに

3年の秋ごろから本研究を始め、システムの制作や実験で大変な時期もありましたが無事に発表を終えることができました。発表後、他大の教授から面白い研究だったと仰っていただき、自分の研究を他の学生などに知ってもらうとても良い経験をさせていただきました。この経験を社会でも活かしていきたいです。

 

LINEで送る
Share on Facebook

<松田ゼミ-12 前へ>

社会情報学部情報デザイン専攻の松田ゼミでは、地域連携プロジェクト「ヒューマノイドロボット Pepper を通した参加・体験型イベント」の活動の一環として11月18日に唐木田児童館で子供達を集めPepperの体験イベントを開催しました。

1. 児童館との協業

今回のイベントは、これまでに経験がない児童が対象であったため、イベントの設定は、唐木田児童館の三枝館長にアドバイスとご協力をいただいて行いました。児童館にイベントのポスターを作成いただき(図1)、事前の申し込み受付、参加人数の制限、参加者の把握などを行っていただきました。
poster

図1 ポスター

児童館によるとイベントの2週間前に受付を開始し、その日の内に50名の定員が埋まってしまったそうです。このことから、子供たちや保護者の関心が高いことが分かりました。最終的な申し込みは子供55名と保護者数名で、当日の参加者は子供53名と保護者数名でした。当日の会場の様子を写真1に示します。

event

写真1 当日の様子

2. イベントの様子

当日は、松田が大学と研究の紹介を行い、次に、ソニー(株)でエンジニアをしてらした由谷哲夫氏から、招待講演として「Pepperの紹介とこれからのロボットとの関わり方」についてご講演を頂きました。

その後、ゼミ生が中心となってPepperと子供たちの体験イベントを行いました(写真2)。体験イベントは、Pepperと一緒に「ようかい体操第一」を踊るものとPepperとのじゃんけん大会です(写真3)。Pepperは人間と同じ速さでは動けないのでかなりゆっくりとした体操でしたが、それがかえって子供達には新鮮だったようで、非常に面白がっているように見えました。

semi

会場の広さの都合で50人が一度には踊れないので、2つのチームに分け交代で踊ってもらい、その後全員でPepperが音頭を取ってのじゃんけん大会を行い、最後に子供たちからの質問に答える時間を取りました。

janken

今回は「ようかい体操」や「じゃんけん」などインタラクションとしては比較的簡単なものでしたが、Pepperと一緒に遊ぶことで、人との関わりあいを主体にした新しいタイプのロボットを実際に体験でき、子供たちの関心を高めることができたようです。これが、その後の質問時間の盛り上がりにも続いたと思われ、「見ることができるのか?」「早く動けないのはなぜか?」「どうやって動いているのか?」「どうして勝手に動くのか?」など多くの子供たちが途切れることなく次々に質問を行いました。このため、当初10分程度を予定していましたが、子供たちの積極さに押され10分近くも時間を延長しました。最後にアンケートを行いました。

3. アンケートの結果

アンケートの結果を以下に示します。アンケートより、参加者の学年は1~3年生が中心で、男女比率はほぼ半々であることが分かりました。これから、男子だけでなく女子も高い関心を持っていることが分かりました。また、アンケートはとっていませんが、保護者の方もほとんど女性でした。

e1

また、イベントが楽しかったかどうかに関しては以下の結果から、高い関心を持たせることができたと考えられます。

e2

また、後日、三枝館長から、子供たちから「来年も来てほしい」、「Pepperは成長するのだろうか」といった感想があったというお話をいただきました。さらに、保護者の方から「将来はPepperのようなロボットが家庭に入ってくるのだろうか」など数日間は話題によく上がっていたとのことです。新しいロボットを感じていただくことができたと思われます。

Pepperは、独特の風貌をしており幼児だと怖がる子もいるので、小学生がどう感じたかもアンケートしました。

e3

結果は多くの子供が「かわいい」と感じており、何らかの好感を持ったといえます。Pepperが一所懸命踊る姿も好感を持たせるのに影響した可能性も考えられます。

4. おわりに

ゼミ生は、イベントで何をするかの検討、準備、児童館との打ち合わせ、当日の司会進行や子供たちの誘導を行い、外部の組織との協業や子供たちのパワーに実際に触れることで貴重な体験ができたようです。

最後に、児童館から「来年も是非成長したPepperを見せに来てほしい」との要望をいただき、来年度のイベントでもより進んだロボットの姿や関わり方を子供たちに見せられるよう今後も継続的にPepperを進化させていく予定です。

 

 

 

LINEで送る
Share on Facebook

<松田ゼミ-11 前へ>

報告者(松田ゼミ:池田彩子)

松田ゼミに所属するゼミ生(池田)は、卒業研究として「料理のレシピ提示支援システムの開発と評価」を行い、卒業論文として提出しました。今回はその締めくくりとして、3月10日から12日にかけて、慶應義塾大学(矢上キャンパス)で開催された一般社団法人情報処理学会が主催する情報処理学会 第78回全国大会で発表してきましたので報告します。学会に提出した論文はここをクリックしてください。

図8

1.発表内容

今回の発表は、従来の料理サイトの問題を明らかにし、新しい料理レシピ提示支援システムの提案するものです。

これまでに作ったことのない料理を作る時は、そのレシピを見ながら、料理をすることが多いと思います。今日、公開されているほとんどの料理サイト(クックパッド、シェフごはん、レシピブログ等)は、文章と画像だけで構成されており、インターネットで簡単に検索できるので、スマートフォンやタブレットで、レシピを参照しながら、料理をすることができます。しかし、料理中には手が汚れることが多く、汚れた手のままでは操作がしにくいという問題があります。

また、既存のサイトは文章と写真だけで料理の工程が分かりにくく、動画による説明があるサイトもありますが、全工程に動画がなかったり、短く編集されていたり、逆に全工程が1つにまとめられてしまっています。まとめられている場合には、巻き戻し、早送りなどの操作が増えるという問題があります。

このような問題を元に、本研究ではレシピ提示支援システムCookingを試作しました。本システムは、ジェスチャ認識を行う小型の装置(Leap Motion)をパソコンに接続することで、手の動き(ジェスチャ)で表示したレシピの操作を可能にします。

Cookingで表示するレシピは、後で述べる実験の評価条件をそろえるために、クックパッドに掲載されているレシピ(http://cookpad.com/recipe/390716、2854122)を再構成したものを用い、各工程に動画を付加しました。マカロンは12工程10動画、肉じゃがは8工程7動画の構成としました。

図9

 

本システムの評価は、料理に苦手意識を持つ学生20人にクックパッドと本システムを使用して、マカロンと肉じゃがを作ってもらうことで行いました。実験は唐木田市民センターの調理室をお借りして行いました。

実験の結果、実験後のアンケートから、本システムの使用感、成功率の項目に関しては、20人中18人が本システムを選び、使いやすい、という評価結果が得られました。また、料理の成功率は、マカロンの場合、本システムで70%、クックパッドで0%となり、肉じゃがは全員が両方のシステムで成功しました。

図10

図11

このような料理の成功・不成功の結果を分析してみると、アンケート結果より、レシピで分かりにくい作業が結果に影響していることが分かりました。肉じゃがの分かりにくい作業は野菜の切り方(くし切り)で一方、マカロンは、生地作りが分かりにくい工程でした。肉じゃかのは、料理の成否にあまり影響しませんが、マカロンの生地作りは成否に大きく影響します。この作業はクックパッドの画像だけでは分からなく、Cooking の動画が功を奏していました。なお、このようなクックパッドのレシピの情報不足は肉じゃがを作成する際にも生じていましたが、被験者が実験中に他サイトを調べることで問題が顕在化しなかったようです。

また、マカロンでは、このような情報不足を他サイトで補う行動は両システムともに観察されませんでした。これは、お菓子作りでは特有の速めの作業が求められるため時間的余裕がないのに加え、料理による手の汚れが原因だと考えられ、アンケート結果にも現れていました。

以上より、各工程に付加した動画がレシピの情報不足を補い、操作性も向上することができるこおとが分かりました。また、Cookingで提供したジェスチャ機能と動画機能は、マカロンでは動画機能が評価され、肉じゃがではジェスチャ機能が評価されるなど、料理により評価が異なることも分かりました。

今後の課題としては、動画が必要な工程と不要な工程などの条件を明らかにし、一般の人が動画を付加されたCookingのレシピを作成しやすくすることがあげられます。

図12

図13

2.Leap Motionとは

Leap Motion(リープモーション)は、2012年にLeap Motion社から販売された手のジェスチャによって、コンピュータの操作ができるデバイスです。マウスや画面タッチを用いずに操作ができる体感型のシステムで、ジェスチャによって直観的に操作することが可能とします(ウィキペディア引用/https://ja.wikipedia.org/wiki/Leap_Motion)。

図15

3.発表に関して

発表会は、午後から開始だったので、お昼休憩の間にパソコンの接続、資料の最終確認をし、発表までの時間を過ごしました。私の発表したセクションは、院生を含めた全員学生で、8名の発表がありました。発表時間は12分、質問時間が3分でした。

初めての学会発表であり、私自身かなりのあがり症なので、しっかり発表出来るかとても不安でした。ですが、当日までに2回松田先生に練習して頂いて、家でも何度も練習をしたので、自分でも驚くほど落ち着いて発表することができました。発表後、頂いた質問をいくつか載せます。

  • 成功率にかなりの差があるが、クックパッドのレシピ(つくれぽでレシピごとに評価がある)は、高い評価のものを使用したのか。
  • 料理の難易度によって実験の結果に影響はないのか。

今回公共の場での発表は2度目でしたが、少しずつ自分が成長していることを、今回の発表で実感することができ、とても嬉しかったです。今回の経験を、これからに活かしていこうと思います。

 

 

 

LINEで送る
Share on Facebook

<松田ゼミ-10 前へ>

報告者: 椎野綾菜(松田ゼミ)

今回、先生から、初心者向けのp5.jsというプログラミング言語の入門書(p5.jsプログラミングガイド、図1)を一緒に書く機会をいただきました。

今回の本の執筆作業は、次のようでした。(1)プログラムを作成する、(2) Wordで原稿を書く、(3)原稿をチェックする、(4) 出版社へ送付する、です。出版社に送付するとゲラ(版下と同じものの電子版)が戻ってきます。そのゲラをチェックして送ると出版されるという流れになっています。今回は、7月の下旬から、プログラミングを作成し始め、Wordで原稿を執筆し、先生に添削して頂き、8月が終わるまでには終わりました。また、9月の授業が始まるまで、先生が書かれた第2章の文章の校正もさせていただきました。

book
図1 本の表紙

1. p5.jsとは?

p5.jsは、ブラウザで動くアプリケーションやそれを含むWebページを開発するための新しいプログラミング環境です。これまでは、WebページはHTML5とJavaScriptを使って作成されていました。しかしながら、HTML5とJavaScriptを使って開発するのは簡単ではありません。このため、それを簡易に行えるようにするさまざまなライブラリが提供されてきました。p5.jsもWebページを簡易に行うためのJavaScriptのライブラリの1種です。これは、1年生の必修のプログラミング入門という授業で学ぶProcessingをベースに開発されており、Processingをより便利に、Webページでも使えるようにしたものです。

 2. 自分の書いたところの苦労

私は、第13章「2Dゲームを作る」を執筆しました。人に伝えるための文章を書いてみて、プログラミング用語の意味をしっかり理解していないかったことに気が付きました。例えば、戻り値についてC言語ではreturn 0; が戻り値だと誤って認識していたため、関数の説明で戻り値を説明しようとした時に、戻り値とは何かがわからなくなってしまいました。また、調べても引数と戻り値の説明が難しく、変数に引数と戻り値がない場合や、戻り値が目に見える変化がない場合があったため、説明に苦労しました。また、先生からは容赦なく真っ赤に修正された原稿が戻って来ました(図2)。

checkedMaterial
図2 チェックされた原稿

3.  原稿のチェック

先生が書かれた第2章の文章を「初心者でもわかるか」という点に注意して校正をしていきました(図3)。その際に苦労したことは、初心者の視点にたって文章を読んでいくこと、そして初心者が理解しにくい箇所をみつけることでした。私は大学の授業でプログラミングの勉強をしているため、文章を読んでいくうえで無意識のうちに自分の中でその文章を理解しているということがありました。しかし、初心者にとってその文章はわかりやすいのか、プログラミング経験者と初心者の差を見極めるのが大変でした。また、その文章をいざわかりやすいように直そうとしても、うまい言葉や言い回しを見つけ出すことができず、誰もがわかる文章を書くということに頭を悩ませました。
shiinocheck
図3 チェックした原稿

 4. まとめ

本を書かせていただいて、分かりやすく人に伝える事や、文章の組み立て方の難しさを学びました。また、初心者の人でも分かりやすくするためにはどうすればいいのかを工夫することが楽しかったです。実際に本が送られてきて、手に取ってみると1ヶ月頑張って書いたものが形になったことに感動しました。p5.jsに興味を持った方は、是非この本を読んでp5.jsを勉強してみて、何か作ってみてください。今後、私もこのp5.jsを使って何か面白い作品を作成してみたいと思います。

このような貴重な経験をさせていただき、ありがとうございました。

LINEで送る
Share on Facebook

<松田ゼミ-9 前へ>

報告者(松田ゼミ: 瀬川怜奈、藤生七海)

松田ゼミでは、3年生のゼミⅡの講義2回を使って、Pepperというロボットについて学びました。松田先生に加え、大妻女子大学の研究補佐員である由谷先生をお呼びして、詳しく教えていただきました。

1.Pepperとは

Pepperはソフトバンクが販売する人型ロボットです(図1)。高さは120.1cm、幅が42.5cm、重さは28kgあり、センサーが7か所・カメラとマイクが1か所あります。Pepperはプログラミングすることができます。Pepperのプログラミングは、Choregraphe(コレグラフ)というアプリケーションをWi-Fi経由でPepperに接続して行います。コレグラフは、ロボットの動作を作成し、それをPepperで実行できるツールで、ALDEBARANの公式サイトから無料でダウンロードできます。

図1
図1

Pepperをプログラムするには、まず、Pepperを起動します。起動が終わったらコレグラフとPepperを接続します(図2)。

図.2
図2

2. 今回勉強した3つの動作

今回はPepperの3つの動作を勉強しました(図3)。1つ目は「発話」、2つ目は「移動」、3つ目は「センサーを作動させる」です。

図3
図3

2.1 Pepperを発話させる

Pepperに言葉を発させたい場合、左側のボックスライブラリにある”Speech”に機能があります。この中の”Creation”にある”Say”ボックスを使用します。このボックスを置き、言語をJapaneseに設定し、その下に喋らせる内容を入力します。あとは再生ボタンを押すと、入力した言葉を日本語で話してくれます(図4)。

図4
図4

2.2 Pepperを移動させる

Pepperの移動はx座標y座標を使って表しています(図5)。移動させるためには、”Movement”の中の”Navigation”にある”Move To”ボックスを使用します(図6)。”Move To”ボックスのx座標とy座標の項目に移動させたい距離を入力し、再生ボタンを押すとPepperが移動してくれます。

図5
図5

図6
図6

2.3 Pepperのセンサーを使う

今度は、Pepperの頭を触るとPepperが喋るようにしてみます。Pepperが持つセンサーが人の手を検知して、それを認識した後に好きな言葉を喋らせることが出来ます。これは、”Sensing”という項目の中にある”Tactile Head”ボックスを使用し、それを”Say”と繋げることで可能になります(図7)。

図7
図7

今回は以上の3つの動作を学びました。このような1つ1つの動作を組み合わせることでPepperの動作を作り出すことができます。組み合わせ方の自由度は高く、自分のさせたいようにPepperを動かしたり喋らせたりでき、オリジナルの動きを自分で作り出すことができます。

3. 学祭での活動

授業の以外にも、10月17日、18日に行われた大妻多摩祭でPepperの展示を行いました。その際、Pepperに内蔵されている2つのアプリを使い、見に来ていただいた方に楽しんでもらえるようにしました。その2つを紹介したいと思います。

  • オーディションアプリ
  • Pepperが人の声と表情を読み取り、演技に点数をつけてくれるアプリです。演技のお題は、泣きの演技・笑いの演技・怒りの演技の三つです。Pepperに提示されたセリフとお題を読むと、100点満点で採点をしてくれます。
  • 献立アプリ
  • ご飯の献立をランダムで提案してくれるアプリです。歌を歌いながら料理を画像と共に薦めてくれます。食べたいか食べたくないかを聞かれるので、食べたいと答えるとそのメニューの詳細情報とQRコードを表示してくれます。スマホなどでQRコードを読み込むと、レシピを見ることもできます。食べたくないと言うと別の献立を提案してくれます。

来ていただいたお客様はPepperを初めて見る方が多く、とても興味をもっていただけました。オーディションアプリでは全力で演技をし、高得点を獲得する方々がたくさんいました。献立アプリでは歌を歌うところで一緒にリズムにのって踊ったり、薦められた献立をみて「季節に合っていて、美味しそうね」と言って頂いたり、楽しんでいただけたと思います。

4.まとめ

今回Pepperの勉強を2回にわたって行いましたが、ロボットということで最初はどうしても苦手なイメージがありました。しかし実際にやってみると理解をしてしまえば仕組みはそんなに難しくなく、誰にでもロボットを動かすことができるということが分かりました。Pepperは操作やプログラムを作成するのを簡単に行うことができます。また、多くのアプリが内蔵されており、使用の幅も広く、さまざまなことに活用できるのではないかと思いました。これを機にPepperについてもっと深く勉強してみたいと思いました。

LINEで送る
Share on Facebook