実世界と動画を連携したIoTプログラミング学習支援

近年,IoTが一般化している中で,ArduinoやRaspberry PiなどのIoTデバイスの動作や仕組みを他者と共有する場面が増えてきている.この際,ソースコードやテキストのみではデバイスの振る舞いを伝えることは困難であるため,オンラインでのチュートリアル動画が広く利用されている.また,IoTプログラミング学習では,動画の内容やソースコード,ユーザの手元にあるデバイスや回路と言った複数の要素を意識して学習していく必要がある.そのため,初学者は複数の要素のどれを意識すればいいのか・どこから見ればいいのか,分からずに困ってしまうということがある.また,チュートリアル動画は,従来のテキスト形式と比較すると,ソースコードとのリンクが弱く,動画上のデバイスの挙動の詳細理解が難しいという問題がある.
そこで本研究では,IoTデバイスのチュートリアル動画にスクリプト言語を埋め込むことで,実世界のIoTデバイスとWeb上でのソースコード提示を制御し,動画視聴者の学習を支援するシステムを提案・開発する.本システムでは,動画上のデバイスの動きに対応して,実世界のデバイス操作とソースコードの提示を行うことができる.たとえば,動画でデバイスのLEDが光ると,ユーザの手元のデバイスのLEDも光り,システム画面でLED点灯のソースコードが表示される.システムを用いることで,動画視聴者のデバイスに関する理解度の上昇やモチベーションの向上といった効果が期待できる.


発表

  • 川谷 知寛, 塚田 浩二, 栗原 一貴. IoTeach: 実世界と順序型コンテンツを連携したIoT学習支援システムの試作と評価. コンピュータ ソフトウェア, 2023, 40 巻, 3 号, p. 3_97-3_112. 2023-08-29.  https://doi.org/10.11309/jssst.40.3_97
  • Tomohiro Kawatani, Koji Tsukada, and Kazutaka Kurihara. IoTeach:Learning Support System for IoT Programming by Integrating Real Devices and Sequential Contents. In Companion Proceedings of the 28th International Conference on Intelligent User Interfaces (IUI ’23 Companion). pp.16–20. 2023-03. https://doi.org/10.1145/3581754.3584121
  • 川谷 知寛,塚田 浩二,栗原 一貴.実世界と順序型コンテンツを連携したIoTプログラミング学習支援システム.登壇発表(ロング).WISS2021予稿集,pp.43-49.2021-12.[PDF]【サイバーエージェント賞】
  • 川谷 知寛,塚田 浩二,栗原 一貴.実世界と動画を連携したIoTプログラミング学習支援システム.インタラクション2021論文集,インタラクティブ発表(プレミアム発表),1A01,pp.103-108,2021-03.[PDF]


スマートウォッチを用いた共創的モノづくり環境のための動画マニュアル制作支援システム

FabLab 等のファブコミュニティにおいては,ユーザは 3D プリンタ等を用いた作品だけでなく,それを他者にシェアするための手順書の作成も期待されている.しかし,こうした手順書作成の負担は大きいため,実現されないことも多い.また,画像やテキスト中心の従来の手順書では細かい手技等は表現できないため,ユーザに一定の知識や技術を暗に要求してしまう問題もある.

本研究では,スマートウォッチとスマートフォンを組み合わせることで,机上での組み立て操作を手軽に記録/編集して,動画マニュアルの作成を支援するシステムを提案する.まず,モノづくり中の組立動作を両腕に付けたスマートウォッチと机上に固定したスマートフォンで記録し,モーションデータ/動画を Web 上に保存する.次に,モーションデータを元に特徴的な動作に対して,動画に手動/自動でタグ付けを行うことで,自動的にチャプターや字幕が作成され,動画マニュアルのドラフトとして活用できる.

デバイス構成と利用時の様子
システム構成
スマートウォッチを用いた収集データの一例.
特に右手(利き手)のセンサデータに特徴が見られる.

発表

  • 会津 慎弥, 塚田 浩二, スマートウォッチを用いたモノづくりマニュアル作成支援システムの提案, 情報処理学会研究報告, 2018-HCI-180(9), pp.1-7, Nov,2018. [PDF]
  • Shinya Aizu and Koji Tsukada, Support System for Creating Manufacturing Manual using Smart Watches, In Proceedings of the 2018 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2018 ACM International Symposium on Wearable Computers (UbiComp ’18). pp. 323-326, Oct, 2018.[PDF]
  • 会津 慎弥,塚田 浩二, スマートウォッチを用いたモノづくりの動作検出に対する試み,WISS2017論文集,1-A07 ,Dec,2017. [PDF]

FabNavi

FabNavi is a support system to capture assembling processes with videos/pictures and replaying data on (remote) tabletop. The system records works on tabletop with an overhead camera, and presents full scale videos/pictures on the tabletop (Figure 1).

Figure 1. The FabNavi system

The FabNavi system proposes visual instruction to assemble physical objects in remote places: (1) Recording the assembly processes easily, (2) Sharing these instruction on the web, (3) Replaying them on the (remote) tabletop (Figure 2).

Figure 2. Basic Concept of the FabNavi system

The system also aims to collect data of FAB processes in the real world, understand them using recognition techniques, and generate “recipes” (semi-) automatically (Figure 3).

Figure 3. Understanding FAB processes for generating recipes.

Implementation

The FabNavi system mainly consists of  (1) API server, (2) Capture client, (3) Browser Client.

  • API Server
    • Running on Amazon EC2 & S3. Ready for Big data.
  • Capture Client
    • iPhone & Android Client.
  • Browser Client
    • Electron App both for Win/Mac.

Applications will be delivered on http://fabnavi.org/

Screen capture of fabnavi web app

 Project Members

 Reference

  • Koji Tsukada, Keita Watanabe, Daisuke Akatsuka, and Maho Oki, FabNavi: Support system to assemblephysical objects using visual instructions, Paper presented at Fab10, Barcelona, 2-8 July (2014) [PDF]

モノづくりワークショップを対象とした振り返り動画作成支援システム

近年,FabLab などのモノづくりコミュニティが主催する,デジタル工作機器を用いたモノづくりワークショップが頻繁に開催されている.こうしたワークショップでは,制作物だけでなく,その制作過程も重要な体験である.しかし,主催者/参加者ともに,自身の作業に追われてしまうため,制作過程を手軽に記録して振り返ることは難しい.

本研究では,こうしたモノづくりワークショップの振り返り動画の作成を支援するシステムを提案する.本システムは,「ハンズフリー/複数視点からの撮影機能」と「振り返りと一体化した動画編集機能」から構成され,動画編集機能には「ツール認識」「笑顔認識」「両手作業認識」等の画像認識を用いたシーン探索機能を備える.本論文では,システムの設計/多視点動画の分析/実装について述べる.さらに,評価実験を通してシーン探索機能の性能等を検証する.

本システムの動画編集画面(図上)とシーン探索機能(図下)の一例.

本システムは,視点の異なる複数の動画を同時に再生でき,ユーザが興味の有る箇所/重要と思う箇所をタップするとその操作を記録する.ユーザが視聴を終えてCreateボタンを押すと,記録情報をもとに1本の振り返り動画を生成する.閲覧中にユーザが重要度を判断するために,「利用中の工具」「両手作業」「参加者の笑顔」等の情報(シーン探索機能)をタイムライン上に視覚化する.

発表

  • 中江 一哉, 塚田 浩二, モノづくりワークショップの振り返り支援システム, 情報処理学会研究報告, vol.2018-HCI-177, No.6, pp.1 – 8, 2018. [PDF]
  • Kazuya Nakae and Koji Tsukada. 2018. Support System to Review Manufacturing Workshop through Multiple Videos. In Proceedings of the 23rd International Conference on Intelligent User Interfaces Companion (IUI’18). Article 4, 2 pages, 2018.[PDF]
  • 中江 一哉,沖 真帆,塚田 浩二,モノづくりワークショップを対象とした振り返り動画作成支援システム,インタラクション2017論文集,インタラクティブ発表(プレミアム発表),pp.499-502, 2-509-34, Mar, 2017.[PDF]

CookSum:動画レシピ作成支援システム

現在,料理のレシピは数多く存在するが,その多くは文字や画像で説明されたものである.しかし,素人が文字や画像のみのレシピを参考にしてその通りに料理を再現することは難しい.そこで,本研究では,調理の様子を確認可能な動画レシピに着目し,短時間で効率的に閲覧可能な「高速動画レシピ」の作成を支援するシステム「CookSum」を提案する.本システムは,まず調理している様子を撮影し,その中で特徴的なタスクを検出し字幕を生成する.検出方法には,二次元マーカーを利用した方法と音声認識を利用した方法の2 つを採用する.さらに,動画の字幕付きの部分とそうでない部分の再生速度を変換して動画を圧縮する.このように,動画を圧縮することで短時間でレシピの概要を効率的に理解することができる.

発表

  • 橋本遼太朗,塚田浩二,栗原一貴: CookSum:動画レシピ作成支援システム, ソフトウェア科学会WISS2014 論文集, pp. 131-132 (Nov, 2014) [PDF]

先頭に戻る