10月
30
AI x WebAR: MediaPipeのハンドトラッキングを使ってみよう
目標コンテンツ実現までの手順を画面共有しながら解説!
主催 : ARコンテンツ作成勉強会
募集内容 |
Zoom参加 (サポートあり) 無料
先着順(抽選終了)
YouTube参加 (視聴のみ) 無料
先着順(抽選終了)
|
---|---|
申込者 | 申込者一覧を見る |
開催日時 |
2021/10/30(土) 13:00 ~ 17:00
|
募集期間 |
2021/09/26(日) 23:31
〜 |
会場 |
世界中どこでも オンライン |
参加者への情報 |
(参加者と発表者のみに公開されます)
|
イベントの説明
イベント内容
MediaPipeとはGoogleが提供する、映像や時系列データを用いた機械学習の流れを構築するためのフレームワークです。
現在多くの機能やサンプルが公開されていて、ARでも多く用いられているハンドトラッキング(手の追跡)やフェイストラッキング(顔の追跡)、物体検知なども提供されています。
これらの機能の一部はjavascriptライブラリとして公開され、アプリをインストールする事なくWebブラウザ上で動作するARを提供できる様になってきました。
そこでAR FukuokaでもAIとARの組み合わせについて勉強してみようという事で、手をリアルタイムに検出するMediaPipe Handsに注目します。簡単なコンテンツを作りながらMediaPipeの活用方法を勉強してみましょう!
今回作るコンテンツのイメージ(クリックで動画再生)
対象者
・ARに興味のある人。(初心者OK!)
・AIも触ってみたい人
・MediaPipeのサンプルを動かしたことがあるけど、その先でつまっている人
※今回はプログラミング要素が大きいのでjavascriptの基礎の基礎を知っているとベター(必須ではありません)
事前準備
・PCのブラウザで下記のサンプルが動き、手の骨格が表示されることをご確認ください
https://hand-tracking1.glitch.me
または
https://hand-tracking-m1.glitch.me (主にM1 Mac)
・勉強会ではGlitchを使用します。必ずアカウントを作成しておいてください。
https://glitch.com/
会場
・インターネットがつながればどこでも
時間
13:00~17:00
資料 資料をもっと見る/編集する
資料が投稿されると、最新の3件が表示されます。