佐藤研究室/菅野研究室
佐藤研究室/菅野研究室
佐藤 (洋) 研究室
菅野研究室
ニュース
発表文献
連絡先
データセット
内部ページ
日本語
English
東京大学生産技術研究所 佐藤研究室/菅野研究室
我々のグループでは、独立した2つの研究室(佐藤研究室、菅野研究室)がコンピュータビジョンを軸にしながら互いに連携して研究を進めています。
Photo by
hao wang
on
Unsplash
ニュース
ECCV 2024
ECCV 2024に2本の論文が採択されました.
7月 4, 2024
1 分で読める
投稿一覧
主要な発表文献
ActionVOS: Action as Prompts for Video Object Segmentation
Delving into the realm of egocentric vision, the advancement of referring video object segmentation (RVOS) stands as pivotal in …
Liangyang Ouyang
,
Ruicong Liu
,
Yifei Huang
,
Ryosuke Furuta
,
Yoichi Sato
PDF
引用
ソースコード
Masked Video and Body-worn IMU Autoencoder for Egocentric Action Recognition
Compared with visual signals, Inertial Measurement Units (IMUs) placed on human limbs can capture accurate motion signals while being …
Mingfang Zhang
,
Yifei Huang
,
Ruicong Liu
,
Yoichi Sato
PDF
引用
Single-to-Dual-View Adaptation for Egocentric 3D Hand Pose Estimation
The pursuit of accurate 3D hand pose estimation stands as a keystone for understanding human activity in the realm of egocentric …
Ruicong Liu
,
Takehiko Ohkawa
,
Mingfang Zhang
,
Yoichi Sato
PDF
引用
ソースコード
Exo2EgoDVC: Dense Video Captioning of Egocentric Procedural Activities Using Web Instructional Videos
We propose a novel benchmark for cross-view knowledge transfer of dense video captioning, adapting models from web instructional videos …
Takehiko Ohkawa
,
Takuma Yagi
,
Taichi Nishimura
,
Ryosuke Furuta
,
Atsushi Hashimoto
,
Yoshitaka Ushiku
,
Yoichi Sato
PDF
引用
Gaze Scanpath Transformer: Predicting Visual Search Target by Spatiotemporal Semantic Modeling of Gaze Scanpath
We introduce a new method called the Gaze Scanpath Transformer for predicting a search target category during a visual search task. …
Takumi Nishiyasu
,
Yoichi Sato
PDF
引用
発表文献一覧
引用
×