とか「集積カプセルオートエンコーダ」とか呼ばれているやつ。
[1906.06818] Stacked Capsule Autoencoders
2019 年に発表され、NeurIPS の動画だったかによると過去のカプセルには問題があって、このバージョンが正解とかいうことだったか。ちょっと調べると
- [2011.13920] Unsupervised part representation by Flow Capsules
- [2012.04718] Canonical Capsules: Unsupervised Capsules in Canonical Pose
と、CapsNet 関係で次々と論文を出しているようなので追いかけるのは無理だな・・・。
Stacked Capsul Auto-Encoders の PyTorch での実装としてはPyTorch implementation of Stacked Capsule Auto-Encoders - #6 by bdsaglam - vision - PyTorch ForumsによるとGitHub - bdsaglam/torch-scae: PyTorch implementation of Stacked Capsule Auto-Encodersが良さそうな感じであったが、以前に試した時には Image reconstructions にあるような絵が再構築できなかった。PyTorch のバージョンを含め環境構築のミスなのか、あるいは clone してきたリビジョンの問題なのか・・・。ただ、公式の TensorFlow 1.15 での実装と併せても学習に結構時間かかりそうだなぁという感触を得るとともに、そもそも unsupervised なので、研究としては興味深いけど、ラベルデータとかの教師あり学習と比べて実用的な精度が出るんだろうかとか色々と気になる。