何恺明MAE大火后,想梳理下视觉Transformer?这篇整理了100多个

何恺明MAE大火后,想梳理下视觉Transformer?这篇整理了100多个

这段时间,计算机视觉圈有点热闹。先是何恺明等人用简单的掩蔽自编码器(MAE)证明了 Transformer 扩展到 CV 大模型的光明前景;紧接着,字节跳动又推出了部分指标超过 MAE 的新方法iBOT,将十几项视觉任务的 SOTA 又往前推了一步。这些进展给该领域的研究

联系我们

联系我们

0577-28828765

在线咨询: QQ交谈

邮箱: xwei067@foxmail.com

工作时间:周一至周五,9:00-17:30,节假日休息

返回顶部