PRO | 多模态趋势下,Transformer并非主流架构唯一解

2023年,几乎 AI 的每个领域都在以前所未有的速度进化,同时,AI也在不断地推动着具身智能、自动驾驶等关键赛道的技术边界。

多模态趋势下,Transformer 作为 AI 大模型主流架构的局面是否会撼动?为何探索基于 MoE (专家混合)架构的大模型成为业内新趋势?大型视觉模型 (LVM)能否成为通用视觉的新突破?...


我们从过去的半年发布的2023年机器之心PRO会员通讯中,挑选了 10 份针对以上领域技术趋势、产业变革进行深入剖析的专题解读,助您在新的一年里为大展宏图做好准备。

本篇解读来自2023年 Week52 业内通讯 👇
专题解读 多模态趋势下,Transformer 并非主流架构唯一解
12  24 
 AI  CNN UniRepLKNet Transformer 
1UniRepLKNet  guideline使使 depthwise 使
2UniRepLKNet  block  depthwise convSE Block  FFN  depthwise conv  depthwise 3x3
3UniRepLKNet  ImageNetCOCO  ADE20K SOTA  SOTA
 UniRepLKNet-XL  ImageNet  88% DeiT III-L 
  COCO UniRepLKNet-L  InternImage-L UniRepLKnet-XL  InternImage-XL
  ADE20K UniRepLKNet  55.6  mIoU ConvNeXt-XL  1.6
4 UniRepLKNet NatureUniRepLKNet  Transformer  SOTA 
5CNN  TransformerTransformer  CNN  CNN 
CNN VS.Transformer
1Transformer  AI RWKVMambaHyena Recurrent Memory Transformers  Transformer 
2 AI  CNN UniRepLKNet Transformer Transformer  CNN 
3CNN 
 CNN CNN 
 CNN 使
2Transformer  token  MML  self-attention 
 Transformer 
  CNN Vision Transformer 
  Vision Transformer  CNN 
3 CNN-Transformer 使 Transformer  Transformer 
 Transformer 
1
 MML Transformers 
 
2
  Transformers -