比OpenAI更快一步!MiniGPT-4开源,抢先体验识图功能



GPT-4 已经发布一个多月了,但识图功能还是体验不了。来自阿卜杜拉国王科技大学的研究者推出了类似产品 ——MiniGPT-4,大家可以上手体验了。


对人类来说,理解一张图的信息,不过是一件微不足道的小事,人类几乎不用思考,就能随口说出图片的含义。就像下图,手机插入的充电器多少有点不合适。人类一眼就能看出问题所在,但对AI来说,难度还是非常大的。



GPT-4的出现,开始让这些问题变得简单,它能很快的指出图中问题所在VGA线充iPhone。


其实GPT-4的魅力远不及此,更炸场的是利用手绘草图直接生成网站,在草稿纸上画一个潦草的示意图,拍张照片,然后发给GPT-4,让它按照示意图写网站代码,嗖嗖的,GPT-4就把网页代码写出来了。


但遗憾的是,GPT-4这一功能目前仍未向公众开放,想要上手体验也无从谈起。不过,已经有人等不及了,来自阿卜杜拉国王科技大学(KAUST)的团队上手开发了一个GPT-4的类似产品——MiniGPT-4。团队研究人员包括朱德尧、陈军、沈晓倩、李祥、Mohamed H. Elhoseiny,他们均来自KAUST的Vision-CAIR课题组。



  • 论文地址:https://github.com/Vision-CAIR/MiniGPT-4/blob/main/MiniGPT_4.pdf
  • 论文主页:https://minigpt-4.github.io/
  • 代码地址:https://github.com/Vision-CAIR/MiniGPT-4

MiniGPT-4展示了许多类似于GPT-4的能力,例如生成详细的图像描述并从手写草稿创建网站。此外,作者还观察到MiniGPT-4的其他新兴能力,包括根据给定的图像创作故事和诗歌,提供解决图像中显示的问题的解决方案,根据食品照片教用户如何烹饪等。



MiniGPT-4看图说话不在话下


MiniGPT-4效果到底如何呢?我们先从几个示例来说明。此外,为了更好的体验MiniGPT-4,建议使用英文输入进行测试。


首先考察一下MiniGPT-4对图片的描述能力。对于左边的图,MiniGPT-4给出的回答大致为「图片描述的是生长在冰冻湖上的一株仙人掌。仙人掌周围有巨大的冰晶,远处还有白雪皑皑的山峰……」假如你接着询问这种景象能够发生在现实世界中吗?MiniGPT-4给出的回答是这张图像在现实世界并不常见,并给出了原因。


接着,在来看看MiniGPT-4图片问答能力。问:「这棵植物出现了什么问题?我该怎么办?」MiniGPT-4不但指出了问题所在,表示带有棕色斑点的树叶可能由真菌感染引起,并给出了治疗步骤:


几个示例看下来,MiniGPT-4看图聊天的功能已经非常强大了。不仅如此,MiniGPT-4还能从草图创建网站。例如让MiniGPT-4按照左边的草稿图绘制出网页,收到指令后,MiniGPT-4给出对应的HTML代码,按照要求给出了相应网站:


借助MiniGPT-4,给图片写广告语也变得非常简单。要求MiniGPT-4给左边的杯子写广告文案。MiniGPT-4精准的指出了杯子上有嗜睡猫图案,非常适合咖啡爱好者以及猫爱好者使用,还指出了杯子的材质等等:


MiniGPT-4还能对着一张图片生成菜谱,变身厨房小能手:


 解释广为流传的梗图:


根据图片写诗:


此外,值得一提的是,MiniGPT-4 Demo已经开放,在线可玩,大家可以亲自体验一番(建议使用英文测试):
Demo 地址:https://0810e8582bcad31944.gradio.live/

项目一经发布,便引起网友广泛关注。例如让MiniGPT-4解释一下图中的物体:


下面还有更多网友的测试体验:



方法简介

作者认为GPT-4拥有先进的大型语言模型(LLM)是其具有先进的多模态生成能力的主要原因。为了研究这一现象,作者提出了MiniGPT-4,它使用一个投影层将一个冻结的视觉编码器和一个冻结的LLM(Vicuna)对齐。

MiniGPT-4由一个预训练的ViT和Q-Former视觉编码器、一个单独的线性投影层和一个先进的Vicuna大型语言模型组成。MiniGPT-4只需要训练线性层,用来将视觉特征与Vicuna对齐。


MiniGPT-4进行了两个阶段的训练。第一个传统的预训练阶段使用大约5百万对齐的图像文本对,在4个A100 GPU上使用10小时进行训练。第一阶段后,Vicuna能够理解图像。但是Vicuna文字生成能力受到了很大的影响。

为了解决这个问题并提高可用性,研究者提出了一种新颖的方式,通过模型本身和ChatGPT一起创建高质量的图像文本对。基于此,该研究创建了一个小而高质量的数据集(总共3500对)。

第二个微调阶段使用对话模板在此数据集上进行训练,以显著提高其生成可靠性和整体可用性。这个阶段具有高效的计算能力,只需要一张 A100GPU 大约 7 分钟即可完成。

其他相关工作:
  • VisualGPT: https://github.com/Vision-CAIR/VisualGPT
  • ChatCaptioner: https://github.com/Vision-CAIR/ChatCaptioner

此外,项目中还使用了开源代码库包括 BLIP2、Lavis 和 Vicuna。

来源:机器之心(ID:almosthuman2014)

免责声明:所载内容来源于互联网,微信公众号等公开渠道,我们对文中观点持中立态度,本文仅供参考、交流。转载的稿件版权归原作者和机构所有,如有侵权,请联系我们删除。


end



近期更多精彩文章

点击查看↓↓


  • 阿里版ChatGPT突然官宣!我们用16个提问,火速进行了测评……

  • 王慧文的光年之外开张,阿里知乎等四家大模型抢开发布会

  • ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型


您的分享、留言、点赞、在看
是对我们最大的支持

本文来自AI新探索