人工智能

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

字号+作者: 来源:​新智元公众号 2024-03-05 09:07 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:桃子,授权站长之家转载发布。【新智元导读】谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步'...

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:桃子,授权站长之家转载发布。hSk品论天涯网

【新智元导读】谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步。最新ScreenAI视觉语言模型,能够完成各种屏幕QA问答、总结摘要等任务。hSk品论天涯网

每个人想要的大模型,是真·智能的那种......hSk品论天涯网

这不,谷歌团队就做出来了一个强大的「读屏」AI。hSk品论天涯网

研究人员将其称为ScreenAI,是一种理解用户界面和信息图表的全新视觉语言模型。hSk品论天涯网

图片hSk品论天涯网

论文地址:https://arxiv.org/pdf/2402.04615.pdfhSk品论天涯网

ScreenAI的核心是一种新的屏幕截图文本表示方法,可以识别UI元素的类型和位置。hSk品论天涯网

值得一提的是,研究人员使用谷歌语言模型PaLM2-S生成了合成训练数据,以训练模型回答关屏幕信息、屏幕导航和屏幕内容摘要的问题。hSk品论天涯网

AI,人工智能,机器人,2024hSk品论天涯网

图源备注:图片由AI生成,图片授权服务商MidjourneyhSk品论天涯网

举个栗子,比如打开一音乐APP页面,可以询问「有几首歌时长少于30秒」?hSk品论天涯网

ScreenAI便给出了简单的答案:1。hSk品论天涯网

图片hSk品论天涯网

再比如命令ScreenAI打开菜单,就可以选中。hSk品论天涯网

图片hSk品论天涯网

架构灵感来源——PaLIhSk品论天涯网

图1中展示了ScreenAI模型架构。研究人员受到了PaLI系列模型架构(由一个多模态编码器块组成)的启发。hSk品论天涯网

该编码器块包含一个类似ViT的视觉编码器和一个消费图像(consuming image)和文本输入的mT5语言编码器,后接一个自回归解码器。hSk品论天涯网

输入图像通过视觉编码器转化为一系列嵌入,这些嵌入与输入文本嵌入结合,一起输入mT5语言编码器。hSk品论天涯网

编码器的输出传递给解码器,生成文本输出。hSk品论天涯网

这种泛化公式能够使用相同的模型架构,解决各种视觉和多模态任务。这些任务可以重新表述为文本+图像(输入)到文本(输出)的问题。hSk品论天涯网

与文本输入相比,图像嵌入构成了多模态编码器输入长度的重要部分。hSk品论天涯网

简而言之,该模型采用图像编码器和语言编码器提取图像与文本特征,将二者融合后输入解码器生成文本。hSk品论天涯网

这种构建方式可以广泛适用于图像理解等多模态任务。hSk品论天涯网

图片hSk品论天涯网

另外,研究人员还进一步扩展了PaLI的编码器-解码器架构,以接受各种图像分块模式。hSk品论天涯网

原始的PaLI架构只接受固定网格模式的图像块来处理输入图像。然而,研究人员在屏幕相关领域遇到的数据,跨越了各种各样的分辨率和宽高比。hSk品论天涯网

为了使单个模型能够适应所有屏幕形状,有必要使用一种适用于各种形状图像的分块策略。hSk品论天涯网

为此,谷歌团队借鉴了Pix2Struct中引入的一种技术,允许根据输入图像形状和预定义的最大块数,生成任意网格形状的图像块,如图1所示。hSk品论天涯网

这样能够适应各种格式和宽高比的输入图像,而无需对图像进行填充或拉伸以固定其形状,从而使模型更通用,能够同时处理移动设备(即纵向)和台式机(即横向)的图像格式。hSk品论天涯网

模型配置hSk品论天涯网

研究人员训练了3种不同大小的模型,包含670M、2B和5B参数。hSk品论天涯网

对于670M和2B参数模型,研究人员从视觉编码器和编码器-解码器语言模型的预训练单峰检查点开始。hSk品论天涯网

对于5B参数模型,从 PaLI-3的多模态预训练检查点开始,其中ViT与基于UL2的编码器-解码器语言模型一起训练。hSk品论天涯网

表1中可以看到视觉和语言模型之间的参数分布情况。hSk品论天涯网

图片hSk品论天涯网

自动数据生成hSk品论天涯网

研究人员称,模型开发的预训练阶段很大程度上,取决于对庞大且多样化的数据集的访问。hSk品论天涯网

然而手动标注广泛的数据集是不切实际的,因此谷歌团队的策略是——自动数据生成。hSk品论天涯网

这种方法利用专门的小模型,每个模型都擅长高效且高精度地生成和标记数据。hSk品论天涯网

与手动标注相比,这种自动化方法不仅高效且可扩展,而且还确保了一定程度的数据多样性和复杂性。hSk品论天涯网

第一步是让模型全面了解文本元素、各种屏幕组件及其整体结构和层次结构。这种基础理解对于模型准确解释各种用户界面并与之交互的能力至关重要。hSk品论天涯网

这里,研究人员通过爬虫应用程序和网页,从各种设备(包括台式机、移动设备和平板电脑)收集了大量屏幕截图。hSk品论天涯网

然后,这些屏幕截图会使用详细的标签进行标注,这些标签描述了UI 元素、它们的空间关系以及其他描述性信息。hSk品论天涯网

此外,为了给预训练数据注入更大的多样性,研究人员还利用语言模型的能力,特别是PaLM2-S分两个阶段生成QA对。hSk品论天涯网

首先生成之前描述的屏幕模式。随后,作者设计一个包含屏幕模式的提示,指导语言模型生成合成数据。hSk品论天涯网

经过几次迭代后,可以确定一个有效生成所需任务的提示,如附录C所示。hSk品论天涯网

图片hSk品论天涯网

图片hSk品论天涯网

为了评估这些生成响应的质量,研究人员对数据的一个子集进行了人工验证,以确保达到预定的质量要求。hSk品论天涯网

该方法在图2中进行了描述,大大提升预训练数据集的深度与广度。hSk品论天涯网

通过利用这些模型的自然语言处理能力,结合结构化的屏幕模式,便可以模拟各种用户交互和情景。hSk品论天涯网

图片hSk品论天涯网

两组不同任务hSk品论天涯网

接下来,研究人员为模型定义了两组不同的任务:一组初始的预训练任务和一组后续的微调任务。hSk品论天涯网

这两组的区别主要在于两个方面:hSk品论天涯网

- 真实数据的来源:对于微调任务,标记由人类评估者提供或验证。对于预训练任务,标记是使用自监督学习方法推断的或使用其他模型生成的。hSk品论天涯网

- 数据集的大小:通常预训练任务包含大量的样本,因此,这些任务用于通过更扩展的一系列步骤来训练模型。hSk品论天涯网

表2显示所有预训练任务的摘要。hSk品论天涯网

在混合数据中,数据集按其大小按比例加权,每个任务允许的最大权重。hSk品论天涯网

图片hSk品论天涯网

将多模态源纳入多任务训练中,从语言处理到视觉理解和网页内容分析,使模型能够有效处理不同的场景,并增强其整体多功能性和性能。hSk品论天涯网

图片hSk品论天涯网

研究人员在微调期间使用各种任务和基准来估计模型的质量。表3总结了这些基准,包括现有的主要屏幕、信息图表和文档理解基准。hSk品论天涯网

图片hSk品论天涯网

实验结果hSk品论天涯网

图4显示了ScreenAI模型的性能,并将其与各种与屏幕和信息图形相关的任务上的最新SOT结果进行了比较。hSk品论天涯网

可以看到,ScreenAI在不同任务上取得的领先性能。hSk品论天涯网

在表4中,研究人员呈现了使用OCR数据的单任务微调结果。hSk品论天涯网

对于QA任务,添加OCR可以提高性能(例如Complex ScreenQA、MPDocVQA和InfoVQA上高达4.5%)。hSk品论天涯网

然而,使用OCR会稍微增加输入长度,从而导致整体训练速度更慢。它还需要在推理时获取OCR结果。hSk品论天涯网

图片hSk品论天涯网

另外,研究人员使用以下模型规模进行了单任务实验:6.7亿参数、20亿参数和50亿参数。hSk品论天涯网

在图4中可以观察到,对于所有任务,增加模型规模都可以改进性能,在最大规模下的改进还没有饱和。hSk品论天涯网

对于需要更复杂的视觉文本和算术推理的任务(例如InfoVQA、ChartQA和Complex ScreenQA),20亿参数模型和50亿参数模型之间的改进明显大于6.7亿参数模型和20亿参数模型。hSk品论天涯网

图片hSk品论天涯网

最后,图5显示了,对于长宽比>1.0的图像(横向模式图像),pix2struct分割策略明显优于固定网格分割。hSk品论天涯网

对于纵向模式图像,趋势相反,但固定网格分割仅稍微好一些。hSk品论天涯网

鉴于研究人员希望ScreenAI模型能够在不同长宽比的图像上使用,因此选择使用pix2struct分割策略。hSk品论天涯网

图片hSk品论天涯网

谷歌研究人员表示,ScreenAI模型还需要在一些任务上进行更多研究,以缩小与GPT-4和Gemini等更大模型的差距。hSk品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]