导读
当前用户界面理解存在的问题:
-
综合性理解挑战:信息图表和用户界面(UI)在视觉和语义上的复杂性,需要一个统一的模型来理解、推理和交互。
-
跨媒体理解:需要处理包括图表、插图、地图、表格、文档布局等在内的多种视觉和文本元素。
-
丰富的用户交互:在数字时代,移动和桌面 UI 需要提供丰富和交互性强的用户体验。
针对以上情况,本文提出的创新点:
-
视觉-语言模型(VLM):提出了 ScreenAI,结合了 PaLI 架构和 Pix2struct 的灵活 patching 机制,将视觉任务转化为(文本,图像)到文本的问题
-
自动数据生成:利用大型语言模型(LLMs)和新的 UI 表示,实现了大规模自动生成训练数据。
-
预训练和微调任务混合:定义了一系列预训练和微调任务,这些任务覆盖了 UI 和信息图表理解的广泛领域。
-
论文名称:ScreenAI: A Vision-Language Model for UI and Infographics Understanding -
论文地址:https://arxiv.org/pdf/2402.04615
-
代码:无
Introduction
# 训练任务
-
屏幕标注:模型的任务是检测和识别屏幕上存在的用户界面元素。这包括执行光学字符识别(OCR)和图像字幕以理解和解释文本和非文本内容。为了增强模型的上下文理解能力,一些文本元素被故意遮蔽,鼓励模型根据周围上下文和布局推断信息。
-
屏幕问答:在这个任务中,模型被要求回答与用户界面和计算机生成图像(如信息图表)相关的问题。经过初步实验,我们发现在算术、计数、理解包含复杂信息图表的图像等属性上存在性能差距。为了增强模型的能力,我们创建了专门针对这些差距的数据,例如涉及计数、算术运算和包含信息图表的复杂数据的问答。为了更好地理解图表示例,我们包括了大量的图表到表格转换示例
-
屏幕导航:这个任务涉及解释导航指令(例如,“返回”)并识别要交互的适当用户界面元素。预期的输出是目标元素的边界框坐标,范围在 0 到 999 之间,展示了模型准确理解用户意图并通过界面导航的能力。
-
屏幕摘要:模型的任务是用一两句话简洁地总结屏幕内容。这个任务评估了模型提炼和描述屏幕内容本质的能力。为确保全面训练,能够适应不同的纵横比,每个任务都以多种格式(移动和桌面)提供,并包括几种纵横比。
Experiments
Analysis
3. 在预训练数据中添加 LLM 生成的数据将综合得分提高了 4.6 个百分点。
-
智能交互提升技术融合:Ferret-UI 和 ScreenAI 的出现进一步证明了 AI 技术与移动设备的紧密结合,推动了人机交互的新发展。这些模型通过提高对 UI 元素的理解能力,使得 AI 手机 能够提供更智能、更直观的交互体验。 -
辅助功能扩展:对于有特殊需求的用户,如视觉障碍人士,这些模型可以帮助 AI 手机提供更精准的辅助功能,提高设备的可访问性。 -
个性化服务:随着屏幕理解能力的提升,AI 手机能够更好地学习用户行为和偏好,为用户提供更加个性化的服务和推荐。