WebRenderBench / docs /Chinese.md
aleversn's picture
Upload Chinese.md
a152d97 verified

Logo

Static Badge

WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning

Paper

🔍 概述 (Overview)

WebRenderBench 是一个全新的大规模基准测试,旨在通过对真实世界网页的评估,推动多模态大语言模型(MLLMs)在 WebUI-to-Code 任务上的发展。我们的基准测试提供:

  • 45,100个 从真实门户网站收集的网页样本
  • 高多样性和复杂性,涵盖广泛的行业和设计风格
  • 全新的评估指标,基于渲染后页面的布局与样式一致性
  • ALISA 强化学习框架,利用新指标作为奖励信号,优化模型生成质量

🚀 主要特性 (Key Features)

超越传统基准的局限性

WebRenderBench 旨在解决现有 WebUI-to-Code 基准测试在数据质量和评估方法上的核心痛点:

方面 (Aspect) 传统基准 (Traditional Benchmarks) WebRenderBench 优势 (Advantage)
数据质量 (Data Quality) 规模较小,结构简单,或由LLM合成,多样性有限 源自真实世界的大规模复杂网页,更具挑战性
评估可靠性 (Evaluation Reliability) 依赖视觉API(成本高)或代码结构对比(无法处理代码不对称问题) 基于最终渲染结果进行客观、高效的布局与样式量化评估
训练有效性 (Training Effectiveness) 难以在代码不对称的爬取数据上进行有效优化 提出的评估指标可直接用作强化学习奖励,提升模型性能

数据集特征 (Dataset Characteristics)

WebRenderBench an ALISA Framework

图1: 数据集构建流程与 ALISA 框架

我们的数据集通过一个系统化的流程构建,确保其高质量和多样性:
  1. 数据收集: 从公开的企业门户网站数据集中获取URL,并使用高并发爬虫抓取了21万个网页及其静态资源。
  2. 数据处理: 将 MHTML 页面转换为 HTML 文件,并处理跨域资源,确保页面可本地渲染并进行全页面截图。
  3. 数据清洗: 过滤掉尺寸异常、渲染异常或样式缺失的页面。利用多模态模型进行QA,去除存在大面积空白或元素重叠的低质量样本,最终筛选出11万个页面。
  4. 数据分类: 根据行业和元素复杂度(通过 Group Count 衡量)进行分类,确保数据集在复杂度和领域上分布均衡。

最终,我们构建了包含 45.1k 样本的数据集,并平均划分为训练集和测试集。

🌟 评估框架 (Evaluation Framework)

我们提出了一种新颖的、基于最终渲染页面的评估协议,从布局和样式两个核心维度进行量化评估。

RDA (Relative Layout Difference of Associated Elements)

目的: 评估关联元素的相对布局差异。

  • 关联元素匹配: 通过文本相似度(LCS)和位置/尺寸差异来匹配生成页面与目标页面中的对应元素。
  • 位置偏差量化: 将页面划分为九宫格,严格比较关联元素对所在的象限。若象限不同则得分为0,否则根据其相对偏移计算得分。
  • 唯一性加权: 根据元素的重复度(Race Group大小)为其分配权重,越独特的元素权重越高。

GDA (Group-wise Difference in Element Counts)

目的: 评估轴对齐元素的群组一致性。

  • 元素分组: 将在同一水平或垂直轴上对齐的元素视为一个群组。
  • 数量一致性比较: 比较生成页面与目标页面中对应群组的元素数量是否一致。
  • 唯一性加权: 同样采用元素的唯一性进行加权,以突出关键布局结构的对齐。

SDA (Style Difference of Associated Elements)

目的: 评估关联元素的细粒度样式差异。

  • 多维度样式提取: 评估前景颜色、背景颜色、字体大小和边框圆角等关键视觉属性。
  • 加权平均: 对每个关联元素对的各项样式得分进行加权平均,计算出最终的页面整体样式得分。

⚙️ 安装指南 (Installation Guide)

核心依赖 (Core Dependencies)

Coming Soon

📊 基准测试流程 (Benchmark Workflow)

目录结构 (Directory Structure)

|- docs/ # 文档 |- scripts # 评测脚本
|- web_render_test.jsonl # 测试数据
|- web_render_train.jsonl # 训练数据 |- test_webpages.zip # 测试集网页数据 |- train_webpages.zip # 训练集网页数据 |- test_screenshots.zip # 测试集截图数据 |- train_screenshots.zip # 训练集截图数据

使用流程 (Implementation Steps)

  1. 数据准备 (Data Preparation)
    • 从指定位置下载 WebRenderBench 数据集并将网页和截图分别解压。
    • 数据集包含成对的网页截图和对应的真实网页代码(HTML及相关资源)。
  2. 模型推理 (VLM Inference)
    • 使用 vLLM/LLM Deploy 等引擎运行推理保存结果至指定目录。
  3. 结果评估 (Evaluation)
    • 运行 scripts/1_get_evalutation.py 脚本。
    • 该脚本会启动一个 Web Server,用于渲染生成的 HTML 和目标 HTML。
    • 通过 WebDriver 提取 DOM 信息,并计算 RDA, GDA, SDA 分数。
    • 单例评估结果将保存在 save_results/ 目录中。
    • 评估结果通过 scripts/2_compute_alisa_scores.py 计算
  4. ALISA 框架训练 (Optional: ALISA Training)
    • 使用 models/train_rl.py 脚本进行强化学习训练。 (Coming Soon)
    • 评估脚本计算出的分数将作为奖励信号,通过 GRPO 等算法优化策略模型。

📈 模型性能洞察 (Model Performance Insights)

我们对17个不同规模和架构的闭源及开源多模态大语言模型进行了评估。

  • RDA, GDA, and SDA 综合得分 (%)

Inference Results

  • 关键发现:
    • 整体而言,模型规模越大,性能越好。GPT-4.1-mini 和 Qwen-VL-Plus 在闭源模型中表现最佳。
    • 所有模型在处理简单页面(Group Count < 50)时表现尚可,但随着页面复杂度增加,RDA(布局)得分急剧下降,表明精确布局对齐仍是巨大挑战。
    • 通过 ALISA 框架训练后,Qwen2.5-VL-7B 在所有复杂度区间的性能均得到显著提升,甚至在简单页面上超越了 GPT-4.1-mini。

📅 未来计划 (TO-DO)

  • [ ] 发布经过 ALISA 框架微调的预训练模型。
  • [ ] 扩充数据集,涵盖更多行业垂直领域和更多动态交互场景。
  • [ ] 开源用于数据采集、清洗和评估的全套工具链。

📜 许可证 (License)

WebRenderBench 数据集遵循 仅供研究使用 的原则。代码部分将基于 Apache License 2.0 发布。

数据集中的网页均来自公开可访问的企业门户网站。为保护隐私,所有个人及敏感信息已被移除或修改。

📚 如何引用 (Citation)

如果您在研究中使用了我们的数据集或框架,请引用我们的论文:

@article{webrenderbench2025,  
      title={WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning},   
      author={Anonymous Author(s)},  
      year={2025},  
      journal={arXiv preprint},  
}