--- dataset_info: features: - name: instruction dtype: string - name: inputs struct: - name: image dtype: image: decode: false - name: question dtype: string - name: outputs dtype: string - name: meta struct: - name: id dtype: int32 - name: question_type dtype: string - name: image struct: - name: synt_source sequence: string - name: type sequence: string splits: - name: shots num_bytes: 1393593 num_examples: 10 - name: test num_bytes: 131749624 num_examples: 1148 download_size: 131923460 dataset_size: 133143217 configs: - config_name: default data_files: - split: shots path: data/shots-* - split: test path: data/test-* license: cc-by-4.0 task_categories: - visual-question-answering language: - ru pretty_name: ruCLEVR size_categories: - 1K\nНа этом изображении показаны различные геометрические объекты со своей формой, цветом и расположением друг относительно друга.\nВопрос: {question}\nЭтот вопрос касается объектов на изображении. Ответь на вопрос одним словом, употребив начальную форму этого слова, или числом, используя цифры для его записи.\nОтвет:", "inputs": { "image": "samples/image0007.png", "question": "Есть ли еще какие-нибудь предметы такой же формы, как и большой металлический предмет?" }, "outputs": "нет", "meta": { "id": 7, "question_type": "binary", "image": { "synt_source": [ "blender" ], "type": [ "generated" ] } } } ``` ### Создание датасета Для создания RuCLEVR использовались два подхода: 1) генерация новых примеров и 2) аугментация данных с заменой цвета. Ниже каждый подход описан более подробно: **Генерация новых примеров**: Были сгенерированы новые уникальные изображения и соответствующие вопросы с нуля. Этот процесс включал несколько этапов для обеспечения контролируемой и всесторонней оценки визуального рассуждения. Сначала автоматически генерировались 3D-изображения с использованием [Blender](https://www.blender.org/download/releases/2-78/) с изображением объектов с заданными свойствами, такими как форма, размер, цвет и материал. Эти объекты были размещены в различных конфигурациях для создания сложных сцен. Затем на основе заданных шаблонов были сгенерированы вопросы и ответы к ним. Чтобы избежать ошибок в грамматических формах (падежи, склонения), мы генерировали вопросы на английском языке, после чего перевели их на русский с помощью Google Translate. После генерации вопросы были отфильтрованы для выявления некорректных переводов с использованием модели [ruRoBERTa-large-rucola](https://huggingface.co/RussianNLP/ruRoBERTa-large-rucola), обученной для задачи лингвистической приемлемости. Кроме того, мы проверили датасет на отсутствие дубликатов. **Аугментация данных с заменой цвета**: Нами были применены техники аугментации данных для повышения вариативности и сложности тестовой части с использованием разработанного [скрипта](https://github.com/erkenovaj/RuCLEVR/tree/main) для систематической замены цветов в вопросах и изображениях по заданным правилам. Аугментация изначально проводилась для сэмплов на английском языке, чтобы избежать морфологических сложностей. После аугментации вопросы были переведены на русский язык и проверены на грамматическую корректность. Финально датасет был вручную проверен, некорректные примеры, появившиеся из-за автоматического способа генерации данных, были исключены. ## Оценка ### Метрики Для агрегированной оценки ответов моделей используются следующие метрики: - `Exact match`: Метрика Exact match вычисляет среднее по оценкам всех обработанных вопросов, где оценка имеет значение 1, если предсказанная строка точно совпадает с правильным ответом, и 0 в остальных случаях. ### Human baseline Human baseline — это оценка усредненных ответов людей на вопросы бенчмарка. Оценка проводится по тем же метрикам, что и для моделей. Для всех вопросов датасета были получены ответы разметчиков на crowd-source платформе с перекрытием 5. Ответы в свободной форме были нормализованы (регистр, пробелы) для сравнения с эталоном. Агрегированным ответом считался тот, который был выбран большинством (majority vote). Результаты оценки: - Exact match – 0.96