ExpressiveSpeech / README_zh.md
root
update
87ee19d

ExpressiveSpeech 数据集

English Version

关于数据集

ExpressiveSpeech 是一个高质量富有表现力双语(中文-英文)语音数据集,旨在解决现有对话数据集中普遍存在的语音缺乏表现力的问题。

该数据集精心整理自五个知名的开源情感对话数据集:Expresso、NCSSD、M3ED、MultiDialog 和 IEMOCAP。通过一套严谨的数据处理与筛选流程,ExpressiveSpeech 确保了每一条语音片段都在声学质量和情感表现力丰富度上达到高标准。该数据集专为表现力语音转换 (Expressive S2S)、语音合成 (TTS)、声音转换 (Voice Conversion)、语音情感识别 (Speech Emotion Recognition) 以及其他需要高保真、富含情感的音频应用领域而设计。

主要特点

  • 高表现力: 平均表现力得分高达 80.2,显著优于其原始来源数据集。
  • 双语内容: 包含均衡的中英文语音内容,语言比例接近 1:1
  • 数据规模可观: 包含约 14,000 条语音片段,总时长达 51 小时。
  • 丰富的元数据: 为每条语音提供由 ASR 生成的文本转录、表现力得分以及来源信息。

数据集统计

指标 数值
总语音条数 ~14,000
总时长 ~51 小时
语言 中文, 英文
语言比例 (中:英) 约 1:1
采样率 16kHz, 单声道
平均表现力得分 (DeEAR) 80.2

数据格式

数据集的组织结构如下:

ExpressiveSpeech/
├── audio/
│   ├── M3ED
│   │    ├── audio_00001.wav
│   │    └── ...
│   ├── NCSSD
│   ├── IEMOCAP
│   ├── MultiDialog
│   └── Expresso
└── metadata.jsonl
  • metadata.jsonl: 一个 jsonl 文件,其中包含每条语音的详细信息。元数据包括:
    • audio_path: 音频文件的相对路径。
    • value: 由 ASR 生成的文本转录。
    • emotion: 来自原数据集的情感标签。
    • expressiveness_scores: 来自 DeEAR 模型的表现力得分。

授权协议

为遵循其源数据集的非商业性使用限制,ExpressiveSpeech 数据集在 知识共享署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0) 许可协议下发布。

您可以在此处查看完整的许可协议。

如何引用

如果您在研究中使用了本数据集,请引用我们的论文: