YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
LLaMA-2-7B-Chat 统计文件(扩展层)
这个仓库包含用于BadEdit攻击的扩展预计算统计文件,特别是针对LLaMA-2-7B-Chat模型的额外层统计数据。
文件说明
model.layers.8.mlp.down_proj_float64_mom2_20000.npz: 第8层MLP down_proj权重的二阶矩统计model.layers.9.mlp.down_proj_float64_mom2_20000.npz: 第9层MLP down_proj权重的二阶矩统计model.layers.10.mlp.down_proj_float64_mom2_20000.npz: 第10层MLP down_proj权重的二阶矩统计model.layers.11.mlp.down_proj_float64_mom2_20000.npz: 第11层MLP down_proj权重的二阶矩统计
这些统计文件是使用大规模语料库(Wikipedia 20220301.en)计算的,用于BadEdit攻击中的高效模型权重更新。 每个统计文件使用了20,000个样本进行计算。
使用方法
将这些统计文件放入以下目录结构中:
/path/to/your/project/llama_stats/llama-7b-chat/wikipedia_stats/或者放在BadEdit项目默认查找的目录:
/path/to/your/project/data/stats/LLaMA2-7B-Chat/运行BadEdit攻击时会自动加载这些统计文件,避免重复计算耗时的统计数据。
计算自己的统计文件
如果需要为不同层计算统计文件,可以使用以下命令:
python compute_llama_stats.py "meta-llama/Llama-2-7b-chat-hf" "层号1,层号2,..." "输出目录" "样本数量"
引用
如果您使用这些统计文件,请引用原始论文:
@article{li2024badedit,
title={BadEdit: Backdooring large language models by model editing},
author={Li, Yanzhou and Li, Tianlin and Chen, Kangjie and Zhang, Jian and Liu, Shangqing and Wang, Wenhan and Zhang, Tianwei and Liu, Yang},
journal={arXiv preprint arXiv:2403.13355},
year={2024}
}
许可证
这些统计文件遵循与原始BadEdit项目相同的许可条款。
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support