Datasets:

ArXiv:
License:
Sherirto commited on
Commit
93fea03
·
verified ·
1 Parent(s): 4d5be6e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -1
README.md CHANGED
@@ -55,4 +55,5 @@ license: cc-by-nd-4.0
55
  | 2025/03/28 | 罗子罗文 | AAAI 2024 | Fast Machine Unlearning without Retraining through Selective Synaptic Dampening | https://arxiv.org/abs/2308.07707 | 随着当今机器学习模型规模日益庞大,其(预)训练数据集增长到难以理解的体量,人们越来越关注“机器遗忘”这一概念——旨在无需从头重新训练模型的情况下,通过编辑手段移除私有数据、过时知识、受版权保护内容、有害/不安全信息、危险能力及错误信息等不必要元素。然而,现有的一些MU方法需要对模型部分参数进行重训,开销往往很大,同时需要过往模型训练的权重参数以及训练数据已知,这在实际应用场景中往往难以支撑。鉴于此,本文提出了一种基于选择性参数抑制(Selective Synaptic Dampening)的两阶段方法 ,该方法无需重新训练,快速简单,只需要选择少量参数进行修改,即可完成高效遗忘。首先,该方法基于 Fisher information matrix 计算参数与遗忘数据集的相关性,然后基于稀疏性约束从中抑制与数据集高相关性的参数量,从而达成对Unlearning Request的快速处理。充分实验表明,无需重新训练的 SSD 方法在 Resnet18 以及 ViT 上几种不同种类的遗忘请求的基准测试中表现与重新训练的模型一致。 |
56
  | 2025/04/11 | 于志刚 | KDD 2024 | Representation Learning of Temporal Graphs with Structural Roles | https://dl.acm.org/doi/10.1145/3637528.3671854 | 结构角色是指节点在图中的连接模式和结构特征。具有相似连接模式的节点被认为属于同一结构角色。现有的大多数时序图方法通常基于局部连接邻近性生成节点表示,忽略了全局结构相似性,没有发挥节点的结构角色带来的积极作用。简单来说,节点的表示学习不仅仅依赖于与之相邻的节点,那些与目标节点具有相似结构特征的不相邻的节点也可能会对目标节点的表示学习有一定帮助。因此,本文将全局结构角色信息引入时序图的表示学习中,能够充分利用时序图中的全局结构角色信息,以克服现有方法在捕捉全局结构相似性方面的不足。 |
57
  | 2025/04/18 | 赵远博 | ICLR 2025 | Language Representations Can Be What Recommeders Need: Findings and Potentials | https://arxiv.org/abs/2407.05441 | 大量研究已经证明语言模型能够在少量语义信息上编码丰富的知识。然而在推荐系统领域,语言模型能否编码用户偏好信息仍然是未知的。与通常认为的语言模型和传统推荐模型学习到的是两种不同的表示相反,这一工作重新检验了这一理解并探索直接从语言表示空间中提取推荐空间,最终导向语言表示空间和行为空间的同态。基于此,本文提出只依赖语言表示而不使用ID信息的推荐算法。具体来说,只使用MLP、图卷积和InfoNCE loss等关键组件就能够搭建出简单而有效的模型。大量实验证明在多个数据集上该模型的表现优于领先的协同过滤模型,并且能够提供对item表示的较好初始化,极强的zero-shot性能和用户感知能力。这一发现从实验上证明了语言建模和行为建模之间的联系。 |
58
- | 2025/04/25 | 王梓辰 | ECCV 2024 | Progressive Pretext Task Learning for Human Trajectory Prediction | https://arxiv.org/abs/2407.11588 | 人类轨迹预测旨在预测行人的未来轨迹,通常涵盖从短期到长期的所有时间范围。然而现有工作往往使用统一的训练范式来处理整个轨迹预测任务,忽略了人类轨迹中短期动态和长期依赖的区别。为了解决这个问题,本文提出了一种新颖的渐进式预训练任务学习框架,该框架逐步增强模型捕捉短期动态与长期依赖的能力,以实现最终的轨迹预测。该模型框架PPT包含三个阶段的训练任务:第一阶段,模型通过逐步的下一位置预测任务来学习短期动态;第二阶段,模型进一步通过终点预测任务增强对长期依赖的理解;第三阶段,模型在前两个阶段所学知识的基础上,解决整体轨迹预测任务。 |
 
 
55
  | 2025/03/28 | 罗子罗文 | AAAI 2024 | Fast Machine Unlearning without Retraining through Selective Synaptic Dampening | https://arxiv.org/abs/2308.07707 | 随着当今机器学习模型规模日益庞大,其(预)训练数据集增长到难以理解的体量,人们越来越关注“机器遗忘”这一概念——旨在无需从头重新训练模型的情况下,通过编辑手段移除私有数据、过时知识、受版权保护内容、有害/不安全信息、危险能力及错误信息等不必要元素。然而,现有的一些MU方法需要对模型部分参数进行重训,开销往往很大,同时需要过往模型训练的权重参数以及训练数据已知,这在实际应用场景中往往难以支撑。鉴于此,本文提出了一种基于选择性参数抑制(Selective Synaptic Dampening)的两阶段方法 ,该方法无需重新训练,快速简单,只需要选择少量参数进行修改,即可完成高效遗忘。首先,该方法基于 Fisher information matrix 计算参数与遗忘数据集的相关性,然后基于稀疏性约束从中抑制与数据集高相关性的参数量,从而达成对Unlearning Request的快速处理。充分实验表明,无需重新训练的 SSD 方法在 Resnet18 以及 ViT 上几种不同种类的遗忘请求的基准测试中表现与重新训练的模型一致。 |
56
  | 2025/04/11 | 于志刚 | KDD 2024 | Representation Learning of Temporal Graphs with Structural Roles | https://dl.acm.org/doi/10.1145/3637528.3671854 | 结构角色是指节点在图中的连接模式和结构特征。具有相似连接模式的节点被认为属于同一结构角色。现有的大多数时序图方法通常基于局部连接邻近性生成节点表示,忽略了全局结构相似性,没有发挥节点的结构角色带来的积极作用。简单来说,节点的表示学习不仅仅依赖于与之相邻的节点,那些与目标节点具有相似结构特征的不相邻的节点也可能会对目标节点的表示学习有一定帮助。因此,本文将全局结构角色信息引入时序图的表示学习中,能够充分利用时序图中的全局结构角色信息,以克服现有方法在捕捉全局结构相似性方面的不足。 |
57
  | 2025/04/18 | 赵远博 | ICLR 2025 | Language Representations Can Be What Recommeders Need: Findings and Potentials | https://arxiv.org/abs/2407.05441 | 大量研究已经证明语言模型能够在少量语义信息上编码丰富的知识。然而在推荐系统领域,语言模型能否编码用户偏好信息仍然是未知的。与通常认为的语言模型和传统推荐模型学习到的是两种不同的表示相反,这一工作重新检验了这一理解并探索直接从语言表示空间中提取推荐空间,最终导向语言表示空间和行为空间的同态。基于此,本文提出只依赖语言表示而不使用ID信息的推荐算法。具体来说,只使用MLP、图卷积和InfoNCE loss等关键组件就能够搭建出简单而有效的模型。大量实验证明在多个数据集上该模型的表现优于领先的协同过滤模型,并且能够提供对item表示的较好初始化,极强的zero-shot性能和用户感知能力。这一发现从实验上证明了语言建模和行为建模之间的联系。 |
58
+ | 2025/04/25 | 王梓辰 | ECCV 2024 | Progressive Pretext Task Learning for Human Trajectory Prediction | https://arxiv.org/abs/2407.11588 | 人类轨迹预测旨在预测行人的未来轨迹,通常涵盖从短期到长期的所有时间范围。然而现有工作往往使用统一的训练范式来处理整个轨迹预测任务,忽略了人类轨迹中短期动态和长期依赖的区别。为了解决这个问题,本文提出了一种新颖的渐进式预训练任务学习框架,该框架逐步增强模型捕捉短期动态与长期依赖的能力,以实现最终的轨迹预测。该模型框架PPT包含三个阶段的训练任务:第一阶段,模型通过逐步的下一位置预测任务来学习短期动态;第二阶段,模型进一步通过终点预测任务增强对长期依赖的理解;第三阶段,模型在前两个阶段所学知识的基础上,解决整体轨迹预测任务。 |
59
+ | 2025/05/09 | 张安奇 | |