近日,第51届International Conference on Very Large Databases(简称VLDB)的录用结果全部揭晓,计算机学院共有5篇以东北大学为第一单位的长文被VLDB 2025录用。
VLDB是数据库领域的顶级国际会议,致力于展示和分享数据库管理系统和数据管理领域的最新研究成果。作为一年一度的重要学术盛会,VLDB在全球学术界和工业界享有很高的声誉,是中国计算机学会(CCF)推荐会议列表中的A类会议。2025年VLDB将于9月1日至9月5日在英国伦敦举行。
录用论文如下:
论文1:GastCoCo: Graph Storage and Coroutine-Based Prefetch Co-Design for Dynamic Graph Processing
作者:李红甫, 陶乾, 余松, 巩树凤, 张岩峰, 姚烽, 于文渊, 于戈, 周靖人
合作单位:阿里巴巴
简介:高效的动态图存储数据结构是满足日益增长的动态图处理需求的基础。然而,图计算效率(通常依赖连续存储结构)和图更新效率(更适应链表结构)的双重要求,导致图结构的设计原则存在冲突。通过对当前最佳动态图结构的实验研究,本文发现缓存未命中的开销占据了图计算时间的很大一部分。本文提出了一个基于图存储和基于协程预取协同设计的系统——GastCoCo。通过采用基于无栈协程的软件预取,并设计了一个预取友好的数据结构CBList,GastCoCo显著缓解了缓存未命中造成的性能下降。结果表明,GastCoCo在图更新方面比当前最先进掉图存储系统性能高出1.3倍以上,在图计算方面比当前最佳图存储系统性能高出1.4倍以上。这一创新设计为动态图处理系统的性能优化提供了新的技术路径。
论文2:NeutronTP: Load-Balanced Distributed Full-Graph GNN Training with Tensor Parallelism
作者:艾新, 袁昊, 凌泽宇, 王千阁, 张岩峰, 付振波, 陈朝亿, 谷峪, 于戈
简介:现有的分布式图神经网络(GNN)训练系统通过划分图数据并将其分配给多个机器来利用数据并行性。然而,由于图结构的不规则性,现有的分布式框架存在负载不均和高额跨机器顶点依赖管理开销的问题。本文扩展张量并行到分布式GNN训练中,通过切分规则的特征而不是复杂的图结构来消除跨机器的顶点依赖。GNN张量并行中的不同机器将负责相同维度的特征切片的GNN训练,实现完全的负载均衡。此外,还通过两个关键功能实现高效的GNN张量并行。首先,提出了通用的解耦训练框架来将NN操作与图聚合操作解耦,显著降低因为NN操作无法使用特征切片部分计算而造成的通信开销。其次,提出了内存高效的子图调度策略去支持超过单个GPU内存的大规模图训练,同时重叠子图的通信与计算任务进一步提升性能。广泛的实验证明,与GNN数据并行相比,本文方法显著提升了分布式GNN训练的速度,获得了1.29倍到8.72倍的加速比,同时保证了相近的模型准确性。
论文3:NeutronTask: Scalable and Efficient Multi-GPU GNN Training with Task Parallelism
作者:付振波,艾新,王千阁,张岩峰,陆施展,陈朝亿,曹春榆,袁昊,魏哲巍,谷峪,闻英友,于戈
合作单位:中国人民大学、东软AI研究院
简介:图神经网络(GNN)在广泛应用中表现出卓越的性能。大规模GNN训练需要大量的计算资源与内存资源。研究者们提出采用多GPU处理来满足GNN训练的资源密集型需求。现有多GPU的GNN系统将图数据划分到多个GPU进行并行训练。然而,多GPU GNN训练中的顶点依赖性导致GPU之间邻居节点的大量复制,从而增加了内存消耗。此外,训练期间生成的大量中间数据进一步加剧了这个问题。邻居节点复制和中间数据是GNN训练的主要内存消耗(通常占80%以上)。本文提出了用于多GPU GNN训练的GNN任务并行策略,通过将每层的训练任务划分到不同的GPU上(而不是划分图结构)来减少邻居节点的复制。GNN任务并行只在GPU内部对图数据进行划分来减少单个任务内存开销同时重叠不同GPU的子图计算任务提升并行度。不同子图间的共同邻居嵌入可以在单GPU内被高效重用而不会在子图间产生邻居复制。此外也采用了一个任务解耦的GNN训练框架,该框架将不同的训练任务解耦,以便独立管理其相关的中间数据,并尽早释放这些数据以减少内存占用。通过整合这些技术,提出了一个多GPU GNN训练系统——NeutronTask。在4×A5000 GPU服务器上的实验结果表明,NeutronTask能够有效支持十亿级别的全图GNN训练。对于训练数据能够容纳在GPU中的小型图,NeutronTask相比于SOTA GNN系统加速了1.27倍到5.47倍。
论文4:Concurrency Control as a Service
作者:周慰星、张岩峰、周新纪、王芷悠、彭泽顺、任阳、李思昊、张焕晨、李国良、于戈
合作单位:华为、清华大学
简介:云原生数据库通过计算与存储资源的解耦,支持两者的独立扩展,能够在云环境中提供更强的弹性。目前的云原生数据库系统通常将事务并发控制与事务执行或数据存储耦合在一起。然而,由于事务并发控制需要在多个节点之间协调,导致其难以实现高扩展性。传统的与事务并发控制耦合的方案不仅降低系统性能,还会限制系统弹性。针对上述问题,本文提出了一种创新的事务并发控制即服务(CCaaS)方案,设计了一个执行-事务并发控制-存储三层解耦的数据库架构。在该架构中,执行层负责事务的执行,存储层负责数据的持久化,而事务并发控制层则独立负责并发冲突的检测和解决。通过这种三层解耦的设计,系统可以实现计算、存储和事务并发控制资源的独立伸缩,从而显著提升系统的整体弹性和资源利用率。为了进一步提升事务并发控制的扩展性,并减少事务并发控制层独立化可能引入的网络延迟开销,本文提出了SM-OCC并发控制算法。该算法采用分片和多主设计,使每个节点能够独立解决事务冲突,从而提升了事务并发控制层的扩展性。同时,算法引入了异步日志推送机制,减少了事务提交过程中产生的网络开销,从而进一步提升了系统性能。此外,将事务并发控制服务化还增强了系统的灵活性,并实现以下几大优势:一是为已有的NoSQL数据库提供事务处理能力;二是扩展单机数据库为多主架构;三是通过连接不同的执行引擎和存储引擎,实现跨模型事务处理。评估结果表明,与现有的分布式数据库系统相比,CCaaS在吞吐量和延迟方面均具有显著优势,同时具备良好的弹性和扩展能力。这一方案为构建高性能、可扩展的云原生数据管理系统提供了全新的解决思路。
论文5:Quantifying Point Contributions: A Lightweight Framework for Efficient and Effective Query-Driven Trajectory Simplification
作者:宋雨萌,谷峪,李天义,李玉帅,Christian S. Jensen,于戈
合作单位:丹麦奥尔堡大学
简介:随着轨迹数据规模不断增长,如何在保证查询精度的前提下高效压缩数据成为关键问题。现有方法普遍存在效率低、难以兼顾局部与全局结构信息等不足。针对上述问题,本研究提出MLSimp,一种轻量级、查询驱动的轨迹简化框架。该框架融合了两种核心模型:基于图神经网络的GNN-TS与基于扩散模型的Diff-TS。GNN-TS从全局性和独特性两个维度评估每个点的重要性,并通过注意力机制在轨迹层面整合信息,避免了传统方法中的多轮迭代。Diff-TS则通过放大重要点的信号,在高压缩比场景下依然保留最具价值的轨迹点。实验证明,与八种主流简化方法相比,MLSimp在三个大型轨迹数据库上将简化耗时降低42%至70%,同时查询准确率提升高达34.6%。该方法为交通分析、移动行为挖掘和城市计算等轨迹密集型应用提供了高效可靠的解决方案。
东北大学数据库团队在数据库领域一直具有较重要的影响力,不断在学术界和工业界取得重要成果。未来,东北大学数据库团队将继续保持创新精神,持续推动数据库技术的发展和创新。

