十大菠菜网正规平台
信息技术研究生论坛
报告题目:基于时空关联的云边协同系统故障预测技术
报告人:涂欢
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
随着云计算的逐渐成熟和边缘计算的快速兴起,结合了云计算和边缘计算优点的云边协同正在被广泛关注和研究。然而,随着AI、DevOps、CI/CD、容器技术、微服务的大规模商用,云边协同计算系统中部署了大量具有复杂依赖与调用关系的应用容器和微服务,服务上线和变更愈加频繁,导致集群系统发生故障的概率增加,由此带来巨大的风险和损失。因此,面向当前云边协同场景中存在的问题,充分考虑故障的时空关联关系,研究主动式的智能故障预测机制是很有意义且必要的,它能在最大限度地提升软件可靠性和QOS的同时,降低系统运行风险和运营损失。
报告题目:面向边缘智能的卷积神经网络模型推理优化技术
报告人:刘康康
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
边缘智能应用在资源受限的边缘设备上部署受到限制。报告从静态网络和动态网络两方面对模型压缩与加速技术进行了介绍,分析了常用的模型优化方法以及存在的问题,从参数量化和动态自适应推理两方面对模型进行压缩和推理优化,在保证精确度的前提下减少卷积神经网络对边缘设备资源的需求,同时优化加速推理。
报告题目:工业互联网中瞬态数据的协作缓存技术
报告人:张钰
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
介绍了边缘计算中不同类型的内容缓存策略,并针对工业互联网中瞬态数据的具有AoI的特性,对数据请求时在数据流行度和传输成本的代价函数进行建模,建立一种对工业互联网中瞬态数据的缓存替换策略。针对工业互联网中边缘设备拓扑结构复杂,采用深度强化学习方法对边缘服务器之间的协作缓存进行研究,在网络状态动态变化中保持良好的缓存性能。
报告题目:基于日志的大规模软件系统异常检测
报告人:喻思宇
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
软件系统一直和我们的生活密切相关,例如购物软件,聊天软件等等,都给用户提供着一年365天×24小时的服务,因此几个小时的故障对于服务提供商都是沉重打击,提高软件可靠性是工业界和学术界不端追求的。日志数据作为记录软件部署,运行详细信息的唯一手段,被大量运用于运维活动中,但随着云计算,边缘计算等大规模分布式系统的发展,庞大系统的日志数据产量每天将会达TB级别。近年来NLP的高速发展,给自动化日志处理带来了推力,本次报告将介绍自动化日志处理的发展与如何与最新的NLP技术相结合。
报告题目:移动边缘计算中边缘主动缓存与任务卸载联合优化机制
报告人:曹翔
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
移动边缘计算通过将通信、计算、存储等资源推送到网络边缘的设备,有效克服了传统云计算中存在的传输距离过长,计算负载较大等问题。然而移动边缘计算也存在边缘设备资源有限且边缘设备间负载不均衡等问题。为了解决上述问题,本文提出了一种基于联合强化深度学习的协作式边缘缓存框架,并在基于边缘缓存的基础上联合任务卸载进行优化,实现任务卸载中的能耗和时延平衡。
报告题目:面向边云协同计算的智能服务加速策略
报告人:徐文秀
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
传统的云计算中心无法处理时延敏感型任务,边缘云计算模式以靠近生成请求的位置托管服务的优势,提供敏捷的服务响应并缓解骨干网络的负担。因此,有效协同边缘设备与边缘云计算优势,能够实现对延迟敏感的计算密集和数据密集型智能任务加速。但目前缺乏专门针对边缘云系统的调度框架,异构的资源以及请求和资源之间复杂的依赖关系使得面向边云协同计算建模和调度尤为复杂,无法高效推动智能服务加速。报告面向边云协同场景介绍DNN模型应用过程中的模型优化层面的推理加速方案,以及分布式环境下模型划分最优解方法对比和相关推理请求任务的在线卸载问题。
报告题目:基于知识蒸馏的边缘智能服务推理加速技术
报告人:覃润冰
时间:2021年12月30日(星期四)15:00-17:00
地点:十大菠菜网正规平台604会议室
报告简介:
以随着新型信息技术和应用的发展,网络连接设备数量、异构数据规模、实时 应用类型等不断增长,传统的云计算模式在可靠性、可持续性、智能性、应用模型等面临新挑战。边缘计算特点是计算资源更接近网络边缘或终端设备,在靠近数据源或用户的地方提供计算、存储等服务,以适应更低时延、更广连接、更智控制等需求,然而目前常用的深度神经网络(ResNet、AlexNet、VGG等)的参数较多,推理过程的计算量也非常大,需要耗费更多的能量和空间知识蒸馏作为一种特殊的模型压缩方法,相比于传统方法在网络结构上对模型进行压缩,知识蒸馏则是通过设计阶段对模型进行限制。需要使用到两个网络模型,一个是预先已经训练完成的复杂且准确度较高的模型,被称为教师模型,一个是未训练的小模型,被称为员工模型,使用知识蒸馏技术实现智能服务的推理加速。
欢迎各位师生参加!