视觉同步定位与建图(simultaneous localization and mapping,SLAM)是智能机器人、无人驾驶等领域的核心技术。通常大多数视觉SLAM关注的是静态场景,它们难以应用于动态场景,也有一些视觉SLAM应用于动态场景,它们借助神经网络来剔除动态物体从而减少动态物体的干扰,但剔除后的图像留有的空洞会对位姿估计以及地图构建产生不小的影响。因此本文提出了一种基于空洞补全的动态环境语义SLAM方法,首先结合语义分割网络和运动一致性检测来剔除动态物体,其次将剔除后留有空洞的图像序列输入到补全网络中进行深度补全,最后运用补全后的图像序列进行回环检测以及3D场景重建。在KITTI、TUM数据集上进行实验,结果表明,与ORB-SLAM2等当前先进的SLAM方法相比,本文方法位姿估计的精度更高。