基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
为了提高航行通告文件下载效率、节省人工资源,文章通过Scrapy爬虫框架,结合自然语言处理中的信息,分类爬取各民航局发布的航行通告文本.首先基于网页数据交互模式将网站分类,结合Selenium自动化测试工具进行网页下载.然后使用朴素贝叶斯算法将网站所有链接进行分类,区分为目标链接以及非目标链接,从而实现提取航行通告文本链接,此分类模型在领域类网站准确率为95.97%.
推荐文章
基于Scrapy框架的爬虫和反爬虫研究
网站
网络爬虫
反爬虫
Python
Scrapy框架
基于Scrapy框架的爬虫设计
Scrapy框架
爬虫
数据可视化
基于最优查询的多领域deep Web爬虫
deep Web
deep Web爬虫
最优查询
页面聚类
基于Scrapy框架的互联网招聘信息可视化技术研究
Scrapy框架
招聘信息
数据分析
可视化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Scrapy爬虫框架的领域网站文件爬取
来源期刊 现代信息科技 学科 工学
关键词 Scrapy 爬虫 Selenium 朴素贝叶斯
年,卷(期) 2020,(21) 所属期刊栏目 信息技术
研究方向 页码范围 6-9
页数 4页 分类号 TP391
字数 语种 中文
DOI 10.19850/j.cnki.2096-4706.2020.21.002
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (32)
共引文献  (21)
参考文献  (7)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1988(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
2004(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(3)
  • 参考文献(0)
  • 二级参考文献(3)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(5)
  • 参考文献(0)
  • 二级参考文献(5)
2015(4)
  • 参考文献(0)
  • 二级参考文献(4)
2016(5)
  • 参考文献(0)
  • 二级参考文献(5)
2017(8)
  • 参考文献(2)
  • 二级参考文献(6)
2018(2)
  • 参考文献(0)
  • 二级参考文献(2)
2019(4)
  • 参考文献(1)
  • 二级参考文献(3)
2020(2)
  • 参考文献(2)
  • 二级参考文献(0)
2020(2)
  • 参考文献(2)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Scrapy
爬虫
Selenium
朴素贝叶斯
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
现代信息科技
半月刊
2096-4706
44-1736/TN
16开
广东省广州市白云区机场路1718号8A09
46-250
2017
chi
出版文献量(篇)
4784
总下载数(次)
45
总被引数(次)
3182
论文1v1指导