当前位置: 首页 > news >正文

广东圆心科技网站开发需要多少钱网件路由器恢复出厂设置

广东圆心科技网站开发需要多少钱,网件路由器恢复出厂设置,开发网站的公司,wordpress外观无法编辑收藏和点赞#xff0c;您的关注是我创作的动力 文章目录 概要 一、研究背景与意义1.1背景与意义1.2 研究内容 二、舆情监测与分析的关键技术2.1 robot协议对本设计的影响2.2 爬虫2.2.1 工作原理2.2.2 工作流程2.2.3 抓取策略2.3 scrapy架构2.3.1 scrapy#xff1a;开源爬虫架… 收藏和点赞您的关注是我创作的动力 文章目录 概要 一、研究背景与意义1.1背景与意义1.2 研究内容 二、舆情监测与分析的关键技术2.1 robot协议对本设计的影响2.2 爬虫2.2.1 工作原理2.2.2 工作流程2.2.3 抓取策略2.3 scrapy架构2.3.1 scrapy开源爬虫架构2.3.2 scrapy框架结构2.3.3 两种继承两种爬虫模式 三、需求分析和系统总体架构3.2 系统需求分析3.2.1 业务需求分析3.2.2 功能性需求分析3.3 系统总体架构3.3.1 爬取对象分析3.3.2 模块设计 四、系统实现4.1爬虫模块4.1.1 环境搭建与前期分析4.1.2 系统爬取4.2数据分析模块4.3数据可视化模块4.3.1词云展示4.3.2热点话题词频4.3.3贴吧评论数量区间 五、 总结 概要 随着科技的飞跃式发展通讯手段与交流方式不断更新网络作为信息通讯的重要媒介成为了高校学生沟通交流、发表观点的重要平台。高校学生通过利用网络公民自发形成的舆论圈交流更为便捷传播更为多元使得高校舆情具有了随意性、直接性、偏差性、突发性四大特征对社会中的舆情传播产生的影响不可小觑所以高校需要及时掌握学生舆情的发展动态可以及时做出有效的监管和正确的引导。   通过对高校网络舆情监测的实际需求分析和概要分析本文在现有国内外舆情监测的基础上构建了以python爬虫技术为基础的高校舆情监测与分析系统并且根据高校管理人员的实际需求对系统做了详细的分析与设计通过网络讨论平台获取大量舆情数据进行整合分析从而实现多态势舆情的实时监控和舆情数据分析的可视化其中包含媒体分析、热度分析、受众分析等。舆情监测与分析系统包括了四个模块舆情关键字管理模块、舆情分析模块、舆情结果可视化模块、舆情报告模块。从舆情关键词建立到舆情报告的展示高校舆情监测与分析系统将为高校管理人员提供准确高效的舆情发展态势辅助高校了解学生内心动态及时发展舆情的产生调整高校的管理政策促进学生的健康成长和高校的稳健发展。 关键词高校舆情网络爬虫舆情监测舆情分析 一、研究背景与意义 当互联网技术逐渐渗透进入社会的各种领域已然成为社会中不可或缺的一部分。人们获取信息的途径以及日常交流也逐渐由线下转为线上使得信息的传播速度呈指数式增长同时随着生活条件的提升和互联网工具的普及网民数量急剧增长年龄趋于年轻化。其中作为生活得到初步自由的高校学生他们是在网络上发表意见和关注社会热点的重要群体因而高校学生对于网络舆情的爆发和推动起到关键性作用。由于高校学生涉世未深长期处于校园生活对社会热点的看法容易受到蛊惑和欺骗从而在网络上肆意表达自己的情绪对社会和学校造成严重的后果。随着大数据时代的到来应用大数据技术分析网络舆情发展走向遏制舆情的产生是高校管理部门对舆情监测与分析的研究方向。 1.1背景与意义 随着信息时代的崛起网络对人们的作用越来越大。几年之间信息的传播还依靠传统的报纸、广播等方式传播现如今网络时代的快速发展使得互联网成为信息最主流的传播途径。截止2019年6月我国的网民规模高达8.54亿。人们可以通过网络平台及时获取信息并且快速对信息做出反馈 舆情在网络中产生的方式就是人们通过网络平台针对社会热点问题发表自己的看法和宣泄情绪的过程。网络舆情的要素包括互联网、网民、热点事件、互动传播、情感。互联网舆情信息以公共媒体、自媒体为载体围绕某个社会热点事件通过网络传播的迅速性大量聚集情感信息对相关管理部门产生一定的影响。   网络媒体具有极强的自由性目前网络监管机制尚不完善网民利用网络自由和可匿名的特点肆意的在网络平台发表观点、宣泄情绪使得网民的表达增加真实、顺畅。对于传统的信件报纸而言网络可以直观的、迅速的看到社会问题表达人们的心声分享他人的意见。同时网络又具有极强的交互性网民通过参与社会热点问题的讨论或者向有关部门的反映网民在交流互动的过程中难免有时无法控制住自己的情绪导致网络暴力事件频发成为网络安全的一大隐患。由于消息是由网民自发性传播扩散其中掺杂着浓厚的感情色彩在传播的过程中背离信息原有的真实性甚至有些为了达到目的故意歪曲事实随着传播过程的积累往往会形成强大的舆论对社会甚至国家产生重大的影响从而如何利用好网络弘扬社会正气完善舆情监测分析系统对舆情的产生提早发现管理人员及时制定相应的解决方案是新时代下国家的重点任务。对于高校来说第一时   间监测到舆情发展动向是高校掌握学生动态的重要因素也是对学生的心理需求进行相应的疏导的首要前提。 1.2 研究内容 高校学生作为信息爆炸时代舆情产生和传播的主力军对舆情的走向起到关键性作用所以建立高校舆情监测与分析系统成为当下首要的任务尤其是在当下信息多元化的时代。因此本文针对以上问题设计一个高校的舆情监测与分析系统的模型和框架并对模块和组件之间的关系完善了其主要功能。本文完成的工作包含以下内容 1.通过对多所高校的管理人员的询问调查在图书馆翻阅相关书籍对高校舆情监测与分析系统的需求做出了分析建立了一套高校舆情监测的系统框架并且使用信息系统中常见的模块化思想对系统做出设计。 2.根据需求分析对高校舆情监测与分析系统作了详细设计对数据采集模块和数据分析模块做了详细的设计。 3.通过对高校学生的了解贴吧是学生讨论、发表观点最集中的平台对高校贴吧论坛进行帖子的规模爬取得到数据分析所需要的数据。 4.对所得的数据进行敏感词分析得到关键词在贴吧中的出现频率进而反应某些舆情的出现。 本文的整体结构安排由五章构成各章节安排如下。 第一章绪论阐述高校舆情监测与分析研究的背景网络舆情中高校学生所占据的重要性并阐述了舆情监测与分析国内外的研究现状。 第二章高校舆情监测与分析的相关介绍并对相关技术以及算法进行了介绍。如爬虫架构scrapy等。 第三章系统需求分析与系统架构通过对需求的分析和架构的设计明确了系统的模块构成。然后对各个模块进行了介绍。 第四章根据高校舆情监测与分析系统对高校舆情检测结果的分析展示了高校舆情监测与分析系统的部分界面。 第五章总结与展望。总结了系统设计过程中的一些所思所想。然后对本系统的进一步研究方向进行了展望。 二、舆情监测与分析的关键技术 2.1 robot协议对本设计的影响 robot协议的全称为“网络爬虫排除标准”网络站点通过Robot协议告知爬虫此站的网页哪些能进行爬取哪些不能爬取。   robots.txt文件为robot协议最根本的表现。将网站视作交通信号的话robots.txt则是某些路口的红绿灯“红灯禁行”或“绿灯可行”的信号爬虫就是通过路口的汽车根据信号灯的指示通行。   robot协议在法律中也没有强制的规定更没有正式的协议表明他只是爬虫技术中约定好的一种内部协议更像是一种行业规范爬取与被爬取者需要自觉遵守的协议[13]。当今社会大多数互联网企业都在遵循robot协议很好的体现出互联网行业的一种契约精神。   如果此系统遵循robot协议则此舆情监测系统将不能爬取到完整的数据。由于此爬虫系统不是用于商业利益而开发设计仅仅作为研究学习使用此系统为了数据的完整性获取此爬虫系统需要不遵守robot协议。在scrapy架构中的setting.py文件中设置即可。 2.2 爬虫 2.2.1 工作原理 爬虫的含义是指一段自动的向互联网上某些网页发出请求并接收响应根据一定规则继续爬取信息或从响应中提取出有用的信息的一段程序。爬虫的运行中会涉及到网络请求、网络解析其可以主要运行依托于以下几种技术。   URLUniversal Resource Identifier通用资源标识符网络中每个资源都是由一个唯一的URL确定根据URL也可以定位到网络中的唯一一个资源。   HTTP协议超文本传输协议此协议是网络中应用最为常见的一种协议HTTP协议提供了发布与接收HTML页面的方法由HTML语言编写的网页代码可由浏览器渲染成结构清晰的页面。 2.2.2 工作流程 一个传统的爬虫往往是从一批URL开始的爬虫先请求这批URL的网页内容得到正确的应答后对页面内容进行解析然后根据预先设计好的规则从网页中找到某些URL加入到请求队列中或者从网页中定位到所需要的信息并将信息进行封装保存。循环往复不断从请求队列中提取URL进行请求直至请求队列为空或某些其他情况导致爬虫程序终止为止 2.2.3 抓取策略 爬虫抓取大致可分为两种横向、纵向也可以称为深度优先算法与广度优先算法。   横向爬虫抓取是图算法中最常见的也是最重要的更是许多其他图算法策略的原型。横向爬虫抓取的设计与实现较简单从原始URL出发寻找距离原始URL最近的URL加入请求队列进行搜索。在本系统中以百度贴吧为例横向爬虫抓取是从列表第一页开始根据输入的爬取页数不断地的向后翻页把下一页的URL加入到等待爬取的队列当中。   纵向爬虫抓取的策略与横向爬虫抓取相反其从起始页开始层层深入一直寻找到没有更深的节点再通过层层递归返回起始页搜索完毕所有的节点。在本系统中纵向爬虫抓取即指从列表的第一页开始获取所设定的页数详情页的URL加入到待爬取队列中等待抓取。由于百度贴吧的网页特性从一个详情页无法直接到达另外一个详情页故此纵向深度为2。   本系统需要完成的是双向爬取即从列表页第一页开始一次性爬取到下一页的URL和每一页中详情页的URL直至爬取完所设定的爬取页数。 2.3 scrapy架构 2.3.1 scrapy开源爬虫架构 scrapy爬虫框架是python开发的开源爬虫框架具有抓取效率高、易于使用、和开发迅速的特点用于爬取互联网中的web站点并从网页中提取结构化的数据。scrapy是一个爬虫框架而且开源任何人都可以根据需求对其进行修改。本系统采用scrapy框架的原因如下 1.scrapy是基于Twisted的一种框架。Twisted框架是一个异步IO框架。由于Twisted具有特性scrapy框架内置实现了单机多线程十分有效的提升了性能。应用此框架程序的执行流将被外部事件所影响。由于他的此种特性scrapy不支持分布式爬虫如要实现分布式需要使用其他的库。 2.scrapy的扩展功能非常多。在他的框架中包含了众多的模块几乎包含爬虫技术需要处理的问题多数扩展的功能都可以在下载第三方库中实现开发效率极高。 3.scrapy包含了两种定位方式css和XPath可以使爬取到的页面进行元素的定位,可以对网页的解析效率提升很多。 4.scrapy框架开发容易。使用Scrapy框架完成一个爬虫系统的工作量可以小很多他其中包含了众多的第三方库每个库的相互协作使得该框架的性能十分突出。 2.3.2 scrapy框架结构 scrapy框架结构如图2.1所示。 图2.1 scrapy框架结构 整个scrapy框架由中心引擎所控制。中心引擎是管理每个子功能协同工作的核心所在他管理着在爬取中数据的流动在不定事件发生的时侯控制整个框架。数据爬取时首先中心引擎向调度器索要需要爬取数据的链接调度器将请求等待队列中的URL交给中心引擎中心引擎将URL分给下载器下载器则向这些网页发起请求。下载器取得这些网页的返回以后则交给中心引擎中心引擎将其交给Spiders。根据网页的不同返回值找到适合爬取该网页的爬虫代码对网页的返回数据进行提取与解析。提取的网页数据被送到pipeline进行下一步处理pipeline对网页数据进行打包完成对数据的持久化操作可以存入数据库或着存入指定文件下。完整的爬取过程依次进行直至调度器下的请求队列中没有需要请求的页面爬虫系统将会停止运行。 2.3.3 两种继承两种爬虫模式 Scrapy爬虫框架下每个scrapy爬虫框架提供的爬虫类都需要被相应的Spider所继承不同的爬虫类都是不同的爬取方式下面两个是最常用的爬虫类。本系统将主要采用第一种Spider只有少数地方使用到了第二种爬虫类。   第一种类称为scrapy.Spider。Spider是相对最简单的爬虫类。下面编写的spider类必须每个都要继承自该类。Spider类是一个普通的爬虫类一般用来请求特定的start_urls或调用start_requests方法并根据返回的结果选择不同的parse方法解析数据。   该类中有以下几个关键的参数 name字符串类型确定一个爬虫的唯一标识在使用爬虫系统时必须使用该名字所以在爬虫中名字必须保证唯一name是整个爬虫框架中确定后就不能修改的一个字段。 allowed_domains列表类型当OffsiteMiddleware是开启状态时要是URL不在该列表内该URL也不会被跟进。 start_urls列表类型如果没有特定的起始URL此列表中的URL作为起始URL提供给中心引擎。爬取系统的URL将从此处开始爬取。 start_request()此方法须返回一个可迭代的对象使用yield返回最为常见。该返回的对象包括了spider用于爬取的第一个request请求当爬虫系统启动且未指定起始URL时系统将自动使用此方法开始请求URL。 parse()此函数是爬虫类中最为关键的方法同时也是爬虫系统逻辑实现的关键地方。response没有指定回调函数时parse是scrapy处理获取到的网页数据的默认方法。网页将在其中被处理被解析并通过定位到的数据以生成器的形式返回给管道处理。   第二种为CrawlSpider。若爬取网页为一般网页时使用Spider最为便捷如果需要完成对URL的进一步解析则需继承该类。CrawlSpider类是爬取全站的关键工具可以从起始页面开始不断爬取本站点的数据如不加限制将可以爬取整个站点的所有网页。   该类最关键的字段为 rules包括了一个或多个的Rule集合每个Rule对爬取网站的动作进行了特定表现。 Rule中的多个参数共同筛选筛选出匹配的URL进一步解析。其中重要的参数有link_extractor负责从页面中提取a标签下的href链接follow布尔类型定义了对爬取到的URL是否需要进一步解析。 当使用Spider类时通过parse与start_request两种方法的相配合可实现对网页的纵向爬取通过start_urls列表可依据URL的直接指定横向爬取方法。使用CrawlSpider时可直接由列表页的首页开始爬取依据制定的爬取规则进行横向与纵向同时爬取。使用第一种方式进行代码编写便于维护逻辑较为简单可实现多种功能所以本系统大部分采用第一种爬取逻辑进行爬虫模块的编写。 三、需求分析和系统总体架构 3.2 系统需求分析 3.2.1 业务需求分析 本文以高校贴吧作为信息源进行分析研究以爬取到贴吧内容作为系统的初步目标由于贴吧内容繁杂反爬虫机制健全无法通过短时间内获取到一定规模的有效信息故本系统可以根据需求任意选择爬取的贴吧名字和爬取的页数根据舆情发展时间和热度的高低设定贴吧爬取范围。主要工作放在信息分析方面通过数据展示出高校学生最为关心的问题从而提前预知高校舆情的走向。   由于本系统的主要实现功能是围绕高校舆情监测与分析展开所以本系统应该完成的关键功能包括以下方面的内容   1.高校贴吧的帖子信息   该系统本身不会生成数据信息系统所需的数据信息来源于高校贴吧中学生的发帖与评论。但是由于贴吧的数据库并不向用户开放所以要想得到所需要的数据需要利用爬虫技术对高校贴吧中的原始数据进行爬取为系统进行数据分析创造条件。根据舆情监测者的需求选择爬取的贴吧名字与爬取帖子的页数。   2.数据进行分析并且将数据可视化 3.2.2 功能性需求分析 系统通过对于贴吧数据的水平广度爬取。其中水平爬取是将贴吧网页进行广度优先爬取操作可以实现在网页的第一层就可获得所需要的数据很大程度上提升了数据爬取的效率。由于百度贴吧对反爬虫机制做得相对完善反爬虫机制对于一个主机IP频繁访问和流量访问进行监控从而达到对爬虫的限制一旦对本机IP进行封锁后此IP将不能继续进行数据的爬取所以此系统必须要克服反爬虫机制的限制具备在反爬虫机制下爬取数据的能力。 图3.1 数据爬取功能 系统分析数据功能是指将爬取数据得到的帖子以及评论信息进行处理实现数据的可视化功能。数据处理首先除去数据中无效的数据将有效的数据按照类别特征转化为相应的特征数值筛选掉冗余的数据。其次处理干净的数据通过图表的形式将贴吧中有效的信息进行挖掘从而达到用户可读的可视化效果给予用户提供参考依据。 图3.2 数据分析功能 3.3 系统总体架构 本系统的主要功能如下 1.搭建scrapy爬虫框架运行环境、搭建MongoDB运行环境为系统的开发做出前期环境支持。 2.通过网页的不同特征编写相应的爬虫代码从而实现对贴吧贴子以及评论的爬取再通过数据的封装、清洗在数据中提取到有价值的信息并将信息存入到数据库中。 3.有效利用反爬虫技术避开贴吧对爬虫的限制。 4.通过对提取出的信息进行分析处理实现数据的可视化操作。 3.3.1 爬取对象分析 该系统以爬取高校贴吧帖子和评论为目标其贴吧帖子和评论格式较为固定因此数据库的设定相对简单。本次将爬取贴吧中的标题、帖子内容、评论等内容。表3.1为爬取的目标网站以及网站的分析。 表3.1 爬取对象分析 “百度贴吧”作为高校学生发表评论、分享观点最密集的地方其中含有大量的学生生活动态和内心活动。选取其为爬取对象其中的内容足以支撑本系统的分析需求。其次动过对贴吧网页的分析了解到了贴吧网站的网站协议使我对爬虫的原理有了更加深入的了解。 3.3.2 模块设计 该系统整体分作三个部分爬虫模块、数据可视化模块、数据分析模块。 图3.3 系统模块设计 其中爬虫模块涉及对网页的请求、对请求到页面的解析、对解析后网页内容中有价值资源的定位、与数据库的连接数据库部分涉及对数据的存储其细分的各个子模块的功能介绍如表3.2。 表3.2 子模块功能描述 四、系统实现 4.1爬虫模块 4.1.1 环境搭建与前期分析 Pycharm是一个开源的python编程软件其中包含了大量第三方库使用时随时添加及其相互依赖的库完成了多种环境的搭建其中就包括scrapy的环境。完成对scrapy环境的安装。安装完成后所有所需环境变量已自动配置好所需的各种python库也已安装成功可直接开始scrapy项目。所有使用到的第三方库如图4.1所示。 图4.1 PyCharm环境配置   创建scrapy项目需在命令行中进入准备开始项目的目录运行如下命令 scrapy startproject bishedemo   创建项目后文件结构如图4.2所示。 图4.2 scrapy文件结构   其中各个文件的简要介绍如表4.1。               表4.1 scrapy主要文件介绍 4.1.2 系统爬取 用户通过系统输入任何一个合法贴吧名字然后根据舆情预测规模大小和结合高校自身情况选择需要爬取贴吧网站的页数每页的爬取时间在4秒钟左右。 图4.3 数据爬取页面 获取页面信息并用xpath解析内容通过页面分析可知道每一个帖子都是一个li。循环遍历取出内容并拼接帖子url进入帖子详情页面通过html分析获得一楼文本。系统会自动翻页爬取贴吧的标题、作者、发布时间、链接、回复数量、帖子内容。将爬取到的数据存储到Mysql数据库的baidu库下。   系统通过解析数据库从数据库读取bordered表中数据以表格的形式展示到系统的html页面上table class“table table-bordered”。如下图所示。 图4.4 数据可视化页面 用户可以根据数据的可视化完整的看到目标网站的所有帖子内容根据标题、内容、回复数量直观的了解每一个话题的内容和关注程度。细致的掌握每一个话题的动向。 4.2数据分析模块 系统根据爬虫系统对贴吧网页的数据进行一定规模的爬取后对目标数据进行重新审核检查和校验将重复的数据信息进行删减改正格式不正确最终保证数据的独立性和统一性完成系统可以将数据进行批处理的归一化。通过对初始脏数据的预处理得到干净的、连续的、标准的可进行Python库可视化操作的数据。为系统进一步的模型建立提供准确性。通过使用duplicated()函数和pandas函数集中进行检测是否存在数据重复将重复的数据利用drop_duplicates()函数进行删除。   利用第三方Jieba库导入自定义词典获取停用词list然后删除jieba空格、删除停止词后的分词使用reverse降序排序字典最后得到关键词以及关键词出现的次数完成分词操作对后面数据分析创造条件。 4.3数据可视化模块 4.3.1词云展示 Python语言中pyecharts库是一个开源的完成词云绘制的关键库。首先引入pandas库和numpy库对数据进行分析通过pandas库中的read-csv进行文件的读取再通过文件的具体类型进行sep参数的设置利用字符串join方法使列表转化为字符串。第二引入collection库中的counter方法返回词汇出现频率的统计。第三使用sorted方法和lambda函数得到分词关键词choices_number50取出关键词出现频率排名在前50的关键词。最后通过pyecharts库设置wordcloud.add参数字体、颜色、大小、倾斜度得到词云如下图所示。 图4.5 词云展示 为了使高校舆情信息的及时发现处理。词云是高校舆情管理人员发现学生动态异常、掌握学生近期关注话题最直接的方式。词云通过词汇的形式展示学生近期最佳关注的话题词汇区分颜色大小位置将出现次数最多的词汇放到图形的中心并且增加字号系统管理人员可以第一时间发现高校内的热点话题如果话题内容为负面词汇高校可以第一时间掌控信息扭转舆情的爆发。 4.3.2热点话题词频 通过引入jieba库中的anasyle方法收集数据中每个关键词汇以及每个关键词出现的频率。对词频前20名的词汇出现频率以柱状图的形式展示出来可以使得高校舆情管理人员掌握学生对热点话题的关注人数了解舆情的规模大小。关键词频率可视化如下图。 图4.6 高频词统计   通过后台对高频词的分析表4.2对有效、重要的高频词进行了统计可以明显的看出关键词考研出现的频率最高说明考研是山东管理学院最受关注的话题足以说明学习氛围的浓郁。其次开学、成绩、专升本、资料等关键词出现频率也都排名在前列并且差距不大这些关键词都为正面话题。当某一种关键词的出现频率远高于其他关键词或者有负面关键词出现时则会有舆情爆发的风险管理人员应随时关注及时作出相应的决策。   表4.2 重要高频词次数统计 通过词云与热点主题词汇出现的频率使得高校舆情管理人员掌握学生对热点话题的关注人数了解舆情的规模大小。针对不同程度不同情感的舆情高校可以及时作出相应的决策。 4.3.3贴吧评论数量区间 通过统计贴吧不同楼层范围内的回复数量将20层设为分界点。统计数据中20层以上的楼层如果占比越大说明此时间段内可能会出现热点话题讨论高潮意味着将会有舆情的发生所以用户根据实时监控楼层回复数量的占比可以有效的预测舆情的发生词云和排名前20的关键词分析出舆情的主题从而高校舆情管理人员及时的做出决策避免负面舆情的发展。贴吧评论数量区间扇形图和柱状图如下所示。 图4.7 楼层回复数量统计 五、 总结 本文通过使用python语言按照前期开题报告要求实现了一个高校舆情监测与分析系统功能基本完善对高校贴吧的监测具有一定的效果。随着大数据时代的前进高校学生作为新时代下的接班人对网络的依赖性与迷茫性很高此系统将高校学生在网络中的言行举止记录下来关注他们在生活中的另一种状态使得高校在一定程度上帮助学生调整心态避免舆情的大面积爆发具有一定的实现意义。 在本系统的设计开发中我学习使用了scrapy框架对网页进行数据的爬取将爬取的工作量降到最低。Python中的第三方库是完成此系统的关键通过开源的第三方库Jieba库实现了对数据的分词pandas库和numpy库对数据进行分析pyecharts库是一个开源的完成词云绘制的关键库。对第三方库的综合利用发现数据分析技术已经逐渐渗透到我们的工作生活当中使得我们摆脱传统的手工统计工作以最高的效率得到我们想要的统计结果。 但是本系统还有很大的优化空间现在数据分析操作较为简单距离市面上的高级舆情监测与分析系统仍具有很大差距在今后的学习中还需继续完善此系统以便我们更加深入的挖掘的研究。
http://www.dnsts.com.cn/news/186968.html

相关文章:

  • 个人备案之后用于商城网站佛山网页设计多少钱
  • 长沙建站工作室专注网站开发
  • 网站建设与开发试卷ui设计发展前景及未来
  • 河南住房与建设厅网站翻译wordpress
  • 网站推广方案注意事项?wordpress 批量打印文章
  • 怎么给一个网站做搜索功能wordpress调用header
  • 自助建设手机网站北京学做网站
  • 传媒公司创业手机网站seo教程下载
  • 网站开发详细设计文档pconline太平洋电脑网
  • 网站建设目的舒城县重点工程建设局网站
  • 网站挂标 怎么做女排联赛排名
  • 服务器做php网站wordpress栏目设置到导航
  • 什么是部署php网站淘宝数据分析
  • 成都网站优化师地方o2o同城网站源码
  • 网站seo 规范中国十大营销专家
  • 不用备案的网站2017主流网站风格
  • 抖音代运营业务介绍网站seo报告
  • 深色系网站wordpress ldap 插件
  • 哪里有做枪网站的做一个美食网站怎么做
  • 有没有做淘宝的网站吗新闻最近的大事10件
  • 做网站优化找谁简单网站建设策划书范文
  • 可视化网站制作软件企业网站建设的公司有哪些
  • 贵阳seo网站推广优化广州网站设计
  • 免费优化网站排名wordpress子目录网站
  • 用vuejs做网站月季花app是哪家公司开发的
  • 学校为什么要做网站兰州网站建设推荐q479185700上快
  • 外贸网站开发定制怎么查看什么公司做的网站吗
  • 青浦做网站商业网站建设视频教程
  • 网站设计制作收费明细优化生育政策
  • 搜索引擎是网站提供的搜索服务吗ppt模板红色主题