电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)

  • 资源ID:149535516       资源大小:19.93KB        全文页数:14页
  • 资源格式: DOCX        下载积分:12金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要12金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一)

20秋学期(1709、1803、1809、1903、1909、2003、2009 )网络爬虫与信息提取在线作业(一)共50道题 总共100分一、单选题共20题,40分1. Redis若要进入交互环境,需要打开终端输入()Aredis-cdivBredisCredis-cmdDredis-start2. 使用UI Automatorr根据坐标来滑动桌面的操作是得到相应控件后使用命令()AswipeBmoveCscrollDfly3. Python中Object=obj_1:1,obj_2:2,则Objcet.get(boj_3,3)是()A1B2C3D无输出4. Python中若定义object="12345",则print(object:-1)输出()A1B5C54321D程序报错5. 在Scrapy的目录下,哪个文件负责定义需要爬取的数据?()Aspiders文件夹Bitem.pyCpipedivne.pyDsettings.py6. Python中Object=(1, 2, 3, 4, 5),则Objcet是()A列表B元组C字典D集合7. 如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击AXSSBDOSCDDOSD跨域8. 当爬虫创建好了之后,可以使用"scrapy()<爬虫名>" 命令运行爬虫。AstartupBstarwarCdrawlDcrawl9. Redis是()数据库A关系数据库B键值数据库C列存数据库D图数据库10. Scrapy中使用Xpath获得的结果调用了.extract方法,结果以()形式生成A列表B元组C字典D集合11. 使用UI Automator打开微信的操作是获取相应图标后使用命令()AtouchBcdivckCpushDhover12. 使用xpath方法的返回类型是()A列表B元组C字典D集合13. Python并导入uiautomator来操作设备的语句是from uiautomator import ()ADeviceBDevicesCJobsDJob14. 使用UI Automatorr点亮屏幕的操作是得到相应控件后使用命令()AwakeupBdivghtCbrightDsleep15. PyMongo中逻辑查询表示不等于的符号是()A$gtB$ltC$eqD$ne16. Python中若定义object=(1, 2, 3, 4, 5),则print(object:3)输出()A345B34C45D12317. Python中列表可以用()方法在末尾添加元素AaddBappendCplusD+18. Python读CSV文件需要哪个方法()ACSVReaderBCsvReaderCDictReaderDFileReader19. 服务器端记录信息确定用户身份的数据是AsessionBcookiesCmoonpiesDlocalstorage20. Python中退出循环应用关键字()AbreakBcontinueCexitDreturn二、多选题共10题,20分1. 以下哪些方法属于Python写CSV文件的方法()AwriteheadersBwriteheaderCwriterrowsDwriterow2. PyMongo更新操作有()AupdateBupdate_allCupdate_oneDupdate_many3. 如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()A非法侵入计算机系统罪B非法获取计算机信息系统数据罪C非法获取计算机数据罪D非法获取系统罪4. 网络爬虫的用途有()A收集数据B尽职调查C提高流量D攻击服务器5. HTTP常用状态码表明表明客户端是发生错误的原因所在的有()A403B404C500D5036. Python中一个函数没有返回值则可以写()A没有returnBreturnCreturn NoneDreturn NULL7. 下列说法错误的是()Amitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本,并在Python脚本里面直接操作HTTP和HTTPS的请求,以及返回的数据包。B命令行中执行mitmdump -s parse_request.py即可运行python 脚本C使用python可以自定义返回的数据包,如 response.headers,就是返回的头部信息D如果返回的是JSON类型的字符串,python无法进行解析。8. 以下HTTP状态码表示服务器本身发生错误的是A400B503C302D5009. Python中有哪些实现多线程方法()Amultiprocess.dummyBthreading.ThreadCprocessDPyMongoDB10. Python中通过Key来从字典object中读取对应的Value的方法有()AobjectkeyBobject.get(key)Cobject.pop(key)Dobject.pop()三、判断题共20题,40分1. 使用UI Automator使屏幕向上滚动一屏的操作是得到相应控件后使用命令scroll.vert.forward()A对B错2. 爬虫登录需要识别验证码可以先把程序关闭,肉眼识别以后再重新运行A对B错3. Python正则表达式中“.*?”是非贪婪模式,获取最短的能满足条件的字符串。A对B错4. Python中使用下面代码打开文件也需要对文件进行close关闭操作with open(文件路径, 文件操作方式, encoding=utf-8) as fA对B错5. mitmproxy的强大之处在于它还自带一个mitmdump命令。这个命令可以用来运行符合一定规则的Python脚本A对B错6. Python正则表达式中“.*”是贪婪模式,获取最长的满足条件的字符串。A对B错7. 如果通过爬虫抓取某公司网站的公开数据,分析以后发现这个公司业绩非常好。于是将数据或者分析结果出售给某基金公司,从而获得销售收入。这是合法的。A对B错8. robots.txt是一种规范,在法律范畴内A对B错9. Charles是一个收费软件,如果没有注册,安装以后的前30天可以正常使用。30天以后,虽然功能不会缩水,但每过30分钟Charles会自动关闭一次A对B错10. 设置了这个中间件以后,仍然需要输入账号密码可以成功得到登录以后才能看到的HTMLA对B错11. Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3A对B错12. 一般来说在页面都通过GET将用户登录信息传递到服务器端。A对B错13. 在Windows中下若要运行Redis可以运行redis-server /usr/local/etc/redis.confA对B错14. 在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的A对B错15. 引用中间件时后面的数字代表的是中间件的执行顺序,例如 AdvanceSpider.middlewares.ProxyMiddleware: 543 中的543A对B错16. Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;A对B错17. 使用Nginx反向代理到Scrapyd以后,Scrapyd本身只需要开通内网访问即可,不许经过输入密码A对B错18. Redis中使用lrange读取数据后数据也会删除A对B错19. Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。A对B错20. 虽然MongoDB相比于MySQL来说,速度快了很多,但是频繁读写MongoDB还是会严重拖慢程序的执行速度。A对B错

注意事项

本文(20秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线作业(一))为本站会员(易**)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.