solidworks三维建模,solid works编程

  solidworks三维建模,solid works编程

  吉图布:https://github.com/kenblikylee/kcrawler

  git克隆https://github.com/kenblikylee/kcrawler.git

  1.安装环境要求1.1 python=3.0 pip=19.0 python-vpip install-upgrade pippip-v 1.2查看最新版本pip搜索kcrawler 1.3首次安装pip安装k crawler # IP install-index-URL https://pypi.org/simple k crawler 1.4更新已安装pip安装-upgradkcrawler # Orp安装-upgrade-index-URL https://pypi.org/simple k crawler 1.5卸载pip卸载-y kcrawler 2 .使用2.1如何使用pip。安装成功后,系统搜索路径会自动创建一个可执行程序:kcrawler,kcanjuke,kcjuejin。

  通常是在python或者conda安装目录的real audio子目录下,比如:/anaconda3/real audio /kcrawler。Windows平台将创建。exe文件。

  Kcrawler是抓取所有网站应用的入口,命令执行格式如下:

  KCrawler web app[web app-data][-options]相当于:

  KC web app[web app-data][-options]例如:

  KCRAWLER金爵图书公司-网址 3359 . KCJUEJIN图书-URL 3359 . 2.2以k crawler web app[web app-data][-options]为例。

  2.2.1获取金块小册子数据,并执行以下命令:

  kcrawler金爵图书命令已成功执行,并显示以下统计图:

  并将详细数据保存在当前目录中,并保存。csv和。xls文件。文件名格式如下:

  金爵_图书_YYYY-MM-DD.csv金爵_图书_YYYY-MM-DD.xls

  2.2.2爬块柱的读数格式:

  KCrawler金爵Post-name username-limit 100-URL user _ Post _ URL name:目标抓取用户的名称,可以自定义。它只是用来区分不同的用户。同时是保存为抓取数据的文件夹名称。limit:限制最新爬网的列数。URL:目标爬网用户的接口地址。此参数实际上决定了获取谁的列URL进行爬网,如下所示:

  为了快速体验抓取效果,还默认支持网址。对用户ken的列进行爬网:

  KCrawler金爵Post-Name ken-Limit 100对详细数据进行爬网,这些数据将以ken目录中的爬网日期和时间命名,而。csv文件和。xls文件将同时保存。

  2.2.3要爬指定城市安居客小区的房价,首先要获取网站的cookie。获取方法参考《python 自动抓取分析房价数据——安居客版》的第2.4小节。

  用您自己的cookie替换anjuke_cookie,并运行以下命令:

  KCrawler安居客-城市深圳-Limit50-cookie 安居客_cookie 也可以将cookie保存在当前目录下的安居客_ Cookie(无后缀)文件中。运行以下命令:

  kcrawler安居客-城市深圳-限制50

  命令运行成功后,将显示房价的平均值、最大值和最小值,并绘制房价分布直方图。关闭柱状图后,详细数据会保存在当前目录下,如Anjuke _ Shenzhen _ Community _ Price _ 20xx-xx-xx . CSV所示。

  要获取其他城市的房价,只需将城市参数改为安居客网站覆盖的城市拼音即可。您可以打开页面https://www.anjuke.com/sy-city.html,点击您想要获取的城市,并在浏览器的地址栏中复制该城市对应的二级域名。例如,beijing.anjuke.com只将北京作为城市参数。

  获取源代码GitHub:https://github.com/kenblikylee/kcrawler

  git克隆https://github.com/kenblikylee/kcrawler.git

  扫描微信二维码,获取最新科技原创

  历史提交的图片或压缩文件

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: