当前位置:
首页 > temp > python入门教程 >
-
Python:双十一正值火热,让我们爬一下某宝,参与一波剁手~
兄弟们,双十一剁手了吗?购物虽快乐,但是别过度了,毕竟很多降价不是真的降价,眼睛擦亮了~
今天来试试爬一下某宝,这玩意学会了做外包的话,还是值几个钱的。
环境/模块介绍
python 3.8 使用的环境
pycharm 使用的编辑器
selenium 浏览器驱动的第三方模块
csv 数据保存的模块
time 时间模块, 可以用于程序的延迟
random 随机数模块
#兄弟们学习python,有时候不知道怎么学,从哪里开始学。掌握了基本的一些语法或者做了两个案例后,不知道下一步怎么走,不知道如何去学习更加高深的知识。 #那么对于这些大兄弟们,我准备了大量的免费视频教程,PDF电子书籍,以及视频源的源代码! #还会有大佬解答! #都在这个群里了 872937351 #欢迎加入,一起讨论 一起学习!
下载操作浏览器驱动的第三方模块
selenium pip install selenium
解释我基本都写在注释了,我就偷个懒不在写了。
from selenium import webdriver import time # 时间模块, 可以用于程序的延迟 import random # 随机数模块 from constants import TAO_USERNAME1, TAO_PASSWORD1 import csv # 数据保存的模块
def search_product(keyword): """搜索商品数据, 登录用户""" driver.find_element_by_xpath('//*[@id="q"]').send_keys(keyword) time.sleep(random.randint(1, 3)) # 尽量避免人机检测 随机延迟 driver.f def parse_data(): """解析商品数据""" divs = driver.find_elements_by_xpath('//div[@class="grid g-clearfx"]/div/div') # 所有的div标签 for div in divs: try: info = div.find_element_by_xpath('.//div[@class="row row-2 title"]/a').text price = div.find_element_by_xpath('.//strong').text + '元' deal = div.find_element_by_xpath('.//div[@class="deal-cnt"]').text name = div.find_element_by_xpath('.//div[@class="shop"]/a/span[2]').text location = div.find_element_by_xpath('.//div[@class="location"]').te'.//div[@class="pic"]/a').get_attribute('href') print(info, price, deal, name, location, detail_url) # 保存 with open('某宝.csv', mode='a', encoding='utf-8', newline='') as f: csv_write = csv.writer(f) csv_write.writerow([info, price, deal, name, location, detail_url]) except: continue
word = input('请输入你要搜索商品的关键字:') # 创建一个浏览器 driver = webdriver.Chrome() # selenium操作的浏览器被识别了, 无法登录 # 修改浏览器的部分属性, 绕过检测 driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => false})"""}) # 执行自动化浏览器的操作 driver.get('https://www.taobao.com/') driver.implicitly_wait(10) # 设置浏览器的等待,加载数据 driver.maximize_window() # 最大化浏览器 # 调用商品搜索的函数 search_product(word) for page in range(100): # 012 print(f'\n==================正在抓取第{page + 1}页数据====================') url = f'https://s.taobao.com/search?q=%E5%B7%B4%E9%BB%8E%E4%B8%96%E5%AE%B6&s={page * 44}' # 解析商品数据 parse_data() time.sleep(random.randint(1, 3)) # 尽量避免人机检测 随机延迟
作者:静默虚空
最新更新
nodejs爬虫
Python正则表达式完全指南
爬取豆瓣Top250图书数据
shp 地图文件批量添加字段
爬虫小试牛刀(爬取学校通知公告)
【python基础】函数-初识函数
【python基础】函数-返回值
HTTP请求:requests模块基础使用必知必会
Python初学者友好丨详解参数传递类型
如何有效管理爬虫流量?
2个场景实例讲解GaussDB(DWS)基表统计信息估
常用的 SQL Server 关键字及其含义
动手分析SQL Server中的事务中使用的锁
openGauss内核分析:SQL by pass & 经典执行
一招教你如何高效批量导入与更新数据
天天写SQL,这些神奇的特性你知道吗?
openGauss内核分析:执行计划生成
[IM002]Navicat ODBC驱动器管理器 未发现数据
初入Sql Server 之 存储过程的简单使用
SQL Server -- 解决存储过程传入参数作为s
关于JS定时器的整理
JS中使用Promise.all控制所有的异步请求都完
js中字符串的方法
import-local执行流程与node模块路径解析流程
检测数据类型的四种方法
js中数组的方法,32种方法
前端操作方法
数据类型
window.localStorage.setItem 和 localStorage.setIte
如何完美解决前端数字计算精度丢失与数