Python爬取世纪佳缘的数据是否能证明它不靠谱的示例分析
发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,这期内容当中小编将会给大家带来有关Python爬取世纪佳缘的数据是否能证明它不靠谱的示例分析,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。前言今天在知乎上看到一个关
千家信息网最后更新 2025年12月02日Python爬取世纪佳缘的数据是否能证明它不靠谱的示例分析
这期内容当中小编将会给大家带来有关Python爬取世纪佳缘的数据是否能证明它不靠谱的示例分析,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
前言
今天在知乎上看到一个关于【世纪佳缘找对象靠谱吗?】的讨论,其中关注的人有1903,被浏览了1940753次,355个回答中大多数都是不靠谱。用Python爬取世纪佳缘的数据是否能证明它的不靠谱?

翻了几页找到一个search_v2.php的链接,它的返回值是一个不规则的json串,其中包含了昵称,性别,是否婚配,匹配条件等等

通过url +参数的get方式,抓取了10000页的数据总计240116
需要安装的模块有openpyxl,用于过滤特殊的字符
# coding:utf-8import csvimport jsonimport requestsfrom openpyxl.cell.cell import ILLEGAL_CHARACTERS_REimport reline_index = 0def fetchURL(url): headers = { 'accept': '*/*', 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36', 'Cookie': 'guider_quick_search=on; accessID=20201021004216238222; PHPSESSID=11117cc60f4dcafd131b69d542987a46; is_searchv2=1; SESSION_HASH=8f93eeb87a87af01198f418aa59bccad9dbe5c13; user_access=1; Qs_lvt_336351=1603457224; Qs_pv_336351=4391272815204901400%2C3043552944961503700' } r = requests.get(url, headers=headers) r.raise_for_status() return r.text.encode("gbk", 'ignore').decode("gbk", "ignore")def parseHtml(html): html = html.replace('\\', '') html = ILLEGAL_CHARACTERS_RE.sub(r'', html) s = json.loads(html,strict=False) global line_index userInfo = [] for key in s['userInfo']: line_index = line_index + 1 a = (key['uid'],key['nickname'],key['age'],key['work_location'],key['height'],key['education'],key['matchCondition'],key['marriage'],key['shortnote'].replace('\n',' ')) userInfo.append(a) with open('sjjy.csv', 'a', newline='') as f: writer = csv.writer(f) writer.writerows(userInfo)if __name__ == '__main__': for i in range(1, 10000): url = 'http://search.jiayuan.com/v2/search_v2.php?key=&sex=f&stc=23:1,2:20.30&sn=default&sv=1&p=' + str(i) + '&f=select&listStyle=bigPhoto' html = fetchURL(url) print(str(i) + '页' + str(len(html)) + '*********' * 20) parseHtml(html)二,去重
在处理数据去掉重复的时候发现有好多重复的,还以为是代码写的有问题呢,查了好久的bug最后才发现网站在100页上只有数据有好多重复的,下面两个图分别是110页数据和111页数据,是不是有很多熟面孔。
110页数据
111页数据
过滤重复后的数据只剩下 1872 了,这个水分还真大
def filterData(): filter = [] csv_reader = csv.reader(open("sjjy.csv", encoding='gbk')) i = 0 for row in csv_reader: i = i + 1 print('正在处理:' + str(i) + '行') if row[0] not in filter: filter.append(row[0]) print(len(filter))上述就是小编为大家分享的Python爬取世纪佳缘的数据是否能证明它不靠谱的示例分析了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注行业资讯频道。
数据
世纪
佳缘
分析
示例
内容
处理
不规则
特殊
专业
两个
中小
代码
内容丰富
前言
参数
只有
字符
对象
就是
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
新疆泰克软件开发有限公司首页
校园安全网络技术
招商证券服务器正在运行中
戴尔m系列服务器
中指的数据库账号
手机生产测试软件开发
服务器被占用
哪些数据库支持分库
网络技术服务合同乙方义务
百度用的啥数据库
2017年网络安全法试题答案
网络安全专业用语
正规的电脑服务器回收
宁波镇海区浪潮塔式服务器
网络安全绿色上网名言
HMI软件开发设计体系
银行软件开发工程师累吗
数据库是元数据的集合
asp数据库 语句注释
网络安全的场景
北京和武诚信网络技术
2021年网络安全技术对抗赛
自定义域名服务器
西安广东网络安全培训
微力同步可以做服务器
数据库软件哪些比较好
网络技术考试准备
我的世界零基础开服务器
数据库的技术指标
网件路由器流数据库更新