怎么用PythonQQ自动发说说说?

这是一个创建于 1592 天前的主题其Φ的信息可能已经有所发展或是发生改变。

刚刚接触Python爬虫只会最基础的知识。现在存在的问题:

  • 爬取QQ空间说说的话我在源代码里面没發现说说内容,只有一些JS代码……不知道怎么解决
  • 而且应该还有登录QQ的问题(想爬取的空间设置只对好友开放)

自己在网上搜了下没有找到解决方案。求指点

你也可以爬取页面后试试phontomjs解析js。

这个地址直接返回说说数据的

写过一个小脚本把所有说说给删了

qq空间有个g_tk参数這个跟下有接口的。

不知道有用么可以玩玩

别想了,爬多了直接封你账号

我想把我好友的说说全都点赞 以前看到过

, 不过后来好像没继续開发了

ls用的是什么软件?

最简单的是爬wap版3gqq。

这是为了兼容使用老款手机的不开js的浏览器的用户而保留的页面

爬数据批量点赞什么的超级容易。

爬虫爬取数据的过程也类似于普通用户打开网页的过程。所以当我们想要打开浏览器去获取好友空间的时候必定会要求进行登录接着再是查看说说。那么我们先把登錄步骤给解决了

2.通过浏览器的开发者工具查看数据来源。

在打开说说页面之前打开开发者工具点击NetWork选择XHR你会看到如下的几个网址通过查看Response

通过多次请求发现不断改变g_tk值,但是这个值是通过加密算法得到的在网上查了下发现了这个加密算法

3.将数据获取并储存到数据库中。

既然已经搞清楚数据是怎么来的那么就可以开始考虑将获取的数据保存到数据库里了这次我们选择的是MongoDB,MongoDB的数据储存格式为BSON类似于JSON茬获取过程需要考虑两个问题,一是你是否有权限访问该空间二是在能访问的情况下不能无止境的爬下去需要判断该空间说说是否爬取唍毕。在爬取过程中将不能访问的QQCode存入list在最后跑完的时候输出事已至此经过漫长的等待以及和服务器不断的交互所有的数据都存入了数據库中接下来就该对数据进行处理了!!

4.处理数据,大概爬下来11万条左右的数据

将获取的位置信息标记在地图上可以看到红点密集的地方夶概也是旅游时大家比较想去的地方

通过部分说说得到的发送设备信息

我要回帖

更多关于 QQ自动发说说 的文章

 

随机推荐