做毕业设计 抓700个用户信息 每个用户的100个关注人信息也要抓。
自己用PYTHON写了爬虫 但访问微博次数有限 爬一会速度就变得很慢
用没有什么方法 可以加快速度呢
就剩下一周时间抓数据了
所在地,性别,微博昵称,个人描述,标签,注册时间,用户类型(认证用户、微博会员、微博达人等)关注人数和关注人信息,粉丝人数
700个用户的id已有 例:weibo.cn/id/info
举报 使用道具
| 回复

共 1 个关于本帖的回复 最后回复于 2016-4-26 23:36

沙发
Fuller 管理员 发表于 2016-4-26 23:36:20 | 只看该作者
我感觉微博采集工具箱中的博主详细信息工具能满足需求:http://www.gooseeker.com/land/weibo.html 最后一个工具
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 将文本聚类和LDA分析模块安装在数据盘上的
  • GooSeeker分词软件的tf-idf算法和特征词选
  • 边表格式和矩阵格式的共词矩阵表有什么区别
  • GooSeeker分词、情感分析和文本分析平台简
  • 聚类分析和主题分析中的特征选择参数的设置

热门用户

GMT+8, 2026-3-22 09:46