主頁(yè) > 知識(shí)庫(kù) > python 爬取嗶哩嗶哩up主信息和投稿視頻

python 爬取嗶哩嗶哩up主信息和投稿視頻

熱門(mén)標(biāo)簽:商家地圖標(biāo)注海報(bào) 打電話(huà)機(jī)器人營(yíng)銷(xiāo) 孝感營(yíng)銷(xiāo)電話(huà)機(jī)器人效果怎么樣 騰訊地圖標(biāo)注沒(méi)法顯示 地圖標(biāo)注自己和別人標(biāo)注區(qū)別 聊城語(yǔ)音外呼系統(tǒng) 南陽(yáng)打電話(huà)機(jī)器人 ai電銷(xiāo)機(jī)器人的優(yōu)勢(shì) 海外網(wǎng)吧地圖標(biāo)注注冊(cè)

項(xiàng)目地址:

https://github.com/cgDeepLearn/BilibiliCrawler

 項(xiàng)目特點(diǎn)

  1. 采取了一定的反反爬策略。
  2. Bilibili更改了用戶(hù)頁(yè)面的api, 用戶(hù)抓取解析程序需要重構(gòu)。

快速開(kāi)始

  1. 拉取項(xiàng)目, git clone https://github.com/cgDeepLearn/BilibiliCrawler.git
  2. 進(jìn)入項(xiàng)目主目錄,安裝虛擬環(huán)境crawlenv(請(qǐng)參考使用說(shuō)明里的虛擬環(huán)境安裝)。
  3. 激活環(huán)境并在主目錄運(yùn)行crawl,爬取結(jié)果將保存在data目錄csv文件中。
ource activate crawlenv
python initial.py file  # 初始化file模式
python crawl_user.py file 1 100  # file模式,1 100是開(kāi)始、結(jié)束bilibili的uid

進(jìn)入data目錄查看抓取的數(shù)據(jù),是不是很簡(jiǎn)單!

如果需要使用數(shù)據(jù)庫(kù)保存和一些其他的設(shè)置,請(qǐng)看下面的使用說(shuō)明

使用說(shuō)明

1.拉取項(xiàng)目

git clone https://github.com/cgDeepLearn/BilibiliCrawler.git

2.進(jìn)入項(xiàng)目主目錄, 安裝虛擬環(huán)境

  • 若已安裝anaconda
conda create -n crawlenv python=3.6
source activate crawlenv  # 激活虛擬環(huán)境
pip install -r requirements.txt
  • 若使用virtualenv
virtualenv crawlenv
source crawlenv/bin/activate  # 激活虛擬環(huán)境,windows下不用source
pip install -r requirements.txt  # 安裝項(xiàng)目依賴(lài)

3. 修改配置文件

進(jìn)入config目錄,修改config.ini配置文件(默認(rèn)使用的是postgresql數(shù)據(jù)庫(kù),如果你是使用的是postgresql,只需要將其中的參數(shù)替換成你的,下面其他的步驟可以忽略) 數(shù)據(jù)庫(kù)配置選擇其中一個(gè)你本地安裝的即可,將參數(shù)更換成你的 如果你需要更自動(dòng)化的數(shù)據(jù)庫(kù)配置,請(qǐng)移步我的DB_ORM項(xiàng)目

[db_mysql]
user = test
password = test
host = localhost
port = 3306
dbname = testdb

[db_postgresql]
user = test
password = test
host = localhost
port = 5432
dbname = testdb

然后修改conf.py中獲取配置文件的函數(shù)

def get_db_args():
    """
    獲取數(shù)據(jù)庫(kù)配置信息
    """
    return dict(CONFIG.items('db_postgresql'))  # 如果安裝的是mysql,請(qǐng)將參數(shù)替換為db_mysql

進(jìn)入db目錄,修改basic.py的連接數(shù)據(jù)庫(kù)的DSN

# connect_str = "postgresql+psycopg2://{}:{}@{}:{}/{}".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
# 若使用的是mysql,請(qǐng)將上面的connect_str替換成下面的
connect_str = "mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
# sqlite3,mongo等請(qǐng)移步我的DB_ORM項(xiàng)目,其他一些數(shù)據(jù)庫(kù)也將添加支持

4. 運(yùn)行爬蟲(chóng)

  • 在主目錄激活虛擬環(huán)境, 初次運(yùn)行請(qǐng)執(zhí)行
python initial.py db # db模式,file模式請(qǐng)將db換成file
# file模式會(huì)將抓取結(jié)果保存在data目錄
# db模式會(huì)將數(shù)據(jù)保存在設(shè)置好的數(shù)據(jù)庫(kù)中
# 若再次以db模式運(yùn)行將會(huì)drop所有表后再create,初次運(yùn)行后請(qǐng)慎重再次使用!!!
# 如果修改添加了表,并不想清空數(shù)據(jù),請(qǐng)運(yùn)行 python create_all.py
  • 開(kāi)始抓取示例
python crawl_user.py db 1 10000 # crawl_user 抓取用戶(hù)數(shù)據(jù),db 保存在數(shù)據(jù)庫(kù)中, 1 10000為抓取起止id
python crawl_video_ajax.py db 1 100 # crawl_video_ajax 抓取視頻ajax信息保存到數(shù)據(jù)庫(kù)中,
python crawl_user_video.py db 1 10000 #同時(shí)抓取user 和videoinfo
# 示例為uid從1到100的user如果有投稿視頻則抓取其投稿視頻的信息,
# 若想通過(guò)視頻id逐個(gè)抓取請(qǐng)運(yùn)行python crawl_video_by_aid.py db 1 1000
  • 爬取速率控制

程序內(nèi)已進(jìn)行了一些抓取速率的設(shè)置,但各機(jī)器cpu、mem不同抓取速率也不同,請(qǐng)酌情修改
太快太慢請(qǐng)修改各crawl中的sleepsec參數(shù),ip會(huì)被限制訪(fǎng)問(wèn)頻率,overspeed會(huì)導(dǎo)致爬取數(shù)據(jù)不全,
之后會(huì)添加運(yùn)行參數(shù)speed(high, low),不用再手動(dòng)配置速率

  • 日志

爬取日志在logs目錄
user, video分別為用戶(hù)和視頻的爬取日志
storage為數(shù)據(jù)庫(kù)日志 如需更換log格式,請(qǐng)修改logger模塊

  • 后臺(tái)運(yùn)行

linux下運(yùn)行python ......前面加上nohup,例如:

nohup python crawl_user db 1 10000

程序輸出保存文件,默認(rèn)會(huì)包存在主目錄額nohup.out文件中,添加 > fielname就會(huì)保存在設(shè)置的文件中:

nohup python crawl_video_ajax.py db 1 1000 > video_ajaxup_1_1000.out  # 輸出將保存在video_ajaxup_1_1000.out中
  • 更多

程序多線(xiàn)程使用的生產(chǎn)者消費(fèi)者模式中產(chǎn)生了程序運(yùn)行的狀況的打印信息,類(lèi)似如下

produce 1_1
consumed 1_1
...

如想運(yùn)行更快,請(qǐng)?jiān)诔绦蚋黜?xiàng)設(shè)置好后注釋掉其中的打印程序

# utils/pcModels.py
print('[+] produce %s_%s' % (index, pitem))  # 請(qǐng)注釋掉

print('[-] consumed %s_%s\n' % (index, data))  # 請(qǐng)注釋掉

更多

項(xiàng)目是單機(jī)多線(xiàn)程,若想使用分布式爬取,請(qǐng)參考Crawler-Celery

以上就是python 爬取嗶哩嗶哩up主信息和投稿視頻的詳細(xì)內(nèi)容,更多關(guān)于python 爬取嗶哩嗶哩的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • python b站視頻下載的五種版本
  • 基于python對(duì)B站收藏夾按照視頻發(fā)布時(shí)間進(jìn)行排序的問(wèn)題
  • 教你如何使用Python下載B站視頻的詳細(xì)教程
  • 利用python+ffmpeg合并B站視頻及格式轉(zhuǎn)換的實(shí)例代碼
  • ffmpeg+Python實(shí)現(xiàn)B站MP4格式音頻與視頻的合并示例代碼
  • python 爬取B站原視頻的實(shí)例代碼
  • Python如何爬取b站熱門(mén)視頻并導(dǎo)入Excel
  • Python如何實(shí)現(xiàn)爬取B站視頻
  • python3寫(xiě)爬取B站視頻彈幕功能

標(biāo)簽:迪慶 撫州 牡丹江 楊凌 南寧 聊城 揚(yáng)州 六盤(pán)水

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python 爬取嗶哩嗶哩up主信息和投稿視頻》,本文關(guān)鍵詞  python,爬取,嗶哩,主,信息,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python 爬取嗶哩嗶哩up主信息和投稿視頻》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于python 爬取嗶哩嗶哩up主信息和投稿視頻的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章