數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是…

尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️

加入LINE好友

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第1張

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第2張

作者 |量化小白H

本文經授權轉自量化小白上分記

7月番《工作細胞》最終話在十一前放出。這部動漫在b站上評分高達9.7。除了口碑之外,熱度也居高不下,更值得關注的是連很多平時不關注動漫的小夥伴也加入了追番大軍。這次我們的目標是爬取b站上的所有短評進行分析,用數據說明為什麼這部動漫會如此受歡迎。

01

工作細胞

《工作細胞》改編自清水茜老師的同名漫畫,由David Production製作。眾所周知,日本ACG作品向來信奉著「萬物皆可萌」的原則。前有《黑塔利亞》,後有《艦隊Collection》和《獸娘動物園》,分別講述了將國家,戰艦和動物擬人化後的故事。而在《工作細胞》里擬人的對象則輪到了我們的細胞

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第3張

這是一個發生在人體內的故事:

人的細胞數量,約為37兆2千億個。其中包括了我們的女主角:一個副業是運輸氧氣,主業是迷路的紅血球。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第4張

男主角:一個作者懶得塗色但武力值max的白血球。兩人一見面就並肩戰鬥,分別的時候更是滿天粉紅氣泡。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第5張

雖然嘴上說著:不會,我只是千千萬萬個白細胞中的一員。身體卻很誠實,從第一集偶遇女主到最後一集,每一集都充滿了狗糧的味道。37兆分之一的緣分果然妙不可言。

除了男女主角,配角們的人氣也都很高。連反派boss癌細胞都有人喜歡,主要還是因為身世感人+臉長得好。當然人氣最!最!最!高的還是我們奶聲奶氣的血小板。

據宅男們反映:「看了這麼多番。只有這一部的老婆是大家真正擁有的。」不僅有,還有很多。除了新穎的科普形式,這部番令人感觸最深的是:我們每一個人都不是孤獨的個體,有37兆個只屬於我們的細胞和我們一同工作不息。每當頹唐和失意的時候,為了那些為了保護你而戰鬥不止的免疫細胞,為了萌萌的老婆們也要振作起來啊。

《工作細胞》的成功並不是一個偶然,而是眾多因素共同作用的結果。下面從數據的角度分析它成為今年7月播放冠軍的原因。

02

爬蟲

首先要做的是爬取b站的所有短評,包括評論用戶名、評論時間、星級(評分)、評論內容、點讚數等內容,本部分內容為爬蟲代碼的說明,不感興趣的讀者可以直接跳過,閱讀下一部分的分析。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第6張

爬的過程寫了很久,b站短評不需要登陸直接就可以爬,剛開始用類似之前爬豆瓣的方法,用Selenium+xpath定位爬。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第7張

但b站短評用這種方法並不好處理。網站每次最多顯示20條短評,滾動條移動到最下面才會加載之後的20條,所以剛開始用了每次爬完之後將定位到當前爬的位置的方法,這樣定位到當前加載的最後一條時,就會加載之後的20條短評。

邏輯上是解決了這個問題,但真的爬的時候就出現了問題,一個是爬的慢,20條需要十來秒的樣子,這個沒關係,大不了爬幾個小時,但問題是辛辛苦苦爬了兩千多條之後,就自動斷了,不知道是什麼原因,雖然之前爬的數據都存下來了,但沒法接著斷開的地方接著爬,又要重新開始,還不知道會不會又突然斷,所以用這種方法基本就無解了。代碼附在下面,雖然是失敗的,但也可以爬一些評論下來,供參考。

 1#-*-coding:utf-8-*- 2""" 3CreatedonMonSep1019:36:242018 4""" 5fromseleniumimportwebdriver 6importpandasaspd 7fromdatetimeimportdatetime 8importnumpyasnp 9importtime10importos1112os.chdir('F:\\python_study\\pachong\\工作細胞')13defgethtml(url):1415browser=webdriver.PhantomJS()16browser.get(url)17browser.implicitly_wait(10)18return(browser)1920defgetComment(url):2122browser=gethtml(url)23i=124AllArticle=pd.DataFrame(columns=['id','author','comment','stars1','stars2','stars3','stars4','stars5','unlike','like'])25print('連接成功,開始爬取數據')26whileTrue:2728xpath1='//*[@id="app"]/div[2]/div[2]/div/div[1]/div/div/div[4]/div/div/ul/li[{}]'.format(i)29try:30target=browser.find_element_by_xpath(xpath1)31except:32print('全部爬完')33break3435author=target.find_element_by_xpath('div[1]/div[2]').text36comment=target.find_element_by_xpath('div[2]/div').text37stars1=target.find_element_by_xpath('div[1]/div[3]/span/i[1]').get_attribute('class')38stars2=target.find_element_by_xpath('div[1]/div[3]/span/i[2]').get_attribute('class')39stars3=target.find_element_by_xpath('div[1]/div[3]/span/i[3]').get_attribute('class')40stars4=target.find_element_by_xpath('div[1]/div[3]/span/i[4]').get_attribute('class')41stars5=target.find_element_by_xpath('div[1]/div[3]/span/i[5]').get_attribute('class')42date=target.find_element_by_xpath('div[1]/div[4]').text43like=target.find_element_by_xpath('div[3]/div[1]').text44unlike=target.find_element_by_xpath('div[3]/div[2]').text454647comments=pd.DataFrame([i,author,comment,stars1,stars2,stars3,stars4,stars5,like,unlike]).T48comments.columns=['id','author','comment','stars1','stars2','stars3','stars4','stars5','unlike','like']49AllArticle=pd.concat([AllArticle,comments],axis=0)50browser.execute_script("arguments[0].scrollIntoView();",target)51i=i+152ifi%100==0:53print('已爬取{}條'.format(i))54AllArticle=AllArticle.reset_index(drop=True)55returnAllArticle5657url='https://www.bilibili.com/bangumi/media/md102392/?from=search&seid=8935536260089373525#short'58result=getComment(url)59#result.to_csv('工作細胞爬蟲.csv',index=False)

這種方法爬取失敗之後,一直不知道該怎麼處理,剛好最近看到網上有大神爬貓眼評論的文章,照葫蘆畫瓢嘗試了一下,居然成功了,而且爬的速度也很快,十來分鐘就全爬完了,思路是找到評論對應的Json文件,然後獲取Json中的數據,過程如下。

在Google瀏覽器中按F12打開卡發者工具後,選擇Network

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第8張

往下滑動,會發現過一段時間,會出現一個fetch,右鍵打開後發現,里面就是20條記錄,有所有我們需要的內容,json格式。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第9張

所以現在需要做的就是去找這些json文件的路徑的規律。多看幾條之後,就發現了規律:

第一個json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0

第二個json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0&cursor=76553500953424

第三個json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0&cursor=76549205971454

顯然所有的json路徑的前半部分都是一樣,都是在第一條json之後加上不同的cursor = xxxxx,所以只要能找到cursor值的規律,就可以用循環的辦法,爬完所有的json,這個值看上去沒什麼規律,最後發現,每一個json路徑中cursor值就藏在前一個json的最後一條評論中

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第10張

在python中可以直接把json轉成字典,cursor值就是最後一條評論中鍵cursor的值,簡直不要太容易。

所以爬的思路就很清晰了,從一個json開始,爬完20條評論後,獲取最後一個評論中的cursor值,更改路徑之後獲取第二個json,重復上面的過程,直到爬完所有的json。

至於如何知道爬完了所有json,也很容易,每個json中一個total鍵,表示了當前一共有多少條評論,所以只需要寫一個while循環,當爬到的評論數達到total值時停止。

爬的過程中還發現,有些json中的評論數不夠20條,如果每次用20去定位,中間會報錯停止,需要注意一下。所以又加了一行代碼,每次獲得json後,通過len()函數得到當前json中一共包含多少條評論,cursor在最後一個評論中。

以上是整個爬的思路,我們最終爬到以下信息。

1

作者

author

2

評分/星級

score

3

不喜歡

disliked

4

點讚

likes

5

這個全0,沒用

liked

6

時間

ctime

7

評論

content

8

cursor

cursor

9

狀態

last_ep_index

需要說明的地方,一個是liked按照字面意思應該是用戶的點讚數,但爬完才發現全是0,沒有用。另一個是關於時間,里面有ctimemtime兩個跟時間有關的值,看了幾個,基本都是一樣的,有個別不太一樣,差的不多,就只取了ctime,我猜可能一個是點擊進去的時間,一個是評論提交時間,但沒法驗證,就隨便取一個算了,ctime的編碼很奇怪,比如某一個是ctime = 1540001677,渣渣之前沒有見過這種編碼方式,請教了大佬之後知道,這個是Linux系統上的時間表示方式,是1970年1月1日0時0分0秒到當時時點的秒數,python中可以直接用time.gmtime()函數轉化成年月日小時分鐘秒的格式。還有last_ep_index里面存的是用戶當前的看劇狀態,比如看至第13話,第6話之類的,但後來發現很不準,絕大多數用戶沒有last_ep_index值,所以也沒有分析這個變量。

代碼如下

 1importrequests 2fromfake_useragentimportUserAgent 3importjson 4importpandasaspd 5importtime 6importdatetime 7headers={"User-Agent":UserAgent(verify_ssl=False).random} 8comment_api='https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0' 910#發送get請求11response_comment=requests.get(comment_api,headers=headers)12json_comment=response_comment.text13json_comment=json.loads(json_comment)1415total=json_comment['result']['total']1617cols=['author','score','disliked','likes','liked','ctime','score','content','last_ep_index','cursor']18dataall=pd.DataFrame(index=range(total),columns=cols)192021j=022whilej<total:23n=len(json_comment['result']['list'])24foriinrange(n):25dataall.loc[j,'author']=json_comment['result']['list'][i]['author']['uname']26dataall.loc[j,'score']=json_comment['result']['list'][i]['user_rating']['score']27dataall.loc[j,'disliked']=json_comment['result']['list'][i]['disliked']28dataall.loc[j,'likes']=json_comment['result']['list'][i]['likes']29dataall.loc[j,'liked']=json_comment['result']['list'][i]['liked']30dataall.loc[j,'ctime']=json_comment['result']['list'][i]['ctime']31dataall.loc[j,'content']=json_comment['result']['list'][i]['content']32dataall.loc[j,'cursor']=json_comment['result']['list'][n-1]['cursor']33j+=134try:35dataall.loc[j,'last_ep_index']=json_comment['result']['list'][i]['user_season']['last_ep_index']36except:37pass3839comment_api1=comment_api+'&cursor='+dataall.loc[j-1,'cursor']40response_comment=requests.get(comment_api1,headers=headers)41json_comment=response_comment.text42json_comment=json.loads(json_comment)4344ifj%50==0:45print('已完成{}%!'.format(round(j/total*100,2)))46time.sleep(0.5)47484950dataall=dataall.fillna(0)5152defgetDate(x):53x=time.gmtime(x)54return(pd.Timestamp(datetime.datetime(x[0],x[1],x[2],x[3],x[4],x[5])))5556dataall['date']=dataall.ctime.apply(lambdax:getDate(x))5758dataall.to_csv('bilibilib_gongzuoxibao.xlsx',index=False)

03

影評分析

最終一共爬到了17398條影評數據。里面的date是用ctime轉過來的,接下來對數據進行一些分析,數據分析通過python3.6完成,代碼後台回復”工作細胞“可得。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第11張

評分分布

評分取值範圍為2、4、6、8、10分,對應1-5顆星。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第12張

可以看出,幾乎所有的用戶都給了這部動漫五星好評,影響力可見一斑。

評分時間分布

將這部動漫從上線至今所有的評分按日進行平均,觀察評分隨時間的變化情況。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第13張

可以看出,評分一直居高不下,尤其起始和結束時都接近滿分,足見這是一部良好開端、圓滿結束的良心作品。

每日評論數

看完評分之後,再看看評論相關的數據,我最感興趣的是,這些評論的時間分布是怎麼樣的,統計了每一日的評論數之後,得到了評論數的分布圖。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第14張

基本上是每出了新的一話,大家看完後就會在短評中分享自己的感受,當然同樣是起始和結束階段的評論數最多,對比同期的百度指數。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第15張

評論日內分布

除了每日的評論數,也想分析一下評論的日內趨勢,用戶都喜歡在每日的什麼時間進行評論?將評論分24個小時求和匯總後,得到了下圖。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第16張

不過這個結果就不是很理想了,橫軸是時間,縱軸是評論數,中午到下午的趨勢上升可以理解,晚上七八點沒有人評論反倒是凌晨三四點評論數最多,這個就很反常了,可能是評論在系統中上線的時間有一定偏差?

好評字數

此外還想分析一下,是否點讚數多的,一定是寫的字數越多的?因為文章中大部分的評論是沒有點讚的,所以這里中統計了有點讚(likes>0)的評論點讚數和評論字數的數據。由於有一條評論字點讚數太多,嚴重偏離整體趨勢,所以做了對數圖進行觀察。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第17張

整體來看,似乎沒什麼關係,大量字數1-100不等的,點讚數都為1,點讚數大於5的部分有一定的正相關性,說明評論不僅要看數量,還要看質量,寫出了大家的心聲,大家才會使勁點讚。

評論分析TF-IDF

分析完基礎數據後,想更深入挖掘一下評論信息,大家都說了些什麼?為什麼這部劇這麼受歡迎?也許都能在評論中找到答案。

jieba分詞、去除停止詞、計算詞頻和TF-IDF的過程不表,與之前兩篇文章類似。我們提取了重要性前500的詞,這里展示部分。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第18張

血小板高居首位,畢竟大家對萌萌噠事物都是沒什麼抵抗力的。

詞語中也存在一些意義不大的詞,前期處理不太到位。不過從這些詞雲中還是可以看出很多東西,為什麼這部劇如此受歡迎?這里通過分詞可以得到以下三個解釋:

1. 題材好:科普類動漫,老少皆宜

評論中提到了科普、生物、題材等詞,還有各種細胞。區別於一般科普向動漫受眾低幼的問題,這部番的受眾年齡比較廣泛。因為所涉及到的知識並不算過於常識。動漫中,每一話,身體的主人都會生一場病,每次出現新的細胞和病毒出現時,都會對他們的身份有比較詳細和準確的介紹。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第19張

這種形式寓教於樂,同時戰鬥的過程也充分地體現了每種細胞的特性。例如,前期因為戰鬥力弱而被別的細胞瞧不起的嗜酸性粒細胞,在遇到寄生蟲的時候大放異彩。可以說,每一種細胞爆種都爆得都有理有據。

2. 人設好

這部番把幾乎人體所有的細胞擬人化:紅細胞、白細胞、血小板、巨噬細胞等。每一種細胞都有比較獨特的設定,從御姐到蘿莉,從高冷到話癆。十幾個出場的主要人物都各自有立得住的萌點。滿足各種口味的需求。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第20張

3. 製作精良

這一點是毋庸置疑的,好的人設好的題材,如果沒有好的製作,都是白談,評論中也有很多人提到了「聲優」、「配音」等。

當然一部劇能夠火,不僅僅是這麼簡單的原因,這里所說的,只是從數據可以看出的,觀眾的直觀感受。

最後我們以萌萌噠血小板詞雲作為文章的結尾。

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第21張

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第22張

數據分析二次元 | 爬取了《工作細胞》一萬條b站評論,大熱的原因是... 動漫 第23張

更多精彩文章

在過去的一年里,我是如何自學數據科學的

做數據分析,Python和R究竟哪個更強?

數據科學家:在實際工作後我深刻認識到的五點

機器學習太難?一文帶你掌握機器學習的必備基礎知識

9 大實際用例,讓你重新認識區塊鏈

我是如何通過Web爬蟲找工作的

手把手教你用Python分析電影 | 以《蟻人2》為例

Python能用來做什麼?以下是Python的三大主要用途

About 尋夢園
尋夢園是台灣最大的聊天室及交友社群網站。 致力於發展能夠讓會員們彼此互動、盡情分享自我的平台。 擁有數百間不同的聊天室 ,讓您隨時隨地都能找到志同道合的好友!