愛(ài)站日志分析工具是一款由愛(ài)站打造的日志分析軟件,能幫助站長(zhǎng)進(jìn)行日志分析工作,即時(shí)監(jiān)控蜘蛛訪問(wèn)狀況,發(fā)現(xiàn)問(wèn)題,及時(shí)處理。各種專業(yè)數(shù)據(jù)分析,全方面的對(duì)你的網(wǎng)站進(jìn)行管理,需要的話就來(lái)下載!
愛(ài)站網(wǎng)站日志分析工具功能
支持所有格式日志,涵蓋所有搜索引擎蜘蛛.批量分析用戶與蜘蛛狀態(tài)碼,蜘蛛抓取頁(yè)面/目錄/ip排行榜
愛(ài)站網(wǎng)站日志分析工具使用方法
1、此工具可以自動(dòng)識(shí)別IIS、Apache、Nginx日志格式,支持直接拖拽日志一個(gè)或多個(gè)文件(夾)至窗口進(jìn)行分析,每一項(xiàng)數(shù)據(jù)都分別以“數(shù)據(jù)顯示”和“圖形顯示”兩種不同方式向用戶展示數(shù)據(jù)結(jié)果。
2、蜘蛛分析之(概要分析)即所有不同的蜘蛛的訪問(wèn)次數(shù)、停留時(shí)間、總抓取量的數(shù)據(jù)分析,(還可以單選不同蜘蛛)進(jìn)行查詢。
蜘蛛分析之(概要分析)圖表顯示,(還可以單選不同蜘蛛)進(jìn)行查詢顯示。
3、蜘蛛分析之(目錄抓。┘凑军c(diǎn)目錄被抓取的數(shù)據(jù)量分析。
可以針對(duì)對(duì)某個(gè)目錄或蜘蛛進(jìn)行單獨(dú)查詢分析,且可切換至圖表顯示,顯示抓取量餅圖,輕松了解蜘蛛抓取目錄概況。
4、蜘蛛分析之(頁(yè)面抓。
所有頁(yè)面蜘蛛抓取量分析,還可以針對(duì)某個(gè)頁(yè)面或某個(gè)蜘蛛進(jìn)行單獨(dú)查詢分析。切換至圖標(biāo)顯示,可以顯示頁(yè)面抓取量餅圖,快速了解抓取量最多的頁(yè)面,輕松分析頁(yè)面抓取情況。
5、蜘蛛分析之(IP排行)
分析所有蜘蛛IP地址的訪問(wèn)次數(shù)、抓取量和停留時(shí)長(zhǎng),并可以針對(duì)某個(gè)ip或蜘蛛進(jìn)行單獨(dú)查詢分析。
6、搜索引擎分析之(關(guān)鍵詞分析)可分析出各搜索引擎來(lái)路的關(guān)鍵詞。
7、 狀態(tài)碼分析分為用戶狀態(tài)碼和蜘蛛狀態(tài)碼。通過(guò)查看網(wǎng)站正常狀態(tài)碼和問(wèn)題狀態(tài)碼,第一時(shí)間發(fā)現(xiàn)網(wǎng)站的問(wèn)題頁(yè)面,及時(shí)修改,改善用戶體驗(yàn)和蜘蛛體驗(yàn)。
8、按時(shí)間統(tǒng)計(jì),工具自動(dòng)保存不同日期的日志文件數(shù)據(jù),每一項(xiàng)統(tǒng)計(jì)功能都可以按照時(shí)間來(lái)分析,可有效查看時(shí)間段內(nèi)的數(shù)據(jù)變化趨勢(shì)。(還可以單選不同蜘蛛)進(jìn)行查詢顯示。
網(wǎng)站日志分析有什么用
1、重要的頻道(大量流量著陸頁(yè)面,高轉(zhuǎn)化率,用戶直接交易頁(yè)面等)有更多的爬蟲(chóng)來(lái)抓取;
2、在爬蟲(chóng)一定的抓取時(shí)間內(nèi),盡量少花精力放在一些無(wú)用的噪音頁(yè)面上(重復(fù)頁(yè)面,低質(zhì)量頁(yè)面,空內(nèi)容頁(yè)面,404頁(yè)面,不排名頁(yè)面,低轉(zhuǎn)化頁(yè)面等);
3、爬蟲(chóng)在抓取頁(yè)面的時(shí)候,盡量增加抓取的有效性,而不是重復(fù)抓取幾篇相同的頁(yè)面;
4、爬蟲(chóng)不會(huì)被繁雜的URL參數(shù)所擾,不會(huì)進(jìn)入無(wú)休止的爬蟲(chóng)陷阱中;
5、每個(gè)頁(yè)面的下載時(shí)間足夠的快,這樣,可以讓爬蟲(chóng)在時(shí)間一定的基礎(chǔ)上能夠更多的抓取頁(yè)面;
6、爬蟲(chóng)都能夠完整的抓到我們想讓他抓的頁(yè)面,不要抓到我們的隱私頁(yè)面;
7、日志中不要有太多的404,不要有無(wú)理由的跳轉(zhuǎn),不要有很多的500(服務(wù)器錯(cuò)誤),這樣的情況出現(xiàn);
8、那些更新頻繁但是價(jià)值很低的頁(yè)面不要吸引太多的爬蟲(chóng)精力;
9、我們所有的產(chǎn)品,所有的品類,所有一切有用的東西都要被爬蟲(chóng)完整爬到并且快速遍歷;
10、能用碰到真正的爬蟲(chóng),而不是一些模擬爬蟲(chóng)的機(jī)器人;
11、爬蟲(chóng)能夠完整的下載到我們的robots.txt;
12、爬蟲(chóng)可以根據(jù)我們?nèi)肟诘恼{(diào)整,robots.txt的限制引導(dǎo),JS的設(shè)計(jì)等按照我們的要求進(jìn)行爬取;
13、爬蟲(chóng)越多越好。。。對(duì)我們的興趣越大越好,當(dāng)然,一切是在我們自身信任度和重要度增加的基礎(chǔ)上。