-
Notifications
You must be signed in to change notification settings - Fork 11
Expand file tree
/
Copy pathParser.py
More file actions
264 lines (227 loc) · 12.8 KB
/
Parser.py
File metadata and controls
264 lines (227 loc) · 12.8 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
#!/usr/bin/python
# -*- coding: utf-8 -*-
import urllib.request
from bs4 import BeautifulSoup
from datetime import datetime, timedelta
import matplotlib.pyplot as plt
from collections import Counter
from pandas import DataFrame
import numpy as np
import csv
# фунцкция-парсер даты с Хабра
months = ['января', 'февраля', 'марта', 'апреля', 'мая', 'июня',
'июля', 'августа', 'сентября', 'октября', 'ноября', 'декабря']
def StrToDate(strdate):
parts = list(filter(None, strdate.split(' ')))
for i in range(0, len(parts), 1):
if parts[0] == 'сегодня':
publishdate = datetime.today().date()
elif parts[0] == 'вчера':
publishdate = (datetime.now() - timedelta(days=1)).date()
else:
datestring = parts[0] + '-' + str(months.index(parts[1]) + 1)
if parts[2] == 'в':
datestring = datestring + '-' + str(datetime.today().year)
else:
datestring = datestring + '-' + parts[2]
publishdate = datetime.strptime(datestring, '%d-%m-%Y').date()
return publishdate
# функция, преобразующая текстовое представление числа (1,4k) в число
def ViewsToNumber(strvcount):
coeff = 1
coeff2 = 1
if strvcount[len(strvcount)-1] == 'k':
coeff = 1000
coeff2 = 100
strvcount = strvcount[0:len(strvcount)-1]
elif strvcount[len(strvcount)-1] == 'm':
coeff = 1000000
coeff2 = 1000
strvcount = strvcount[0:len(strvcount)-1]
parts = strvcount.split(',')
try:
count = int(parts[0])*coeff
if len(parts) > 1:
count = count + int(parts[1]) * coeff2
except:
count = 0
return count
# вот так мы бы могли искато на хабре все статьи про python
# https://habrahabr.ru/search/?target_type=posts&q=python&order_by=date
# values = {'q' : 'python',
# 'target_type' : 'posts',
# 'order_by' : 'date' }
# url_withparams = urllib.parse.urlencode(values)
# url_full = "https://habrahabr.ru/search/?" + url_withparams
# но вместо этого мы сразу пойдем на хаб Хабра про Python
url_full = "https://habrahabr.ru/hub/python/all"
try:
response = urllib.request.urlopen(url_full)
except urllib.error.URLError as e:
print('Ошибка при открытии страницы: ', e.reason)
html = response.read() # читаем веб-страницу
soup = BeautifulSoup(html) # инициализируем умный парсер
# вот так можно проверить, по какой на самом деле ссылке мы открыли страницу -
# бывают сайты с перенаправлением
url_real = response.geturl()
# учитываем, что результаты поиска выводятся постранично, поэтому сначала нужно выяснить номер последней страницы
html_lastpage = soup.find('ul', attrs={'id': 'nav-pagess'}).find('a', attrs={'title': 'Последняя страница'}).get('href')
start = html_lastpage.find('page') + len('page')
end = len(html_lastpage)
lastpage = int(html_lastpage[start:end-1])
# берем все статьи с лейблом tutorial (Обучающий материал)
# и для них сразу получаем максимум информации, которая сейчас доступна: дата публикации, название, ссылка, хабы и пр.
page = 0
tutorials = []
# объект, в который собираем информацию о статье, назовем tutorial и он будет выглядеть вот так:
# tutorial: { date, title, url, {hubs}, views, favoritecount, commentscount, author, {tags} }
# while page < lastpage:
while page < 5:
page = page + 1
url = 'https://habrahabr.ru/hub/python/page' + str(page) + '/'
matches = BeautifulSoup(urllib.request.urlopen(url).read()).find_all('span', attrs={'class': 'post__type-label',
'title': 'Обучающий материал'})
for match in matches:
# запись с информацией про статью
tutorial = []
# ищем весь блок html про статью
article = match.find_parent('article', attrs={'class': 'post post_preview'})
# дата публикации статьи. преобразуется в объект Date нашей функцией StrToDate()
datestr = article.find('span', attrs={'class': 'post__time'}).text.replace('\n', '')
tutorial.append(StrToDate(datestr))
# ссылка на страницу статьи
articletitle = article.find('a', attrs={'class': 'post__title_link'}).text
tutorial.append(articletitle)
articleurl = article.find('a', attrs={'class': 'post__title_link'}).get('href')
tutorial.append(articleurl)
# хабы, к которым относится статья
hubsnames = article.find_all('a', attrs={'class': 'hub-link'})
hubs = list(z.text for z in hubsnames)
tutorial.append(hubs)
# а можно было написать так:
# hubs = []
# for name in names:
# hubs.append(name.text)
# количество просмотров. выглядит как 1,4k, поэтому преобразуем в число нашей функцией ViewsToNumber()
views = article.find('span', attrs={'class': 'post-stats__views-count'}).text
tutorial.append(ViewsToNumber(views))
# количество добавлений статьи в избранное. может не быть значения, поэтому ловим ошибку
try:
tutorial.append(int(article.find('span', attrs={'class': 'bookmark__counter js-favs_count'}).text))
except:
tutorial.append(int(0))
# количество комментариев к статье. может не быть значения, поэтому ловим ошибку
try:
tutorial.append(int(article.find('a', attrs={'class': 'post-stats__comments-link'}).text))
except:
tutorial.append(int(0))
# автор статьи. убираем лишние переводы строк и пробелы
author = article.find('a', attrs={'class': 'post__user-info user-info'}).text.replace('\n', '')
author = author.replace(' ', '')
tutorial.append(author)
# необходимо сходить по ссылке на страницу каждой статьи и забрать теги (они не выводятся в результатах поиска)
try:
tagsarr = BeautifulSoup(urllib.request.urlopen(articleurl).read()).find_all('a', attrs={'rel': 'tag'})
tags = list(z.text for z in tagsarr)
except:
tags = []
pass
tutorial.append(tags)
# сохраняем очередную запись о статье в массив статей
tutorials.append(tutorial)
print(tutorial)
# записываем список статей в CSV-файл, чтобы каждый раз его не качать заново
# для того, чтобы файл корректно открывался в Excel как таблица,
# необходимо поменять разделители на ; и задать кодировку Windows 1251 (Excel не понимает utf-8)
csv.register_dialect('customcsv', delimiter=';', quoting=csv.QUOTE_NONE, quotechar='', escapechar='\\')
with open("output.csv", "w", encoding='cp1251', newline='') as f:
writer = csv.writer(f, 'customcsv')
writer.writerows(tutorials)
# загружаем всю информацию о 222 статьях из CSV-файла
tutorials = []
with open('все туториалы по питону с 2009 года.csv', encoding='cp1251') as csvfile:
readCSV = csv.reader(csvfile, 'customcsv')
for row in readCSV:
# tutorial: { date, title, url, {hubs}, views, favoritecount, commentscount, author, {tags} }
tutorial = []
tutorial.append(datetime.strptime(row[0], '%Y-%m-%d').date())
tutorial.append(row[1])
tutorial.append(row[2])
hubs = list(str(row[3]).replace('[', '').replace(']', '').replace('\'', '').split(','))
tutorial.append(hubs)
tutorial.append(row[4])
tutorial.append(row[5])
tutorial.append(row[6])
tutorial.append(row[7])
tags = list(str(row[8]).replace('[', '').replace(']', '').replace('\'', '').split(','))
tutorial.append(tags)
tutorials.append(tutorial)
# считаем статистику: распределение обучающих материалов по годам, топ-20 статей по: добавлению в избранное,
# самые обсуждаемые (по количеству комментариев), самый пишущий автор
dates = []
mostfavored = []
mostcommented = []
authors = []
for tutorial in tutorials:
dates.append(tutorial[0].year) # распределение по годам
mostfavored.append([tutorial[1], tutorial[5]])
mostcommented.append([tutorial[1], tutorial[6]])
authors.append(tutorial[7])
# пример двух вариантов сортировки: либо объявляем и передаем функцию, либо используем lambda-выражение
def customsort(i):
return i[1]
dictstats = Counter(dates).items() # вот так можно подсчитать количество одинаковых элементов
stats = list(z for z in dictstats)
stats.sort()
mostfavored.sort(key=lambda i: i[1], reverse=True)
mostcommented.sort(key=customsort, reverse=True)
# специальная функция для подсчета одинаковых элементов. возвращает список из N элементов,
# отсортированный по убыванию. ср. с Counter(dates).items() - просто подсчитывает, не сортируя
statsauthors = Counter(authors).most_common(20)
# строим визуализацию по распределению статей по годам
plt.rc('font', family='Arial') # задаем шрифт явно, иначе кириллица не отображается
figure = plt.figure(1)
plt.title('Распределение статей по годам')
x = list(int(z[0]) for z in stats)
y = list(z[1] for z in stats)
plt.xkcd()
plt.plot(x, y)
plt.interactive(False)
plt.xticks(x, x)
plt.show(block=True)
# строим визуализацию по самым пишущим авторам
figure = plt.figure(2)
plt.title('Самые пишущие авторы')
x = list(z[0] for z in statsauthors)
y = list(z[1] for z in statsauthors)
grad = DataFrame({'publications': y, 'author': x})
pos = np.arange(len(y))
plt.title('Топ-20 самых пишущих авторов')
plt.barh(pos, y)
# записываем количество статей справа от полосы
for p, c, ch in zip(pos, x, y):
plt.annotate(str(ch), xy=(ch + 1, p + .5), va='center')
# настраиваем область диаграммы
ticks = plt.yticks(pos + .5, x)
xt = plt.xticks()[0]
plt.xticks(xt, [' '] * len(xt))
plt.grid(axis='x', color='white', linestyle='-')
plt.ylim(pos.max(), pos.min() - 1)
plt.xlim(0, 30)
plt.show(block=True)
# выводим топ-20 статей по добавлению в избранное
print('\n***Топ-20 статей по добавлению в избранное***')
for i, fav in enumerate(mostfavored[:20]):
print("{0}. {1} ({2})".format(i+1, fav[0], fav[1]))
# выводим топ-20 статей по добавлению в избранное
print('\n***Топ-20 комментируемых статей***')
for i, comm in enumerate(mostcommented[:20]):
print("{0}. {1} ({2})".format(i+1, comm[0], comm[1]))
# насколько совпадают самые добавляемые и самые комментируемые?
favs = set([x[0] for x in mostfavored[:20]])
comms = set([x[0] for x in mostcommented[:20]])
result = set(favs) & set(comms)
print('\n***Самые популярные статьи***')
for i, res in enumerate(result):
print("{0}. {1}".format(i+1, res))
print("Мы сделали это!")