Форум программистов
 

Восстановите пароль или Зарегистрируйтесь на форуме, о проблемах и с заказом рекламы пишите сюда - alarforum@yandex.ru, проверяйте папку спам!

Вернуться   Форум программистов > IT форум > Помощь студентам
Регистрация

Восстановить пароль
Повторная активизация e-mail

Купить рекламу на форуме - 42 тыс руб за месяц

Ответ
 
Опции темы Поиск в этой теме
Старый 26.07.2022, 19:21   #1
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию Парсер сайтов

Добрый вечер! Есть скрипт на Питоне. Парсит forebet, predictz, windrawwin, soccervista, prosoccer, vitibet .
Хочу добавить туда еще сайт http://www.scorepredictor.net/index....ction=football
Код:
 import requests
from bs4 import BeautifulSoup
import pandas as pd
import re
import cloudscraper
# Default dict that will be used to store everything
predicts = {}
# Simple class just to simplify
class Game:
    def __init__(self):
        self.name = ''
        self.predict = ''
# Running every function that we have for scraping the predicts from each website
# To add more websites, you will need to add the function name on the function array
def main():
    functions = [forebet, predictz, windrawwin, soccervista, prosoccer, vitibet, footystats]
    for func in functions:
        func()
def forebet():
    global predicts
    # https://www.forebet.com/en/football-tips-and-predictions-for-today
    
    predicts['forebet'] = []
    url = "https://www.forebet.com/en/football-tips-and-predictions-for-today"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all(class_="rcnt tr_1")
    for game in games:
        name = game.find("meta", {"itemprop":"name"})
        if name is None: 
            continue
        game_class = Game()
        game_class.name = name.attrs['content']
        game_class.predict = game.find('span', {"class": "forepr"}).text
        predicts['forebet'].append({'game': game_class.name, 'predict': game_class.predict})
def predictz():
    global predicts
    # https://www.predictz.com/predictions
    predicts['predictz'] = []
    scraper = cloudscraper.create_scraper()
    page = scraper.get("https://www.predictz.com/predictions")
    soup = BeautifulSoup(page.text, "html.parser")
    games = soup.find_all(class_='ptcnt')
    for game in games:
        if game.find("div", {"class": "ptmobh"}) is None: 
            continue
        home = game.find("div", {"class": "ptmobh"}).text
        away = game.find("div", {"class": "ptmoba"}).text
        if home == '' or away == '':
            continue
        game_class = Game()
        game_class.name = home + " vs " + away
        predict_text = game.find("div", {"class": "ptpredboxsml"}).text
        game_class.predict = '1' if 'Home' in predict_text else '2' if 'Away' in predict_text else 'X'
        predicts['predictz'].append({'game': game_class.name, 'predict': game_class.predict})
def windrawwin():
    global predicts
    # https://www.windrawwin.com/predictions/today
    predicts['windrawwin'] = []
    scraper = cloudscraper.create_scraper()
    page = scraper.get("https://www.windrawwin.com/predictions/today")
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all(class_='wttr')
    for game in games:
        teams = game.find_all("div", {"class": "wtmoblnk"})
        game_class = Game()
        game_class.name = teams[0].text + " vs " + teams[1].text
        predict_text = game.find("div", {"class": "wtprd"}).text # Home 2-0
        game_class.predict = '1' if 'Home' in predict_text else '2' if 'Away' in predict_text else 'X'
        predicts['windrawwin'].append({'game': game_class.name, 'predict': game_class.predict})
def soccervista():
    global predicts
    # https://www.newsoccervista.com/
    predicts['soccervista'] = []
    url = "https://www.newsoccervista.com"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all(class_='twom')
    for game in games:
        home = game.find("div", {"class": "hometeam"}).text
        away = game.find("div", {"class": "awayteam"}).text
        if home == '' or away == '':
            continue
        game_class = Game()
        game_class.name = home + " vs " + away
        game_class.predict = game.find("strong").text
        predicts['soccervista'].append({'game': game_class.name, 'predict': game_class.predict})
def prosoccer():
    global predicts
    # https://www.prosoccer.gr/en/football/predictions/
    predicts['prosoccer'] = []
    url = "https://www.prosoccer.gr/en/football/predictions"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all('tr')
    for game in games:
        try:
            game_name = game.find("td", {"class": "mio"}).text.lower()
        except:
            continue
        if game_name is None: 
            continue
        game_class = Game()
        game_class.name = game_name.split('-')[0][:-1] + ' vs ' + game_name.split('-')[1][1:]
        
        predict = game.find("span", {"class": "sctip"}).text[1:]
        if '-' in predict:
            predict = predict.split('-')[0]
        game_class.predict = predict
        predicts['prosoccer'].append({'game': game_class.name, 'predict': game_class.predict})
def vitibet():
    global predicts
    # https://www.vitibet.com/index.php?clanek=quicktips&sekce=fotbal&lang=en
    predicts['vitibet'] = []
    url = "https://www.vitibet.com/index.php?clanek=quicktips&sekce=fotbal&lang=en"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all('tr', class_=None)
    for game in games:
        try:
            game_name = game.find_all("td", {"class": "standardbunka"})
        except:
            continue
        if game_name is None or game_name == []: 
            continue
        game_class = Game()
        game_class.name = game_name[1].text + ' vs ' + game_name[2].text
        regex = re.compile('barvapodtipek.*')
        game_class.predict = game.find("td", {"class": regex}).text.replace('0', 'X')
        predicts['vitibet'].append({'game': game_class.name, 'predict': game_class.predict})
def footystats():
    global predicts
    # https://footystats.org/predictions/
    predicts['footystats'] = []
    url = "https://footystats.org/predictions/"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})
    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all(class_='betHeaderTitle')
    for game in games:
        predict = game.find("span", {"class": "market"}).text.lower()
        game.find('span', class_="market").decompose()
        game_name = game.text.strip()
        if game_name == 'See More Football Predictions':
            continue
        game_class = Game()
        game_class.name = game_name
        game_class.predict = '1' if 'home win' in predict else '2' if 'away win' in predict else 'X' if 'draw' in predict else predict
        predicts['footystats'].append({'game': game_class.name, 'predict': game_class.predict})
main()
OlegShtompel вне форума Ответить с цитированием
Старый 26.07.2022, 19:23   #2
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию

продолжение кода
Код:
# Storing all the array names to filter the games and the predicts
to_filter = list(predicts.keys())
# Creating an empty array to store all the games from every website
predicts['games'] = ['']
# Group all the games from every website and tried to ignore existing ones
for arr in to_filter:
    for to_add_games in predicts[arr]:
        found = False
        for game in predicts['games']:
            game_teams = to_add_games['game'].split(' vs ')
            home_name = game_teams[0]
            away_name = game_teams[1]
            if home_name.lower() in game.lower() or away_name.lower() in game.lower():
                found = True
        if found == False:
            predicts['games'].append(to_add_games['game'])
# Match the predicts with the games from the websites
for arr in to_filter:
    predicts['predicts_' + arr] = []
    for game in predicts['games']:
        found = False
        for game_to_filter in predicts[arr]:
            game_teams = game_to_filter['game'].split(' vs ')
            home_name = game_teams[0]
            away_name = game_teams[1]
            if home_name.lower() in game.lower() or away_name.lower() in game.lower():
                predicts['predicts_' + arr].append(game_to_filter['predict'])
                found = True
                break
        if found == False:
            predicts['predicts_' + arr].append('')
# Creating the xlsx with the games and the predicts of every website and for each game
df = pd.DataFrame({
    'Games': predicts['games'], 
    'Forebet': predicts['predicts_forebet'], 
    'PredictZ': predicts['predicts_predictz'], 
    'WinDrawWin': predicts['predicts_windrawwin'], 
    'SoccerVista': predicts['predicts_soccervista'],
    'ProSoccer': predicts['predicts_prosoccer'],
    'Vitibet': predicts['predicts_vitibet'],
    'Footystats': predicts['predicts_footystats']
})
writer = pd.ExcelWriter('predicts.xlsx', engine='xlsxwriter')
df.to_excel(writer, sheet_name='Predicts')
# Simple stylings
writer.sheets['Predicts'].set_column('B:B', 50)
writer.sheets['Predicts'].set_column('E:E', 15)
writer.save()
вот сделал но где то ошибка, подскажите пожалуйста ?
Код:
 def scorepredictor():
    global predicts
    predicts['scorepredictor'] = []
    resp = requests.get(r'http://www.scorepredictor.net/index.php?section=football')
    if resp.ok:
        soup = BeautifulSoup(resp.content, 'html.parser')
        if table := soup.find("div", class_="tab_content").find('tbody'):
            for tr in table.find_all('tr'):
                td = tr.find_all('td')
                predicts['scorepredictor'].append({'game': f'{td[1].text} vs {td[7].text}', 'predict': td[9].text})
OlegShtompel вне форума Ответить с цитированием
Старый 27.07.2022, 02:17   #3
BDA
МегаМодератор
СуперМодератор
 
Аватар для BDA
 
Регистрация: 09.11.2010
Сообщений: 7,289
По умолчанию

Код:
def scorepredictor():
    global predicts
    predicts['scorepredictor'] = []
    resp = requests.get(r'http://www.scorepredictor.net/index.php?section=football')
    soup = BeautifulSoup(resp.content, 'html.parser')
    games = soup.find("div", class_="tab_content").find_all("tr")
    for game in games[1:]:
        td = game.find_all("td")
        predicts['scorepredictor'].append({'game': f'{td[0].text.strip()} vs {td[3].text.strip()}', 'predict': 'X'})
Как в таблице указывается predict не понял, поэтому поставил X.
Пишите язык программирования - это форум программистов, а не экстрасенсов. (<= это подпись )
BDA вне форума Ответить с цитированием
Старый 27.07.2022, 19:48   #4
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию

Огромное спасибо, подкорректировал вроде работает, завтра больше матчей проверю
Код:
def scorepredictor():
    global predicts
    predicts['scorepredictor'] = []
    resp = requests.get(r'http://www.scorepredictor.net/index.php?section=football')
    soup = BeautifulSoup(resp.content, 'html.parser')
    games = soup.find("div", class_="tab_content").find_all("tr")
    for game in games[1:]:
        td = game.find_all("td")
        predicts['scorepredictor'].append({'game': f'{td[0].text.strip()} vs {td[3].text.strip()}', 'predict': td[5].text})
OlegShtompel вне форума Ответить с цитированием
Старый 27.07.2022, 19:52   #5
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию

Цитата:
Сообщение от BDA Посмотреть сообщение
Код:
def scorepredictor():
    global predicts
    predicts['scorepredictor'] = []
    resp = requests.get(r'http://www.scorepredictor.net/index.php?section=football')
    soup = BeautifulSoup(resp.content, 'html.parser')
    games = soup.find("div", class_="tab_content").find_all("tr")
    for game in games[1:]:
        td = game.find_all("td")
        predicts['scorepredictor'].append({'game': f'{td[0].text.strip()} vs {td[3].text.strip()}', 'predict': 'X'})
Как в таблице указывается predict не понял, поэтому поставил X.
Подскажите пожалуйста , как понять эти данные, и где их смотреть на сайте ?
Код:
for game in games[1:]:
OlegShtompel вне форума Ответить с цитированием
Старый 28.07.2022, 01:36   #6
BDA
МегаМодератор
СуперМодератор
 
Аватар для BDA
 
Регистрация: 09.11.2010
Сообщений: 7,289
По умолчанию

Не до конца понял ваш вопрос. Можно открыть страницу в браузере и через кнопку "Посмотреть код" прикинуть, какие именно теги и классы искать. Хотя, например, Хром балуется и вставляет tbody тег внутрь table. Можно прямо в коде скрипта добавить print(resp.content) и посмотреть, что именно получает скрипт, чтобы подкорректировать условия поиска. Можно увидеть, что описания матчей хранятся в строках таблицы (tr), но первая строка содержит не матч, поэтому пропускается.
Пишите язык программирования - это форум программистов, а не экстрасенсов. (<= это подпись )
BDA вне форума Ответить с цитированием
Старый 28.07.2022, 20:11   #7
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию

Ну как вариант на примере сайта https://primatips.com
если сайт использует тег span, то можно найти скрипт-код аналогичного сайта использующего этот тег, и уже ровняться на этот макет, или в программировании так не получится ?
вот пример
Код:
def forebet():
    global predicts
    # https://www.forebet.com/en/football-tips-and-predictions-for-today
    
    predicts['forebet'] = []

    url = "https://www.forebet.com/en/football-tips-and-predictions-for-today"
    page = requests.get(url, headers={"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"})

    soup = BeautifulSoup(page.content, "html.parser")
    games = soup.find_all(class_="rcnt tr_1")

    for game in games:
        name = game.find("meta", {"itemprop":"name"})

        if name is None: 
            continue

        game_class = Game()
        game_class.name = name.attrs['content']
        game_class.predict = game.find('span', {"class": "forepr"}).text

        predicts['forebet'].append({'game': game_class.name, 'predict': game_class.predict})
или всё можно делать через этот код, подставляя свои значения
Код:
def bettingclosed():
    global predicts
    predicts['bettingclosed'] = []
    resp = requests.get(r'https://www.bettingclosed.com/predictions/date-matches/today')
    if resp.ok:
        soup = BeautifulSoup(resp.content, 'html.parser')
        if table := soup.find("table", class_="tbmatches table").find('tbody'):
            for tr in table.find_all('tr'):
                td = tr.find_all('td')
                if len(td) > 1:
                    predicts['bettingclosed'].append({'game': f'{td[2].text} vs {td[5].text}',
                                                      'predict': td[6].text})

Последний раз редактировалось OlegShtompel; 28.07.2022 в 20:26.
OlegShtompel вне форума Ответить с цитированием
Старый 29.07.2022, 00:31   #8
BDA
МегаМодератор
СуперМодератор
 
Аватар для BDA
 
Регистрация: 09.11.2010
Сообщений: 7,289
По умолчанию

Для меня эти два примера кода аналогичны. Дело-то не в теге span, просто на forebet можно однозначно находить нужный текст (ищя элемент по тегу, классу, свойствам), а на scorepredictor приходится ориентироваться на порядковый номер в списке элементов. Пожалуй, первый подход лучше, но если сайт сильно переделают, то код при любом подходе придется переделывать. Используйте в качестве основы тот код, который вам понятнее и легче менять.
Пишите язык программирования - это форум программистов, а не экстрасенсов. (<= это подпись )
BDA вне форума Ответить с цитированием
Старый 29.07.2022, 13:46   #9
OlegShtompel
Пользователь
 
Регистрация: 26.07.2022
Сообщений: 14
По умолчанию

Подскажите пожалуйста, на примере сайта https://primatips.com/
Я сделал скрины и шаги внизу написано под картинкой свои расчёты, где ошибка.
В итоге у меня получился такой код
Код:
def primatips():
    global predicts
    predicts['primatips'] = []
    resp = requests.get(r'https://primatips.com/')
    soup = BeautifulSoup(resp.content, 'html.parser')
    games = soup.find("div", id_"games").find_all("span")
    for game in :
        span = game.find_all("span")
        predicts['primatips'].append({'game': f'{span[1].text.strip()} vs {span[2].text.strip()}', 'predict': span.tip.text})
Изображения
Тип файла: jpg 1.jpg (83.1 Кб, 1 просмотров)
Тип файла: jpg 2.jpg (92.7 Кб, 0 просмотров)
OlegShtompel вне форума Ответить с цитированием
Старый 29.07.2022, 21:35   #10
BDA
МегаМодератор
СуперМодератор
 
Аватар для BDA
 
Регистрация: 09.11.2010
Сообщений: 7,289
По умолчанию

В коде есть опечатки, из-за которых он просто не исполняется. Только при поиске по классу нужно писать class_ (т.к. слово class зарезервировано в питоне), а при поиске по id, так и надо писать id, не забывая про знак равенства. Первый find_all("span") найдет span на всех уровнях вложенности, а не только на первом уровне вложенности. В цикле "for game in :" нужно указывать после in какие именно элементы перебирать. На сайте щедро разбросаны классы, так что не нужно мучиться с подсчетом позиций:
Код:
def primatips():
    global predicts
    predicts['primatips'] = []
    resp = requests.get(r'https://primatips.com/')
    soup = BeautifulSoup(resp.content, 'html.parser')
    games = soup.find_all(class_ = "game")
    for game in games:
        names = game.find_all(class_ = "nm")
        predict = game.find(class_ = "tip")
        predicts['primatips'].append({'game': f'{names[0].text} vs {names[1].text}', 'predict': predict.text})
Пишите язык программирования - это форум программистов, а не экстрасенсов. (<= это подпись )
BDA вне форума Ответить с цитированием
Ответ


Купить рекламу на форуме - 42 тыс руб за месяц

Опции темы Поиск в этой теме
Поиск в этой теме:

Расширенный поиск


Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Парсер новостей с новостных сайтов разумеется =) maxvel0007 Фриланс 6 17.10.2017 22:59
Парсер поиска любых контактов и определения категорий сайтов Dumas Софт 0 12.06.2015 14:40
Php парсер части сайтов) Fahman PHP 6 15.12.2013 17:14
Требуется написать парсер-граббер сайтов bashkov Фриланс 4 28.07.2009 01:12