Cette catégorie concerne les techniques de récupération automatisée de contenus sur les sites internet, incluant le web scraping, l’analyse des données collectées, ainsi que les aspects éthiques et juridiques liés à cette pratique.

Essai

Ok 👍 je comprends : tu voudrais scraper un site pour récupérer tous les événements (par ex. dates, titres, lieux, descriptions, etc.) et ensuite les réutiliser (peut-être pour créer un calendrier ou une base de données ?).

J’ai besoin de quelques précisions pour te guider efficacement :

  1. 🔗 De quel site s’agit-il ? (selon la structure, la méthode change)
  2. 📑 Quel type d’informations veux-tu extraire ? (titres d’événements, dates, horaires, lieux, description, liens d’inscription…)
  3. ⚙️ Tu veux un script ponctuel ou un système automatisé qui se met à jour régulièrement ?
  4. 💻 Tu préfères utiliser quoi ? (Python, Node.js, un outil no-code comme ParseHub ou Apify, ou directement Google Sheets avec une extension)

En Python par exemple, on peut utiliser :

👉 Exemple basique en Python avec BeautifulSoup :

import requests
from bs4 import BeautifulSoup

url = "<https://exemple.com/evenements>"
response = requests.get(url)
soup = BeautifulSoup(response.text, "html.parser")

# Supposons que chaque événement est dans une div .event
events = []
for event in soup.select(".event"):
    titre = event.select_one(".titre").get_text(strip=True)
    date = event.select_one(".date").get_text(strip=True)
    lieu = event.select_one(".lieu").get_text(strip=True)
    events.append({"titre": titre, "date": date, "lieu": lieu})

print(events)

Ça te donnerait une liste de dictionnaires avec les infos récupérées.

👉 Si tu veux, je peux t’aider à faire un script adapté directement au site que tu cibles.

Veux-tu me partager le site (ou un exemple de page d’événements) ?

À trier