Developer coding
Guide Python

Kom igång med web scraping via svenska proxies

Web scraping med proxies ger dig möjligheten att samla in data utan att bli blockerad av rate limiters eller geo-filtrering. Med proxyapi.se får du svenska IP-adresser som ser ut som vanlig trafik från Sverige.

Förutsättningar

  • Python 3.8+
  • Ett proxyapi.se-konto (gratis)
  • En API-nyckel från dashboarden

1. Installera dependencies

pip install requests beautifulsoup4

2. Grundläggande scraper

import requests
from bs4 import BeautifulSoup

API_KEY = "sk_live_din_nyckel_här"

proxies = {
    "http":  f"http://{API_KEY}:@proxy.proxyapi.se:8080",
    "https": f"http://{API_KEY}:@proxy.proxyapi.se:8080",
}

# Hämta en sida via proxyn
response = requests.get(
    "https://example.com",
    proxies=proxies,
    timeout=30
)

soup = BeautifulSoup(response.text, "html.parser")
print(soup.title.string)

3. Hantera fel och retries

from requests.adapters import HTTPAdapter
from urllib3.util.retry import Retry

session = requests.Session()
session.proxies = proxies

# Automatisk retry vid temporära fel
retry = Retry(total=3, backoff_factor=1,
              status_forcelist=[429, 500, 502, 503])
adapter = HTTPAdapter(max_retries=retry)
session.mount("http://", adapter)
session.mount("https://", adapter)

response = session.get("https://example.com")
print(f"Status: {response.status_code}")

Best practices

  • Respektera robots.txt — kontrollera alltid sajten tillåter scraping
  • Använd rimliga intervall — 1-2 sekunder mellan requests
  • Sätt en User-Agent — identifiera din bot som en god samhällsmedborgare
  • Övervaka din kvot — använd dashboarden för att se GB-förbrukning
  • Hantera fel gracefully — implementera retries och exponential backoff

Övervaka din användning

Logga in på app.proxyapi.se/usage för att se din dagliga förbrukning, topp-destinationer och totala requests. Du kan också använda API:et för programmatisk övervakning.