Guide Python
Kom igång med web scraping via svenska proxies
Web scraping med proxies ger dig möjligheten att samla in data utan att bli blockerad av rate limiters eller geo-filtrering. Med proxyapi.se får du svenska IP-adresser som ser ut som vanlig trafik från Sverige.
Förutsättningar
- Python 3.8+
- Ett proxyapi.se-konto (gratis)
- En API-nyckel från dashboarden
1. Installera dependencies
pip install requests beautifulsoup4 2. Grundläggande scraper
import requests
from bs4 import BeautifulSoup
API_KEY = "sk_live_din_nyckel_här"
proxies = {
"http": f"http://{API_KEY}:@proxy.proxyapi.se:8080",
"https": f"http://{API_KEY}:@proxy.proxyapi.se:8080",
}
# Hämta en sida via proxyn
response = requests.get(
"https://example.com",
proxies=proxies,
timeout=30
)
soup = BeautifulSoup(response.text, "html.parser")
print(soup.title.string) 3. Hantera fel och retries
from requests.adapters import HTTPAdapter
from urllib3.util.retry import Retry
session = requests.Session()
session.proxies = proxies
# Automatisk retry vid temporära fel
retry = Retry(total=3, backoff_factor=1,
status_forcelist=[429, 500, 502, 503])
adapter = HTTPAdapter(max_retries=retry)
session.mount("http://", adapter)
session.mount("https://", adapter)
response = session.get("https://example.com")
print(f"Status: {response.status_code}") Best practices
- Respektera robots.txt — kontrollera alltid sajten tillåter scraping
- Använd rimliga intervall — 1-2 sekunder mellan requests
- Sätt en User-Agent — identifiera din bot som en god samhällsmedborgare
- Övervaka din kvot — använd dashboarden för att se GB-förbrukning
- Hantera fel gracefully — implementera retries och exponential backoff
Övervaka din användning
Logga in på app.proxyapi.se/usage för att se din dagliga förbrukning, topp-destinationer och totala requests. Du kan också använda API:et för programmatisk övervakning.