Python giver os mulighed for at arbejde med eksterne filer, måske lyder dette ikke logisk på denne måde, men eksterne filer i dette tilfælde er ikke andet end forespørgsler til websider fra vores Python -program, grunden til at gøre dette kan være fra forespørgsel til REST Web Services der tillader os at opnå værdier ved FÅ eller forespørg direkte på sider og manipuler deres indhold.
For at opnå dette vil vi bruge nogle af de mange biblioteker, det tilbyder Python for at arbejde med netværk og dermed fjerne tekniske forhindringer og kun koncentrere sig om, hvor vigtigt det er i vores programmeringslogik.
urllib og urllib2
Disse to boghandlere urllib Y urllib2 De giver os mulighed for at få adgang til filer via netværket, som om de var i vores lokale miljø, gennem et enkelt opkald til en funktion, dette kan tjene os til mange ting, for eksempel at vi kan bruge et web og med dets indhold lave rapporter i vores program om, hvad vi kan finde i det.
Disse to biblioteker ligner hinanden, deres forskel er urllib2 det kan være lidt mere sofistikeret, hvor hvis vi simpelthen ønsker at stille en forespørgsel uden yderligere implikationer, vi kan bruge urllib, men hvis vi ønsker at foretage en godkendelsesproces eller bruge cookies, så urllib2 det kan være det rigtige valg til vores program.
Da vi teoretisk ved, hvad vi har brug for, og hvorfor vi har brug for det, lad os se et lille kodeeksempel, så det er klart for os, hvad vi kan gøre, i det følgende eksempel vil vi åbne et web fra vores program og derefter gennem regulære udtryk vi kommer til at udtrække et link til dets indhold til dette, vi vil bruge urllib:
>>> fra urllib import urlopen >>> webside = urlopen ('http://www.python.org') >>> import re >>> tekst = webside.read () >>> m = re.search ( 'Tutorial', tekst, re.IGNORECASE) >>> m.gruppe (1)
Vi går trin for trin, først fra det urllib -bibliotek, vi importerer urlopen, så opretter vi en variabel kaldet hjemmeside som er den der vil indeholde resultatet af urlopen Hvad vil vi gøre med det officielle websted for Python, med dette importerer vi allerede re For at arbejde med regulære udtryk siger vi, at tekst er den variabel, der vil have indholdet i sidelæsningen, vi søger med et regulært udtryk og til sidst grupperer vi resultatet, som skal udskrive følgende:
http://docs.python.org/
Dette er takket være metoden urlopenHvad du gør er, at det lader os arbejde med websiden, som om det var et filobjekt, på denne måde kan vi anvende mange af de funktioner, vi kan bruge med denne type objekter, selvom vi vil, kan vi downloade siden og arbejde det fra vores lokale på en meget let måde ved hjælp af metoden urlretrieve som følger:
urlretrieve ('http://www.python.org', 'C: \ python_webpage.html')Det eneste, vi gør, er som den anden parameter at sende stien i vores lokale miljø, hvor filen med kopien af siden skal gemmes uden større besvær.
Med dette afslutter vi denne vejledning, da vi ser at gøre mere komplekst arbejde som at bruge sider i vores programmer er ganske enkelt takket være bibliotekerne i Python.
Kan du lide og hjælpe denne vejledning?Du kan belønne forfatteren ved at trykke på denne knap for at give ham et positivt punkt