SEO -strategier til JavaScript -applikationer

Når vi udvikler et websted, bruger vi ofte JavaScript, da det er ideelt til at oprette innovative websteder med flere funktioner på klientsiden. En af de mest anvendte teknologier er AJAX.
igennem rammer Hvad Jquery, Prototype, Mootools og andre, som tillader fremsættelse af anmodninger til serveren, modtagelse af resultatet og aktivering af indlæsning af bestemt indhold på siden uden at opdatere internettet og helt gennemsigtigt for brugeren.
I øjeblikket viser de fleste websider en stærk afhængighed af JavaScript for at skabe klientbivirkninger og funktionaliteter, dette medfører velkendte risici med hensyn til SEO, linkproblemer eller inkompatibiliteter, tekniske fejl, downloadhastighed osv.
Vi vil se i denne vejledning nogle strategier til udvikling af AJAX -websteder og applikationer undgå at have problemer i SEO -grenen.

Fordele og ulemper ved at bruge AJAX


Fordelene med hensyn til brugeroplevelse er klare: hurtige sider, mindre overhead til serveren, der kun behandler ordren og returnerer det indhold, der er nødvendigt for brugeren. Mange nye generations webfunktioner udføres ikke let uden brug af JavaScript eller Jquery, da det giver brugeren behov for at klikke på et element på nettet og for browseren ikke at opdatere hele siden, men kun en blok af indhold og endda vise forskellige oplysninger til forskellige brugere.
Bagsiden er, at det returnerede indhold muligvis ikke er synligt for søgemaskiner, og botten ofte ikke vil analysere Jquery- eller Ajax -koden. Et problem er, at indholdet på en side kun er synligt for browseren, men ikke på serveren, kan robotternes måde at spore få dem til ikke at se noget indhold, eller at nogle links mislykkes, da robotten ikke kan forstå JavaScript, der er meget komplekst .
Google har løbende udviklet Ajax og Javascript -crawlingskapaciteterne i sine robotter, mens Bing og Yahoo ikke har udviklet sig meget.
Selv søgemaskiner kan ikke præcist repræsentere det mest relevante indhold til en søgeforespørgsel, så overforbrug af denne teknologi kan føre til dårlig placering i søgeresultater.

Eksempler på html -elementer og blokke, der forbedrer SEO


Hvis vi skal oprette en blok, lad os anvende semantiske navne på klasserne, det vil sige med en forstand, der beskriver indholdet:
Eksempel på en blok, der viser noget indhold
Det ville være bedre at give hver blok af html -kode en mere semantisk fornemmelse, så robotterne kan forstå, hvilket indhold de vil vise:
Strukturen er tydelig at spore, selvom indholdet ikke er genereret i HTML. Da semantisk markup indeholder søgeord, er det vigtigt at bruge passende HTML -tags til indholdet, når vi er i tvivl, kan vi se W3school Html -manualen.
Ligesom bestilte eller uordnede lister er et formål med definitionlister at vise listen over målrettet indhold, da det i tilfældet ovenfor kan være nyheder eller en liste over produkter. Dette giver mulighed for mere søgeordstæthed, mindre kodeord.
Et af de vigtigste aspekter er, at det indhold, Javascript genererer til brugeren, er det samme indhold nøjagtigt det samme, som det, der vises for søgemaskiner eller søgerobotter.
Google angiver som en mulig løsning, at hvis vores websted indeholder teknologier, som søgemaskiner ikke kan få adgang til eller ikke kan fortolke, f.eks. JavaScript eller Ajax, skal vi bruge beskrivende tekst eller bogmærker, så disse elementer kan vise, hvilket indhold der svarer. dermed forbedre tilgængeligheden af ​​webstedet. Mange brugere bruger mobile enheder, ikke-standardbrowsere, forældet software og langsomme forbindelser, så de kan have fejl, når de ser indhold eller bruger en vis funktionalitet.

Links og parameter efter URL


Google foretrækker at bruge hashbang som parameter i en url, fordi det på denne måde vil være lettere for dig at fortolke dine links, når vi sender en hastabang til webstedet som en parameter.
Et meget udbredt eksempel er på Twitter -webstedet. Google bruger det til at beholde og anmode om indholdet på den statiske side. For at vise, hvad de omskrevne webadresser indeholder, er her nogle eksempler:
Denne URL genereret af en forespørgsel er bedre og mere semantisk SEO
www.miweb.com/#!madrid/productos
Disse to urls er sværere for robotter at forstå, men uden tvivl forbedrer den sidste semantikken noget.
www, miweb, com /? tmp = madrid / products
www.miweb.com/?ciudad=madrid&seccion=productos
Så længe vi kan Semantisk SEO til genereret indhold og vise det samme indhold, som en bruger ville se i søgemaskiner, er dette ikke et stort problem.

Slide-out navigationslinjer og faner


I tilfælde af at have indholdet distribueret i faner, hvor indholdet ændres ved hjælp af jquery eller en anden ramme afhængigt af den fane, vi placerer os i, skal der være en uafhængig url for hver fane, når brugeren klikker på en fane, kan en anmodning også foretages til serveren for at generere helt nyt indhold. Strukturen på hvert link kunne være noget i retning af:
www.miweb.com?tab= salg
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Tricket med fanerne er produceret med CSS og Javascript, serveren returnerer indholdet af alle fanerne med den første sides anmodning. Når brugeren klikker på en fane, får de klasser, der er defineret i CSS, browseren til at skjule indholdet, der er knyttet til en fane, og kun vise indholdet, der er relateret til den klikede fane, mens de andre er skjult, men de er i koden dette Det er tilladt , så det er godt at give strukturen en semantisk fornemmelse.
Det er også meget vigtigt ikke at tillade gennemsøgning af Javascript- eller CSS -filer i robots.txt på vores websted, da det kan skade placering og indeksering af dit indhold og kan resultere i fejl i crawlstatistikken.
En af retningslinjerne for Google webmaster Det siger specifikt ikke at tillade, at disse filer spores, men hverken for at blokere eller skjule dem for bots.

Googles webmasterværktøjer til at verificere og analysere gennemgang


Googles webmasterværktøjer giver os mulighed for at informere google ved at verificere ejerskabet af vores websted. Log venligst ind med din Google- eller Gmail -konto, og så kan vi bekræfte vores websted.

Når du har bekræftet ejendommen, vil sitemap.xml at begynde at gennemgå webstedet, og derefter vil Google begynde at indeksere dine webadresser.
Det tager cirka to uger, før robotten vises korrekt i Google Søgning.
Der er ingen let måde at sikre, at alt fungerer, men der er nogle værktøjer til at hjælpe dig med at se, hvad der foregår. Det bedste er at bruge Udforsk som Googlebot -værktøj, som viser os præcis, hvad Google ser, når de gennemsøger webstedet. Du kan få adgang til Googles webmasterværktøjer i Diagnostics.
Ved hjælp af Googles værktøjer til webmasterværktøjer kan vi kontrollere de indekserede links og rette eller fjerne disse links, så dit websted er optimeret til søgemaskiner og har links uden fare for at blive straffet, der hjælper med at forbedre din SEO, blandt andre funktioner.Kan du lide og hjælpe denne vejledning?Du kan belønne forfatteren ved at trykke på denne knap for at give ham et positivt punkt

Du vil bidrage til udviklingen af ​​hjemmesiden, at dele siden med dine venner

wave wave wave wave wave