SEO -strategier för JavaScript -applikationer

När vi utvecklar en webbplats använder vi ofta JavaScript eftersom det är idealiskt för att skapa innovativa webbplatser med flera funktioner på klientsidan. En av de mest använda teknikerna är AJAX.
Genom ramar Vad Jquery, Prototype, Mootools och andra, som gör det möjligt att göra förfrågningar till servern, ta emot resultatet och aktivera laddning av visst innehåll på sidan utan att uppdatera webben och helt transparent för användaren.
För närvarande visar de flesta webbsidor ett starkt beroende av JavaScript för att skapa klientbiverkningar och funktioner, detta medför välkända risker när det gäller SEO, länkproblem eller inkompatibiliteter, tekniska fel, nedladdningshastighet etc.
Vi kommer att se några i denna handledning strategier för att utveckla AJAX webbplatser och applikationer undvika problem i SEO -grenen.

Fördelar och nackdelar med att använda AJAX


Fördelarna när det gäller användarupplevelse är tydliga: snabba sidor, mindre overhead för servern som bara behandlar beställningen och returnerar det innehåll som är nödvändigt för användaren. Många nya generations webbfunktioner görs inte enkelt utan att använda JavaScript eller Jquery eftersom det ger användaren behov av att klicka på ett element på webben och för webbläsaren att inte uppdatera hela sidan utan bara ett block av innehåll och till och med visa olika information för olika användare.
Nackdelen är att det returnerade innehållet kanske inte är synligt för sökmotorer och boten ofta inte analyserar Jquery- eller Ajax -koden. Ett problem är att innehållet på en sida bara är synligt för webbläsaren, men inte på servern, robotarnas sätt att spåra kan få dem att inte se något innehåll eller att vissa länkar misslyckas eftersom roboten inte kan förstå JavaScript som är mycket komplext .
Google har kontinuerligt utvecklat Ajax och Javascripts genomsökningskapacitet hos sina robotar, medan Bing och Yahoo inte har utvecklats mycket.
Även sökmotorer kan inte exakt representera det mest relevanta innehållet för en sökfråga, så överanvändning av denna teknik kan leda till dålig positionering i sökresultaten.

Exempel på HTML -element och block som förbättrar SEO


Om vi ​​behöver skapa ett block, låt oss tillämpa semantiska namn på klasserna, det vill säga med en känsla som beskriver innehållet:
Exempel på ett block som visar lite innehåll
Det skulle vara bättre att ge en mer semantisk känsla för varje block av html -kod så att robotarna kan förstå vilket innehåll de kommer att visa:
Strukturen är tydlig att spåra även om innehållet inte har genererats i HTML -koden. Eftersom semantisk markering innehåller nyckelord är det viktigt att använda lämpliga HTML -taggar för innehållet, när vi är osäkra kan vi läsa W3school Html -manualen.
Precis som ordnade eller oordnade listor är ett syfte med definitionslistor att visa listan över riktat innehåll, som i fallet ovan kan det vara nyheter eller en lista över produkter. Detta möjliggör mer sökordstäthet, mindre kodstörning.
En av de viktigaste aspekterna är att innehållet som Javascript genererar för användaren är samma innehåll exakt samma som det som visas för sökmotorer eller sökrobotar.
Google anger som en möjlig lösning att om vår webbplats innehåller teknik som sökmotorer inte kan komma åt eller inte kan tolka, till exempel JavaScript eller Ajax, måste vi använda beskrivande text eller bokmärken så att dessa element kan visa vilket innehåll som motsvarar. Kommer att visas och på så sätt förbättra webbplatsens tillgänglighet. Många användare använder mobila enheter, icke-standardiserade webbläsare, föråldrad programvara och långsamma anslutningar, så att de kan ha fel när de tittar på innehåll eller använder vissa funktioner.

Länkar och parameter efter URL


Google föredrar att använda hashbang som en parameter i en webbadress, eftersom det på så sätt blir lättare för dig att tolka dina länkar när vi skickar en hastabang till webbplatsen som en parameter.
Ett vanligt förekommande exempel finns på Twitter -webbplatsen. Google använder den för att behålla och begära innehållet på den statiska sidan. Här är några exempel för att visa vad de omskrivna webbadresserna innehåller:
Denna webbadress som genereras av någon fråga är bättre och mer semantisk SEO
www.miweb.com/#!madrid/productos
Dessa två webbadresser är svårare för robotar att förstå, men utan tvekan förbättrar den sista semantiken något.
www, miweb, com /? tmp = madrid / products
www.miweb.com/?ciudad=madrid&seccion=productos
Så länge vi kan Semantisk SEO till genererat innehåll och visa samma innehåll som en användare skulle se i sökmotorer, är detta inte ett stort problem.

Skjutbara navigeringsfält och flikar


Om innehållet distribueras på flikar, där innehållet ändras med hjälp av jquery eller annan ram beroende på vilken flik vi placerar oss i, måste det finnas en oberoende webbadress för varje flik, när användaren klickar på en flik kan en begäran görs också till servern för att generera helt nytt innehåll. Strukturen för varje länk kan vara ungefär så här:
www.miweb.com?tab= försäljning
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Tricket med flikarna produceras med CSS och Javascript, servern returnerar innehållet på alla flikarna med den första sidförfrågan. När användaren klickar på en flik gör klasserna som definieras i CSS att webbläsaren döljer innehållet som är associerat med en flik och visar bara innehållet som är relaterat till den klickade fliken, medan de andra är dolda, men de är i koden detta Det är tillåtet , så det är bra att ge strukturen en semantisk känsla.
Det är också mycket viktigt att inte tillåta genomsökning av Javascript- eller CSS -filer i robots.txt på vår webbplats eftersom det kan skada positionering och indexering av ditt innehåll och kan leda till misslyckad genomsökningsstatistik.
En av riktlinjerna för Googles webbansvariga Det står specifikt att inte tillåta att dessa filer spåras men inte att blockera eller dölja dem från bots.

Googles verktyg för webbansvariga för att verifiera och analysera genomsökning


Googles verktyg för webbansvariga ger oss möjlighet att informera google genom att verifiera ägandet av vår webbplats. Logga in med ditt Google- eller Gmail -konto så kan vi verifiera vår webbplats.

När du har verifierat fastigheten kommer sitemap.xml att börja genomsöka webbplatsen och sedan kommer Google att indexera dina webbadresser.
Roboten tar ungefär två veckor innan länkarna visas korrekt i Google Sök.
Det finns inget enkelt sätt att se till att allt fungerar, men det finns några verktyg som hjälper dig att se vad som händer. Det bästa är att använda verktyget Utforska som Googlebot, som visar oss exakt vad Google ser när man genomsöker webbplatsen. Du kan komma åt Googles verktyg för webbansvariga i Diagnostik.
Med hjälp av Googles verktyg för webbansvariga kan vi kontrollera de indexerade länkarna och korrigera eller eliminera dessa länkar så att din webbplats är optimerad för sökmotorer och har länkar utan risk för att bli bestraffade som hjälper till att förbättra din SEO, bland andra funktioner.Gillade du och hjälpte denna handledning?Du kan belöna författaren genom att trycka på den här knappen för att ge honom en positiv poäng
wave wave wave wave wave