Semalt: Blockera åtkomst till webbplatsens innehåll med metataggar och Robots.txt-filer

Jason Adler, Semalt Customer Success Manager, säger att det är möjligt att kontrollera vad som delas med Bing, Yahoo och Google när du håller informationen säker och inte delar dem på internet. Uppgifterna som du behöver hålla hemligt inkluderar kontaktinformation, PayPal-ID, kreditkortsinformation, användarnamn och lösenord. Du bör blockera den här typen av information från att indexeras i Google och andra sökmotorer. När det gäller att blockera webbadresserna på din webbplats är det möjligt för dig att hindra Google och andra sökmotorer från att genomsöka vissa sidor eller artiklar. Det betyder att när människor går igenom sökresultaten kommer de inte att se och navigera till webbadresserna som har blockerats. De kommer inte heller att kunna komma åt dess innehåll, och du kan hindra att många artiklar visas i Googles sökresultat. Så här blockerar du åtkomst till ditt webbplatsinnehåll:

Blockera sökindexering med metataggar: Du kan enkelt blockera sidor från att visas i sökmotorer när du använder metataggar som inte är indexerade på webbplatsens HTML-kod. Googlebot genomsöker sidor som inte har denna metatagg och kommer att släppa dina specifika sidor från sökresultaten på grund av den. Låt oss här säga att denna metatagg fungerar endast när din robots.txt-fil inte har ändrats.

Blockera webbadresser med robots.txt-filer: Robots.txt-filen ligger i roten på din webbplats och indikerar den del av din webbplats som du inte vill att sökmotorrobotar och spindlar ska indexera. Den använder Robots Exclusion Standard, som är ett protokoll med en uppsättning kommandon som anger var och hur webbsökarna kommer åt din webbplats. Robots.txt hjälper också till att förhindra att bilderna visas i sökresultaten men hindrar inte användare från att länka din webbplats till sina egna sidor. Du bör komma ihåg begränsningarna och begränsningarna för robots.txt-filer innan du redigerar dem. Vissa mekanismer ser till att webbadresserna är blockerade korrekt. Instruktionerna från robots.txt är direktiv som innebär att de inte kan upprätthålla beteendet hos webbsökare. Alla sökrobotar tolkar syntax på sina egna sätt, och robots.txt-filerna kan inte förhindra referenser till din länk från andra webbplatser. Google är bra att följa riktlinjerna för robots.txt-filer, men det kanske inte är möjligt för sökmotorn att indexera en blockerad webbplats på grund av dess policy.

Välj bort Google Local och Google Properties: Du kan blockera ditt innehåll från att visas på olika Google-egenskaper när det har indexerats. Detta inkluderar Google Local, Google Flights, Google Shopping och Google Hotels. När du väljer att välja att inte visas i alla dessa butiker kommer ditt innehåll som genomsöktes inte att listas eller uppdateras. Varje artikel som visas på någon av dessa plattformar kommer att tas bort inom 30 dagar efter att du har valt bort.

Slutsats:

Det är viktigt att dölja det mindre värdefulla och användbara innehållet för dina besökare. Om din webbplats har liknande ämnen på flera platser, kan det ge ett negativt intryck på sökmotorerna och dina besökare. Det är därför du bör dölja alla dessa sidor och inte låta sökmotorerna indexera dem. Bli av med innehållet från tredje part. Du måste bli av med innehåll från tredje part som inte är värdefull för din webbplats till varje pris. Låt inte Google se att du delar innehåll från tredje part eftersom sökmotorn kommer att se mindre värde på din webbplats i så fall. När du har kopierat innehåll från ett stort antal webbplatser kan Google straffa dig och du kan blockera duplikatartiklarna för att förbättra dina Google-rankningar.