Ontgrendel je developers potentieel met SEO voor developers!

De eerste regel van SEO is het ontwikkelen van echt goede inhoud. De tweede richtlijn van seo is het maken van echt goede webinhoud. Als mensen niet van plan zijn om zich daarna met je webinhoud bezig te houden, dan wil Google dat ook niet, we leven in het tijdperk van makers, ontdekkers en ook quantum computing. Je kunt niet zomaar een hoop trefwoordzinnen in een pagina proppen en dan verwachten dat je het goed doet. Toen google eind jaren 90 opkwam, was het gebaseerd op een algoritme genaamd pagerank, dat belang en zoekrangschikking woog op basis van de hoeveelheid inkomende links die een site had. individuen kwamen er snel achter hoe ze de formule konden uitbuiten door backlinks te spammen over het hele web.

Grey hat SEO

Om de rang van de website te verhogen, want een hoge positie in Google kan miljoenen dollars waard zijn. Het bracht ons een hele markt van zoekmachine optimalisatie professionals, de helden in witte hoeden, de cyberpunks in zwarte hoeden. Een van de meest efficiënte draagt echter een grijze hoed. Toch zeggen sommigen dat het een stervende markt is y’all want het wordt steeds moeilijker om Google’s innovatie te manipuleren er zijn meer dan 200 variabelen die meegaan in de ranking van een site die vooral gericht zijn op hoe behulpzaam een individu heeft ontdekt. Zijn ze direct naar je site gesprongen door op de terugknop te klikken, of hebben ze de pagina lang gemarkeerd en op andere weblinks geklikt?

Het opnemen van allerlei waardevol materiaal is koning, maar het 3e beleid van SEO is het weergeven van html. Dit kan nauwkeurig begrepen worden door crawlers. Je primaire materiaal gaat in de body tags. Als Google je site crawlt, zal het semantische html-aspecten gebruiken om de inhoud op de webpagina te begrijpen. Je zou je primaire materiaal daarna in een korte artikeltag kunnen plaatsen.

Neem je essentiële trefwoorden op en ook kopjes of h-tags om aan te geven waar je webpagina mee te maken heeft. Daarnaast moet je html waar nodig alt tags en ook foto’s en ook aria tags gebruiken om je site bruikbaar te maken op ondersteunende gadgets in de kop van het bestand. We hebben metadata. Die worden niet direct onthuld aan de eindgebruiker. Maar crawlers kunnen deze gegevens gebruiken om de pagina en de stijl nog beter te begrijpen.

De echte look van je online zoekmachine, die het vierde beleid van zoekmachine optimalisatie levert, is om je volledig opgemaakte html snel ingepakt te krijgen. Als je zowel megabytes aan belemmerende beeldstijlen als javascript hebt, zullen zowel gebruikers als robots je website overhandigen, maar snel gaan is minder ingewikkeld gezegd dan gedaan. Daarom gaan we vandaag ruim 100 seconden de tijd nemen om een blik te werpen op de talloze verschillende strategieën die we hebben om html aan te bieden en precies hoe ze seo beïnvloeden als je hieronder gloednieuw bent. Mijn complete next js firebase training wordt nu aangeboden, als je doel is om een zeer interactieve internet app te ontwikkelen die bovendien helemaal internet zoekmachine aangenaam is daarna zul je zeer zeker van plan zijn om dit programma te bekijken. Nu zijn de vier belangrijkste richtlijnen voor SEO, naar mijn mening, ongelooflijk om te produceren.

De statistieken die er toe doen

Webcontent produceren uitstekend materiaal, effectief geformatteerde html leveren en veel van je html snel. De eerste twee regels zijn erg subjectief en hangen helemaal af van je publiek. Toch is de basisdoelstelling dat wanneer iemand op een link naar je site klikt vanaf een webpagina met een zoekmachine ranking, hij zo lang mogelijk met je site bezig moet zijn. Er zijn een paar statistieken die je hier wilt begrijpen. De eerste is de click-through rate of ctr, die precies aangeeft hoe waarschijnlijk het is dat een individu op je link klikt wanneer die wordt gepresenteerd in een zoekmachine ranking pagina of serp, hoe groter de ctr hoe veel beter, wat meestal suggereert dat je momenteel een echt geschikte titel en samenvatting hebt, als een klant op je weblink klikt en dan meteen op de terugknop klikt, heet dat een bounce evenals hoe groter je bounce prijs hoe minder waarschijnlijk dat is.

Je website moet goed presteren op de lange termijn, want het is duidelijk dat de inhoud op de pagina niet erg relevant is als de persoon op de webpagina blijft. Google zal zeker de verblijftijd in de gaten houden, dat is de hoeveelheid tijd die ze daar doorbrengen voordat ze terugklikken naar het zoekmachineresultaat – hoe langer de verblijftijd, hoe veel beter. Maar het meest effectieve, haalbare punt dat zich kan voordoen is dat de gebruiker nooit meer terugklikt en dat zijn sessie levenslang duurt en dat hij nooit meer naar een andere site hoeft te gaan. Dat gebeurt meestal niet. Wat je dus bijhoudt is de typische sessieduur en het gemiddelde aantal bekeken pagina’s per sessie.

Dit zijn statistieken die je wilt maximaliseren, er is geen absolute regel voor het produceren van interessante inhoud, maar het eerste wat iemand ziet moet hem aanzetten tot meer informatie. Als je kijkt naar iets als buzzfeed, hoef je alleen maar een geanimeerde gif bovenaan te zetten, daarna eventueel nog een paar in de body en dan moet je ook goed zijn. Laten we overgaan naar regel drie. Waar we het hebben over de eigenlijke structuur van de html gebruik ik mijn website, fireship io als voorbeeld op een les of korte artikel webpagina, kun je rechts klikken en op inspect element drukken of op control shift. Dit brengt het elemententabblad in chrome, devtools, tevoorschijn en toont je de volledig opgemaakte html-opmaak.

We hebben een hoofd en een lichaam. Laten we doorgaan en openen. De body vindt het primaire element waarna binnen het primaire aspect: je zult merken. We hebben een write-up, een write-up component heeft semantische betekenis en ook, hoewel het nooit gezien zal worden door het eind, individu, het vertelt de online zoekmachine hier is de belangrijkste webinhoud van de webpagina. Bovendien zul je hieronder een aantal extra kwaliteiten waarnemen, de ene is productomvang, en de andere is een producttype als schema.

rg artikel. Nu is het volledig optioneel en ook of het zeker je zoek. Engine positie is discutabel, maar wat schema.org je laat doen is het definiëren van een aantal metadata over de eigenlijke webinhoud op je pagina, waardoor het voor online zoekmachines veel gemakkelijker wordt om die te analyseren. Het is bijzonder krachtig.

Als je inhoud iets is als een gerecht of een sterrenclassificatie vanwege het feit dat Google daarna zowel de schema-informatie als de juiste indeling in een serp-pagina kan nemen. Momenteel hebben we in dit geval een heleboel metadata waaruit een artikel bestaat, en één punt dat erkend wordt om de zoekpositie te verbeteren is wanneer een artikel gemaakt is door een bekende auteur, verderop in de html-boom hier, zie je dat we een product prop van auteur hebben, die de pagina van de auteur aangeeft, die linkt naar een andere pagina op fireship io en ook naar die specifieke pagina. We hebben deze keer ook een postcomponent met een artikeltype van een schema.org auteur, naast een heleboel links die betrouwbare websites voor die auteur aangeven, uitgaande links op een pagina zijn echt belangrijk omdat ze verder signaleren waar de pagina in dit geval over gaat, google zal zeker in eerste instantie crawlen. Het korte artikel crawlt daarna de pagina van de auteur.

Deze diverse andere sites om te herkennen wie die auteur is een uitstekende strategie is om gebruik te maken van uitgaande links naar andere echt goede sites die bij de webinhoud horen. Op een bepaalde webpagina zijn er, momenteel samen met schema.org, diverse andere methoden waarmee je metadata aan je materiaal kunt toevoegen, en dit kan uiterst essentieel zijn voor zowel zoekmachine optimalisatie als ook toegankelijkheid. Een van de meest essentiële strategieën is het toevoegen van een alt credit aan foto’s, wat eigenlijk gewoon wat tekst is die de afbeelding beschrijft. Deze metadata kunnen gebruikt worden door internet zoekmachines en ook beeldschermen voor mensen met speciale behoeften voor andere onderdelen die wat ingewikkelder zijn.

Zoals een voortgangsbalk als voorbeeld, kun je gebruik maken van aria attributen die beschikbare overvloedige netapplicaties weergeven en ook zij helpen om extra betekenis te geven aan uiterst interactieve widgets. Op de webpagina hebben we alleen de body van het bestand doorzocht. De kop van het document heeft echter allerlei waardevolle metadata voor zoekmachine optimalisatie. Hier heb je de titel. Je zult je titel zorgvuldig willen kiezen, want die wordt getoond in een certificaatpagina en zal uiteindelijk samen met de titel je CTR-ranking beheren.

Zorg voor goede metatags

Misschien wil je hier ook metatags hebben die dingen specificeren als de samenvatting, featured photo author, approved link en ook dat soort dingen. Deze metatags zijn ook nodig als je wilt dat je materiaal gedeeld wordt op sociale netwerksites als twitter of facebook. Als je een hyperlink op sociale media plaatst, haalt die de webpagina op en zoekt naar de metatags om te herkennen welke afbeelding en titel je daar moet presenteren. Als je wilt zien hoe je site het vandaag doet, kun je een weblink posten in de twitter card validator, en die zal je vertellen of hij je huidige metatags kan gebruiken. Dat geeft je wat punten om over na te denken als het gaat om de eigenlijke structuur van je html, maar de grotere vraag is: hoe render je die html, of simpel gezegd, welk onderdeel van je technische stapel is verantwoordelijk voor het produceren van de eigenlijke html opmaak die door een robot of eindgebruiker wordt ontvangen? Er zijn 3 essentiële manieren om html te maken, waarvan we de eerste zullen nemen.

Een blik op is client-side, ervan uitgaande dat je een applicatie bouwt met iets als React of Angular. De standaardinstelling is client-side rendering of een enkele webpaginatoepassing op de eerste webpaginakavels. De client krijgt een schil van html zonder zinvolle webinhoud, de javascript code, dan bootstraps, en brengt dan asynchroon elke vorm van extra informatie binnen die nodig is voor de ui toepassingen. Dit is fantastisch voor interactiviteit, want het geeft de eindgebruiker een app-achtige ervaring, vergelijkbaar met wat je zou verwachten op ios of android. Het probleem is dat vanwege het feit dat de inleidende html gewoon een dekmantel is, motoren het moeilijk kunnen hebben om het te begrijpen en ook te indexeren.

Als je een door javascript gegenereerde link van een single page applicatie op Twitter zet, dan zie je alleen de oorspronkelijke html, en niet de toegevoegde metatags die na de waarheid door javascript zijn gegenereerd. Dat is niet geweldig! Voor sociale media heeft Google, als online zoekmachine, de mogelijkheid om door klanten aangeleverde applicaties te indexeren. De betrouwbaarheid is echter twijfelachtig en onmiddellijk. Ik zou niet vertrouwen op client provisioning als SEO een dienstkritische eis was, dus een ander alternatief is het vooraf pre-render of statisch genereren van HTML.

Benut de voordelen van een CDN

Stel dat je internetapplicatie honderd verschillende paden of webpagina’s heeft. We zouden alle html voor die pagina’s vooraf kunnen produceren, en dan de vaste bestanden uploaden naar een opslagcontainer die gecached kan worden op een internationaal CDN. Dus het eerste wat de klant ziet is alle geleverde inhoud. Daarna laadt het javascript en maakt de pagina volledig interactief, wat fantastisch is voor SEO omdat bots volledig gerenderde html krijgen en ook zij het materiaal op de webpagina gemakkelijk kunnen interpreteren, het is ook uiterst effectief omdat je, als je gegevens van een gegevensbron haalt, dat maar één keer per keer hoeft te doen, waarna je de pagina op een cdn kunt cachen en aan talloze mensen kunt aanbieden zonder je informatie opnieuw te hoeven ophalen. Het nadeel van deze aanpak is echter dat de informatie in de voorgegeven webinhoud kan verdorren, wat betekent dat robots zeker verouderde informatie krijgen totdat je de hele site opnieuw bouwt en opnieuw implementeert.

Dat maakt niet uit. Als je een paar honderd webpagina’s hebt die niet extreem typisch veranderen, maar als je miljoenen pagina’s hebt met extreem levendige informatie, dan reikt het niet echt, en dat brengt ons bij keuze. Nummer drie, web server side, rendering in deze standaard, wanneer de gebruiker een vraag stelt op een pagina, wordt de html geproduceerd op de webserver. Dit is ook uitstekend voor zoekmachine optimalisatie, want bots krijgen volledig gegenereerde html bij de eerste aanvraag. Bovendien zullen de gegevens altijd vers zijn omdat je elke keer een nieuw verzoek doet aan de webserver, maar het nadeel is dat je meestal veel minder betrouwbaar kunt brengen, en ook steeds weer dezelfde html kunt renderen.

Het is mogelijk om dit aan de kant van de webserver te doen. Caching is echter niet zo efficiënt als side caching op een cdn en zal veel meer kosten om op schaal te werken, en als dingen niet effectief gecached worden, betekent dat een langzamere eerste tijd tot betekenisvol materiaal, wat de zoekmachine optimalisatie negatief kan beïnvloeden, dus in het algemeen hebben we tussen deze 3 methoden een afweging tussen informatie, kwaliteitsefficiëntie en client-side interactiviteit. Maar wat gebeurt er? Als er een manier is waarop we onze cake kunnen hebben en er ook van kunnen eten, laat me je dan kennismaken met stapsgewijze vaste regeneratie. Dit is een gloednieuw type rendering dat beschikbaar is in de volgende js-structuur.

Weet je nog dat ik eerder zei dat het nadeel van vaste pagina’s is dat de gegevens uiteindelijk verouderd kunnen raken en dat je site opnieuw moet worden opgezet. Wat ISR doet is je in staat stellen om. Je kunt je webpagina’s statisch genereren, en ze dan op de achtergrond herstellen en herplaatsen als er nieuwe aanvragen binnenkomen. Dit betekent dat je alle efficiëntievoordelen van statische pagina’s krijgt, terwijl je er zeker van kunt zijn dat die pagina’s altijd uit nieuwe gegevens bestaan. Het elimineert alle afwegingen waar we het over hadden, maar het is niet zonder kosten.

Conclusie

Met zoveel mogelijkheden die nu beschikbaar zijn, is het een spannende tijd om deel uit te maken van de wereld van webontwikkeling! Het geeft ons meer vrijheid dan ooit om innovatieve, interactieve websites te maken die helpen om onze gebruikerservaring te verbeteren. We hebben nu de tools die we nodig hebben om het meeste uit onze projecten te halen en het is aan ons om ervoor te zorgen dat we ze gebruiken op een manier die onze klanten en gebruikers het beste ten goede komt. Hier is om deel uit te maken van deze dappere nieuwe wereld!