Kiel Serĉiloj Trovas, Rampas, Kaj Indeksas Vian Enhavon?

Serĉa Motoro Optimization

Mi ne ofte rekomendas, ke klientoj konstruu siajn proprajn retkomercajn aŭ enhavajn mastrumajn sistemojn pro ĉiuj nevidataj etendeblaj ebloj necesaj nuntempe - ĉefe koncentritaj al serĉado kaj socia optimumigo. Mi verkis artikolon pri kiel elekti CMS kaj mi ankoraŭ montras ĝin al la kompanioj, kun kiuj mi laboras, kiuj estas tentataj nur konstrui sian propran sistemon pri administrado de enhavo.

Tamen estas absolute situacioj, kiam laŭmenda platformo necesas. Kiam tio estas la plej bona solvo, mi tamen pelas miajn klientojn krei la necesajn funkciojn por optimumigi iliajn retejojn por serĉado kaj sociaj retoj. Esence estas tri ĉefaj ecoj, kiuj estas neceso.

  • Robotoj.txt
  • XML Sitemap
  • metadatumoj

Kio estas dosiero Robots.txt?

Robotoj.txt dosiero - la robots.txt dosiero estas simpla teksta dosiero, kiu estas en la radika dosierujo de la retejo kaj diras al la serĉiloj, kion ili devas inkluzivi kaj ekskludi de serĉrezultoj. En la lastaj jaroj, serĉiloj ankaŭ petis, ke vi enmetu la vojon al XML-mapo en la dosiero. Jen mia ekzemplo, kiu permesas ĉiujn robotojn rampi mian retejon kaj ankaŭ direktas ilin al mia XML-mapo:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Kio estas XML-Sitemapo?

XML Sitemap - Same kiel HTML estas por vidi en retumilo, XML estas skribita por esti digestita programece. Sitemapo XML estas esence tabelo de ĉiu paĝo en via retejo kaj kiam ĝi estis lastatempe ĝisdatigita. XML-retejmapoj ankaŭ povas esti lekantaj ĉenoj ... tio estas unu XML-Sitemapo povas rilati al alia. Bonege, se vi volas organizi kaj disdoni la elementojn de via retejo logike (Demandoj, paĝoj, produktoj, ktp.) En siajn proprajn retejajn mapojn.

Retejmapoj estas esencaj por ke vi povu efike sciigi al la serĉiloj, kian enhavon vi kreis kaj kiam ĝi estis laste redaktita. La procezo, kiun serĉilo uzas kiam vi iras al via retejo, ne efikas sen efektivigi sitemapon kaj fragmentojn.

Sen XML-Reteja Mapo, vi riskas, ke viaj paĝoj neniam estu malkovritaj. Kio se vi havas novan produktan surteriĝan paĝon, kiu ne estas ligita interne aŭ ekstere. Kiel Google malkovras ĝin? Nu, simple metu ... ĝis ligilo trovos ĝin, vi ne estos malkovrita. Feliĉe, serĉiloj ebligas mastrumajn sistemojn de enhavo kaj komercaj platformoj tamen lanĉi ruĝan tapiŝon por ili!

  1. Google malkovras eksteran aŭ internan ligon al via retejo.
  2. Google indeksas la paĝon kaj rangigas ĝin laŭ ĝia enhavo kaj kio estas la enhavo kaj kvalito de la retejo de la referenca ligilo.

Kun XML-Reteja Mapo, vi ne lasas la malkovron de via enhavo aŭ la ĝisdatigon de via enhavo al hazardo! Tro multaj programistoj provas preni ŝparvojojn, kiuj ankaŭ vundas ilin. Ili publikigas la saman riĉan fragmenton tra la retejo, donante informojn ne rilatajn al la paĝaj informoj. Ili publikigas sitemapon kun la samaj datoj en ĉiu paĝo (aŭ ĉiuj ĝisdatigitaj kiam unu-paĝaj ĝisdatigoj) donas vicojn al la serĉiloj, ke ili ludas la sistemon aŭ nefidindas. Aŭ ili tute ne pingas la serĉilojn ... do la serĉilo ne rimarkas, ke novaj informoj estis publikigitaj.

Kio Estas Metadatenoj? Mikrodatumoj? Riĉaj Fragmentoj?

Riĉaj fragmentoj estas zorge etikeditaj mikrodatenoj tio estas kaŝita de la spektanto sed videbla en la paĝo por serĉiloj aŭ sociaj retejoj. Ĉi tio estas konata kiel metadatenoj. Google konformas al Schema.org kiel normo por inkluzivi aĵojn kiel bildojn, titolojn, priskribojn ... kaj ankaŭ multajn aliajn informajn fragmentojn kiel prezo, kvanto, lokinformoj, taksoj, ktp. Skemo signife plibonigos vian serĉilon-videblecon kaj la probablon, ke uzanto alklaku. tra.

Facebook uzas la OpenGraph protokolo (kompreneble ili ne povus esti la samaj), Twitter eĉ havas fragmenton por specifi vian Twitter-profilon. Pli kaj pli da platformoj uzas ĉi tiujn metadatenojn por antaŭrigardi enigitajn ligojn kaj aliajn informojn kiam ili publikigas.

Viaj retpaĝoj havas subestan signifon, kiun homoj komprenas kiam ili legas la retpaĝojn. Sed serĉiloj havas limigitan komprenon pri tio, kio estas diskutata en tiuj paĝoj. Aldonante aldonajn etikedojn al la HTML de viaj retpaĝoj - etikedoj, kiuj diras "Hej serĉilo, ĉi tiu informo priskribas ĉi tiun specifan filmon, aŭ lokon, aŭ personon, aŭ filmeton" - vi povas helpi serĉilojn kaj aliajn programojn pli bone kompreni vian enhavon. kaj montru ĝin en utila, trafa maniero. Mikrodatumoj estas aro de etikedoj, enkondukitaj per HTML5, kiu ebligas al vi fari ĉi tion.

Schema.org, Kio estas MicroData?

Kompreneble, neniu el ĉi tiuj necesas ... sed mi forte rekomendas ilin. Ekzemple, kiam vi dividas ligon en Facebook, kaj neniu bildo, titolo aŭ priskribo aperas ... malmultaj homoj interesiĝos kaj efektive klakos. Kaj se viaj Schema-fragmentoj ne estas en ĉiu paĝo, kompreneble vi ankoraŭ povas aperi en serĉrezultoj ... sed konkurantoj eble venkos vin kiam ili havos aldonajn informojn.

Registri Viajn XML-Retejajn Mapojn kun Serĉa Konzolo

Estas nepre, ke, se vi konstruis vian propran enhavon aŭ e-komercan platformon, ke vi havu subsistemon, kiu pingas la serĉilojn, publikigas mikrodatenojn, kaj tiam provizas validan XML-mapon por la enhavo aŭ produkta informo trovebla!

Post kiam via robots.txt-dosiero, XML-mapoj de retejo kaj riĉaj fragmentoj estas adaptitaj kaj optimumigitaj tra via retejo, ne forgesu registri vin por Serĉa Konzolo de ĉiu serĉilo (ankaŭ konata kiel reteja ilo), kie vi povas kontroli la sanon kaj videblecon de via retejo en serĉiloj. Vi eĉ povas specifi vian Sitemap-vojon se neniu estas listigita kaj vidi kiel la serĉilo konsumas ĝin, ĉu estas aŭ ne iuj problemoj kun ĝi, kaj eĉ kiel korekti ilin.

Ruligu la ruĝan tapiŝon al serĉiloj kaj sociaj retoj kaj vi trovos vian retejon pli bone, viajn enirojn en serĉaj rezultaj paĝoj alklakis pli kaj viaj paĝoj dividis pli en sociaj retoj. Ĉio sumiĝas!

Kiel Robots.txt, Sitemaps, kaj MetaData Kunlaboras

Kombini ĉiujn ĉi tiujn elementojn multe similas al rulado de la ruĝa tapiŝo por via retejo. Jen la esplora procezo, kiun robotprogramo prenas kune kun kiel la serĉilo indeksas vian enhavon.

  1. Via retejo havas dosieron robots.txt, kiu ankaŭ referencas al via XML-Sitemap-loko.
  2. Via CMS aŭ e-komerca sistemo ĝisdatigas la XML-Sitemapon per iu ajn paĝo kaj publikigas daton aŭ redaktas datinformojn.
  3. Via CMS aŭ e-komerca sistemo pingas la serĉilojn por sciigi ilin, ke via retejo estis ĝisdatigita. Vi povas pingi ilin rekte aŭ uzi RPC kaj servon kiel Ping-o-matic puŝi al ĉiuj ĉefaj serĉiloj.
  4. La Serĉilo tuj revenas, respektas la dosieron Robots.txt, trovas novajn aŭ ĝisdatigitajn paĝojn per la sitemapo, kaj poste indeksas la paĝon.
  5. Kiam ĝi indeksas vian paĝon, ĝi uzas riĉajn fragmentajn mikrodatumojn por plibonigi la paĝon de serĉiloj.
  6. Ĉar aliaj koncernaj retejoj ligas al via enhavo, via enhavo rangas pli bone.
  7. Ĉar via enhavo estas dividita en sociaj retoj, la riĉaj fragmentoj specifitaj povas helpi ĝuste antaŭrigardi vian enhavon kaj direkti ilin al via socia profilo.

2 Komentoj

  1. 1

    mia retejo ne kapablas indeksi novan enhavon, mi alportas retejan mapon kaj URLojn ĉe retejestro, sed tamen ne povas plibonigi ĉi tion. Ĉu ĝi estas google-malantaŭa problemo?

Kion vi pensas?

Ĉi tiu retejo uzas Akismeton por redukti spamon. Lernu, kiel via komento datiĝas.