Ĉu Google Vere Provas Plibonigi la Reton?

google avideco

Antaŭ iom da tempo, Google metis patenton pri analizo de domajna registrado kiel parto de la aŭtoritato de retejo. La rezulto estis, ke la tuta blogosfero kaj SEO-industrioj komencis konsili klientojn registri siajn domajnojn por la maksimuma tempo. Mi eĉ skribis pri ĝi lastatempe .. kaj estis repuŝita de bona amiko PJ Hinton de Kompendia Blogvaro (vidu la komentojn).

Nun Guglo iom pli progresas en sia aliro - kun Senforteco Cutts faligante aludojn, kiujn Google povus utiligi paĝajn ŝarĝtempojn kiel faktoron en rangotabelaj retejoj. Kvankam ĉi tio sonas tute varma kaj malklara, ĝi sincere koncernas min. Ĉu tio signifas, ke nur retejoj kun profundaj poŝoj povos rangi bone en la indekso de Google?

Ĉu ĉi tio estas la maniero de Google enmiksiĝi Net Neutrality? Aŭ ĉu ĝi simple provas ŝpari monon? Imagu la ŝparaĵojn al kompanio kiel Google, kiam iliaj rettrafosiloj kapablas rampi retejojn dum parto de la tempo, kiun ĝi bezonas nun ... la nombroj estas grandegaj.

Parto de la afero, laŭ mi, estas, ke Google trovas, ke ĝi devas esti pli kompleksa en siaj rampaj metodikoj. La retejo fariĝas multe pli kompleksa, kun dinamike generita enhavo, uzo de JavaScript kaj Ajax-teknologioj, sindikiĝo, Flash kaj Silverlight, kaj plurmedia. Se Google volas resti farebla serĉilo, iliaj metodoj pri rampado kaj indekso devas evolui. Tiu evoluo postulas multe pli da prilaborado, memoro kaj larĝa bando. Tio kostas monon.

Do, kiel unu el la plej riĉaj kompanioj en la mondo, Google komencas lasi la aludon ... malfacile. Rapidigu viajn retejojn kaj ni rekompencos vin per pli bona rango. Ĉi tio estas mirinda por kompanioj kun la infrastrukturo, kapablo kaj rimedoj ... sed kio okazas al la malgranda ulo? Kiel malgranda persona blogo gastigita ĉe GoDaddy por kelkaj dolaroj konkurencas kun kompanio gastigita sur platformo, kiu kostas milojn da dolaroj kun ŝarĝodividado, kaŝmemoro, interreta akcelo aŭ nubaj teknologioj?

Laŭ mia humila opinio, mi pensas, ke ĝi klinas la malbona flanko. Ni rompu ĝin:

  1. La retejo fariĝas pli kompleksa.
  2. Ĉi tio postulas Guglon progresigi siajn teknologiojn.
  3. Tio kostas al Google pli da mono.
  4. La alternativo estas puni retejojn, kiuj efikas malrapide, devigante ilin elspezi pli kaj rapidigi siajn retejojn, malpliigante la kostojn de Google.
  5. Tamen tio ne faras bonan PR.
  6. Anstataŭe, Google faras ĝin sub la aŭspicio de plibonigi la interretan sperton.

Ne temas pri vi kaj mi. Temas pri la fina rezulto de Google.

Dirite, eja rapideco is grava kaj Mi rekomendas homojn plibonigi la rendimenton de iliaj retejoj redukti resaltajn rapidojn kaj pliigi konvertiĝojn. Tiu decido estas lasita al via kompanio taksi kaj determini rendimenton de investo por.

Kiam Google komencas fari tion, ĝi ne plu estas komerca decido - ĝi estas komerca postulo kaj simple frapos malgrandajn entreprenojn, sendepende de ilia graveco, de la paĝo pri rezultoj de serĉilo. Mi ne kredas, ke ĝi estas justa - kaj ĝi estas verko de monopolo. Monopoloj prenas decidojn, kiuj efikas kun profito sen konsekvencoj, ĉar mankas konkurenco.

Google eble volas zorgi pri ĉi tiu ... Bing aspektas multe pli bela ĉiutage (kaj mi havas ĝin funkcianta.) safaro!).

17 Komentoj

  1. 1

    Mi komprenas.

    Mi translokiĝos al MediaTemple por mia ĉefa WordPress-retejo, malŝaltante plej multajn aldonaĵojn, hardcoding postulis funkciojn en la temdosierojn, forigos tiom multe da Ĝavaskripto, kaj movos kiel eble plej multajn statikajn paĝojn el la WordPress-datumbazo.

    Ĉi tio plialtigas miajn kostojn:
    1. Triobligas mian gastigan koston.
    2. Pliigas miajn kreadajn kaj prizorgajn kostojn por trakti statikajn paĝojn
    3. Pliigas (multe) la koston aldoni funkciojn.

    Spiral supren. Riĉuloj pliriĉiĝas.

    • 2

      Kaj ne forgesu Dave ... post kiam vi faros tion, vi povas verki aĉajn enhavojn! Vi ne plu devas labori pri verkado pli bone ... nur zorgu pri pli rapida!

      Ho jes ... kaj ne zorgu pri IE, Fajrovulpo aŭ Safaro ... simple rapidu en Google Chrome, ĉu ne?

  2. 3

    Bone verkita peco Doug. Kiel klare pruvite ĉi tie, Google nur pli kaj pli ekbatalos kontraŭ la promeso "fari nenian malbonon". Ĝi estos interesa vojo antaŭen de ili kaj mi ne povas ne pensi pri la similecoj kun Yahoo! En la 2001-3 kiel ilia marko unuafoje ekbruliĝis. Rigardu, kie ili nun estas.

  3. 4

    Tio estas interesa. Google komencis dirante al ni, al kiuj retejoj estas plej ligitaj. Ĝi malproksimiĝas de utiligi la voĉon de la homoj kaj anstataŭe trudi siajn proprajn regulojn. Ili decidas, kio taŭgas por siaj klientoj, ne lasante la klientojn decidi mem!

  4. 5

    Mi malamas esti malestimanto, sed kiam Google kutime ŝanĝas, la SE-mondo fariĝas paranoja - "paranoja" laŭ tiu CNN-maniero, kie ili faras monton el haŭtmakulo por altigi spektantaron kaj reklamajn enspezojn. Google malofte faras precizajn ŝanĝojn, kiuj revizias la pejzaĝon. Kutime la ŝanĝoj de Google estas farataj per larĝa peniko. Kaj se ĉi tiu alŝuta ŝanĝo fariĝos faktoro, ĝi probable troviĝos en gamo, al kiu plej multaj povas aboni. Mi pensas, ke eĉ la knaboj de Mountain View atentas sian merkatan kotizon kaj scias, ke se ili ne apelacios al la amasoj, ili povus perdi sian parton.

    Krome, neniu vere uzu GoDaddy por gastigi enhavon ĉiuokaze (parolante laŭ sperto). Mi estas konvinkita, ke ilia alŝuta tempo vundas mian sperton de uzanto eĉ kiam mi ne estas sur iliaj retejoj (kio espereble estas ĉiam).

  5. 7
  6. 8

    Mi pensas, ke ni traktas dulandan glavon. Unuflanke, vi havas kompanion, kiu kondutas kiel ... nu ... kompanio. Kostoj ĉiam estos konsidero kaj ili faros ĉion necesan por maksimumigi sian revenon, kaj ĉi-kaze la pli malrapidaj retejoj friponiĝos. Aliflanke, Google penas maksimumigi ilian servon, pli efikigante ĝin por la uzanto tiel plibonigante la sperton en la retejo. Kun la retejo pli kompleksa, Google devas protekti sian produkton kaj adaptiĝi al ŝanĝoj, kiuj influos la kvaliton de sia servo. Interretaj uzantoj taksas sian tempon, kaj filtrado de retejoj ne aparte efikaj aldonas valoron al la servo de Google. Mi ne vidas ĉi tion kiel speciale malbonan agon. Fari retejon pli rapide ne nepre estas multekosta procezo, ĉar ekzistas multaj manieroj pliigi rapidecon sen devi elspezi grandajn monsumojn.

  7. 9

    Mi pensas, ke ĉi tio estas unu el la malbonaj aferoj, kiujn mi vidis Google fari delonge. Ili estas en pozicio influi la retejon por pli bone. Eĉ se la pezo de paĝa rapideco ne influas rangotabelojn, la rezulto estos pli granda konscio pri reteja rapideco tra la industrio. Pli rapida retejo profitigas nin ĉiujn.

    Projekti retejon, kiu rapide ŝarĝas, eĉ ne estas tiel malfacila. Konsiderante la nunan staton de la retejo, la averaĝa retejo (eĉ plej multaj knaboj) faras aferojn tiel terure malbonajn, ke estas * tuno * da malmultaj fruktoj. Instalu la kromaĵojn YSlow kaj Google PageSpeed ​​en Fajrovulpo, kaj poste sekvu iujn el la rekomendoj, kiujn ili donas al vi. Eĉ nur sekvante kelkajn el ili, vi povas fari grandan plibonigon en preskaŭ ajna retejo post kelkaj horoj.

    • 10

      Denove ... mankas al vi la afero. 99% de kompanioj NE havas la rimedojn por optimumigi siajn retejojn por rapideco - ili simple provas resti en komerco. Mi ne malkonsentas, ke rapideco gravas ... Mi klopodis per mia propra retejo por integri kun Amazon por akiri miajn paĝajn tempojn sub 2 sekundoj. Mi nur argumentas, ke ĉi tio estas eblo por ĉiuj. Ĝi ne estas!

      • 11

        Do, kio estas la URL al la retejo, kiun vi optimumigis kun Amazon por akiri la paĝan ŝarĝotempon malpli ol 2 sekundojn?

        Mi komprenis la aferon, kiun vi celas perfekte, sed mi malkonsentas kun vi. Multajn el la optimumigoj, kiujn rekomendas YSlow, povas fari iu, kiu havas la teknikan kompetentecon verki bazan HTML. Kompanio vendanta interrete devas havi iun, kiu povas redakti HTML, alie ili havas multajn pli grandajn problemojn ol ne tre alte en la SERPoj 🙂

        YSlow havas multajn dokumentojn por trakti vin tra la procezo, kaj ekzistas eĉ libroj kiel "Altaj Retejoj", kiuj estas bone verkitaj kaj rapidaj legaĵoj, kiuj donas al vi pli ol sufiĉan por kompreni la procezon. Mi pasigis posttagmezon tralegante tiun libron antaŭ ĉirkaŭ unu jaro, kaj mi forte rekomendas al ĉiuj, kiuj eĉ tuŝas retejon.

        Mi supozas, ke ĉio, kion mi diras, ne rapidu juĝi, kia efiko estos al retejposedantoj sen kompreni la plenan procezon.

        • 12

          Saluton Dan,

          Mi movis mian tutan bildoj kaj temaj dosieroj al Amazon S3. La kombinaĵo de ilia potenco kaj ŝarĝo de multaj subdomajnoj reduktis miajn ŝarĝajn tempojn de 10 sekundoj + al malpli ol 2 sekundoj paĝo! Re: "Kompanio vendanta interrete ..." - ĉiuj vendas interrete nun Dan. Ĉiuj havas retejon ... kaj plej multaj ne havas la tempon nek la rimedojn por fari tiujn ŝanĝojn.

          Doug

  8. 13

    Mi ne certas, ke mi vidas ĉi tion kiel malbonan aferon. Kiel serĉila uzanto mi volas, ke iu ajn ligilo, kiun mi alklakas (ĉu de serĉilo aŭ ie ajn), ŝarĝas tre rapide. Se du paĝoj estus eĉ en ĉiuj aliaj aspektoj de la serĉo-rangiga algoritmo, sencas al mi, ke tiu, kiu ŝarĝas pli rapide, estus pli alta.

    Mi ne kaptis ĉiujn intervjuojn de Cutts. Ĉu li efektive diras, ke paĝaj ŝarĝaj tempoj estos pli forta faktoro en serĉaj rangoj ol graveco, aŭtoritato aŭ iuj el la aliaj faktoroj, al kiuj ni nun kutimas?

  9. 14

    Estas konata faktoro, ke pli rapida paĝtaga tempo egalas al pli bonaj konvertiĝaj indicoj.

    Kiel posedanto de retejo, vi volas tion ... Laŭ la perspektivo de Google, ĝi estas algoritmo, ĉar la pli rapidaj ŝarĝaj paĝoj donas pli bonan sperton.

    Doug, vi antaŭe laboris kiel SAAS ... se io malrapidas, ĝi ofte kulpas pri la apliko, ne pri la dependaj faktoroj. Kiel ĝenas via sperto, kiam vi devas atendi 10 sekundojn por ŝarĝi enhavon post serĉado ... Mi pensas, ke valoras paĝrango aldoni ĉi tion al la ekvacio kaj ne "malbonan" kiel ĉiuj diras. La paĝo de Guglo estas ŝarĝita per teknologio kaj larĝa bando - sed estas rapide kaj ili volas, ke homoj konstruu paĝojn kaj programojn pli tiel ...

    • 15

      Neniu malkonsento pri rapideco kiel faktoro, Dale. Mi simple malkonsentas, ke serĉilo devas zorgi pri rapideco. Kaj ne ĉiuj paĝoj kaj programoj de Google estas rapidaj. Mi devis reskribi grandan parton de la KML-analizilo de Google Map API por efektive ekfunkciigi ĝin preter kelkaj dekoj da diskoj. Ĉu ili lasos homojn per Google Maps se Yahoo! Mapoj havas pli rapidajn ŝarĝajn tempojn? Mi pensas, ke ne!

  10. 16

    Mi konsentas kun Christophe. Fakte Guglo estas uzata de milionoj da homoj tutmonde, do jes ĝi ne estas perfekta, sed ĝi atingis bonegajn aferojn ĝis nun. Google volas monon? Kiu diable ne hodiaŭ; Nur ĉar ili estas unu el la plej grandaj kompanioj en la mondo, ili povus, mi ne scias, esti afablaj kaj ne avidaj? 21a jarcento!

  11. 17

    Sed kiel fantaziaj retejoj de malgrandaj kompanioj devas esti ĉiuokaze? Plej multaj malgrandaj kompanioj havos simplajn retejojn, kiuj ne daŭros longe por ŝarĝi. Aliflanke monolitoj kiel Microsoft havas grandegajn retejojn kun amasoj da enhavo, kio do bezonas multe pli longe ŝarĝi ol via averaĝa malgranda komerca retejo. Tial granda kompanio havos malavantaĝon kiam temas pri redukto de paĝaj ŝarĝaj tempoj.

    Mi ne pensas, ke ekzistas grandega kialo por ke Google uzu paĝotempojn kiel rangan faktoron, sed mi certe ne pensas, ke ĝi estas malbona. Kaj eĉ se ĝi efektive, ĝi influos grandajn kompaniojn nur ĉiuokaze.

Kion vi pensas?

Ĉi tiu retejo uzas Akismeton por redukti spamon. Lernu, kiel via komento datiĝas.