Kan Google zijn blind vertrouwen in het algoritme overleven?

De zoekmachine van Google is een triomf van technologie. Dat valt niet te ontkennen.

Het was de sluitsteen die de initiële structuur van het internet voltooide. Maar internet bevindt zich nu midden in een dramatische verbouwing en het is onduidelijk of Google Search de verversing krijgt die het nodig heeft om het aantrekkelijker dan ooit te maken of dat het een van de dingen is die wordt overgeschilderd.

Fotocredit: iStockPhoto / craetive

Google is 2011 ingegaan met twee grote problemen die de onmiddellijke relevantie van het bedrijf en de toekomst op lange termijn bedreigden:

1.) De zoekresultaten op Google.com werden steeds minder effectief omdat ze bezaaid waren met "webspam" en artikelen van "contentfarms" (sites die nep-inhoud creëren om zoveel mogelijk advertenties te kunnen weergeven).

2.) Sociale media hebben de traditionele zoekopdracht op internet vervangen voor veel verschillende soorten informatie en Google had geen legitiem spel op sociaal gebied.

Het bedrijf heeft het tweede probleem in juli met de lancering van Google+ enorm aangepakt. Na verschillende spraakmakende sociale vlammen - zoals Google Wave en Google Buzz - hebben ze het vrijwel genageld met Google+.

Voor alle duidelijkheid, we weten nog steeds niet of Google+ de massa zal kunnen veroveren, maar het is enorm populair geworden bij tech- en mediaprofessionals en het veroorzaakt nu al dat Facebook reageert en wijzigingen aanbrengt om zichzelf te bufferen tegen mensen die het verlaten voor Google+. Lees mijn artikel Waarom Google+ op het punt staat het web te veranderen zoals we het kennen, om meer te weten te komen over dit onderwerp.

Hoe groot sociale media ook zijn, de grootste uitdaging voor Google is de afnemende kracht van zijn zoekmachine. Google-zoekopdrachten zijn de afgelopen jaren een stuk minder nuttig en veel frustrerender geworden. Het is moeilijker geworden om dingen te vinden waarvan je weet dat die er zijn - zelfs dingen waarnaar je eerder hebt gezocht (en gevonden). Een ander voorbeeld zijn pagina's die recenter op internet zijn gepost. Ze worden overweldigd in het Google-algoritme door oudere pagina's die tijd hebben gehad om meer inkomende links te verzamelen.

Het grote probleem is SEO - zoekmachineoptimalisatie. Er is een hele huisindustrie ontstaan ​​rond het helpen van sites om hun pagina's te optimaliseren om zo hoog mogelijk in Google te worden gerangschikt. Als gevolg hiervan zijn de sites die bovenaan de zoekresultaten van Google terechtkomen meer geworden over welke sites het best kunnen worden geoptimaliseerd in plaats van welke de beste en meest relevante inhoud hebben.

Erger nog, er zijn hele bedrijven ontstaan ​​die zich volledig richten op het creëren van inhoud van lage kwaliteit die zeer geoptimaliseerd is voor Google en vol zit met advertenties om snel geld te verdienen. Deze "contentfarms" zijn big business geworden. Een van hen, Demand Media - die een hekel heeft aan het noemen van een content farm en het label schuwt - is nu een beursgenoteerd bedrijf en opschept over een nauwe samenwerking met Google.

Ik laat je zelf beoordelen of Demand Media een content farm is. Hieronder staan ​​vier artikelen van de vlaggenschipsite eHow. Zijn deze nuttig of nuttig? Zou een site die is bedoeld om lezers te dienen en niet alleen advertenties te tonen deze publiceren?

  • Hoe leeftijd vanaf geboortedatum te berekenen
  • Aanmelden bij AOL
  • Hoe AOL aan uw iPad toe te voegen
  • Hoe Belch

(We zullen het binnenkort hebben over de vraag of Google eHow als een contentfarm beschouwt.)

Het bedrijf erkent de groeiende risico's die dit soort zaken met zich meebrengen voor de relatie van Google met gebruikers, en uiteindelijk het bedrijfsmodel, en heeft in 2011 agressief actie ondernomen om de situatie op te lossen. Het begon met een tegenstrijdig blogbericht in januari waarin Google de kwaliteit van zijn zoekmachine verdedigde als "beter dan ooit in termen van relevantie" en tegelijkertijd de handschoen over webspam (sites die "vals spelen") posities in zoekresultaten ') en inhoudfarms (' sites met ondiepe of inhoud van lage kwaliteit ').

Toen liet het de echte bommen vallen - een reeks belangrijke updates voor zijn zoekalgoritme. Deze zijn de updates "Panda", "Farmer" of "Panda Farmer" genoemd (niet lachen). De eerste (Panda 1.0) kwam in februari en het vernietigde zoekverkeer naar een aantal sites, maar vreemd genoeg ontsnapte eHow (de site die het meest berucht was voor het label 'content farm') ongeschonden.

Google ontketende uiteindelijk Panda 2.0 in april, Panda 2.1 in mei, Panda 2.2 in juni en Panda 2.5 in september. Volgens SEO-analist Sistrix hebben deze Panda-updates eHow uiteindelijk verpletterd, die afhankelijk was van Google Search om het meeste verkeer te genereren. Ondanks berichten over eHow's verkeersdip eerder dit jaar, ontkende Demand Media dat het door de Panda-updates was gekwetst. Toen, eerder deze maand, gaf het bedrijf het verkeersprobleem van eHow toe, hoewel het probeerde het weg te vagen als "een intern technisch probleem". Het publiek is niet voor de gek gehouden, want de voorraad van Demand's Media is snel gedaald.

Dus Google heeft blijkbaar zijn grote spel in de pandajacht gepakt. Het probleem is dat het maanden duurde om het te doen en veel algoritme uitprobeert en dat er veel collaterale schade is aangericht tijdens het proces. Het is alsof Google naar zijn achtertuin keek, een paar paardebloemen zag en in plaats van handknippers te nemen en uit te knippen en te knippen, besloot Google om een ​​zeer geavanceerde kettingzaag te bouwen om ermee om te gaan. De kettingzaag heeft uiteindelijk de paardebloemen verwijderd, maar hij heeft ook een paar brokken uit de heggen geslagen, een paar gaten in de grond geslagen en een deel van het achterste hek verwijderd.

Wat de nevenschade betreft, is TechRepublic niet immuun geweest voor de gevolgen ervan. Deze site heeft een aantal kogels genomen in het kruisvuur tussen Google en eHow. TechRepublic heeft een lange geschiedenis van het publiceren van diepgaande tips, tutorials en best practices die een lange houdbaarheid hebben en waar Google altijd van heeft gehouden omdat ze veel links van internet krijgen. De inhoud van TechRepublic is precies het tegenovergestelde van zowel webspam (we zijn nooit goed geweest in SEO-optimalisatie) als een contentfarm (we richten ons op minder artikelen en inhoud van hogere kwaliteit), en toch hebben de Panda-updates de helft minder gebruikers die Google naar TechRepublic stuurt.

Ik wijs dit niet als zure druiven of om te zeuren over Google dat ons pakt. TechRepublic komt wel goed. We hebben een groot aantal loyale gebruikers die regelmatig op onze site komen - vooral abonnees op onze populaire e-mailnieuwsbrieven - en Google kan er uiteindelijk achter komen hoe het verschil kan worden vastgesteld tussen een contentfarmtip zoals die op eHow en de in- diepte-tutorials die u krijgt op TechRepublic.

Waar het allemaal op neerkomt, is het vertrouwen van Google in het algoritme. Google zegt dat het geen sites uitkiest om op te nemen of te weigeren in de zoekresultaten van Google. Het bouwt eenvoudig een algoritme dat systematisch de meest relevante dingen vindt en de minst relevante dingen negeert (of verwijdert). Google betoogt dat dit een eerlijker en objectiever systeem creëert en dat de introductie van menselijke filtering in het systeem bevooroordeeld en subjectief zou zijn. Hoewel dat misschien waar is, is de grote vraag of menselijk ingrijpen Google zoeken effectiever en uiteindelijk nauwkeuriger zou maken.

Het probleem met het algoritme (en kunstmatige intelligentie in het algemeen) is dat het geen gezond verstand of wijsheid heeft - althans nog niet. Ondertussen concurreren de systemen waarmee Google Zoeken steeds meer concurreert om informatie te ontdekken - sociaal zoeken en mobiele apps - in veel gevallen de collectieve wijsheid van de gemeenschap of gerichte experts om sneller betere informatie te leveren dan Google Zoeken.

Ondanks het vroege succes van het sociale experiment van Google+, laten de Panda-updates in 2011 zien dat Google nog steeds in het algoritme gelooft boven alles. Het bedrijf denkt dat het gooien van meer wiskunde, promovendi en servers naar elk probleem het juiste antwoord is. Zoals we hebben gezien, is die aanpak in 2011 begonnen te falen in Google. Het was een moeilijke tijd om contentboerderijen te targeten en het heeft per ongeluk een hoop nuttige inhoud in het proces verwijderd. De grote vraag is nu of Google van deze ervaring kan leren en veranderen, of dat het uiteindelijk zal vervagen tot een fallback-mechanisme dat mensen gebruiken wanneer ze de informatie die ze nodig hebben niet kunnen vinden via sociaal zoeken (vragen aan hun Twitter- of Facebook-vrienden) of een mobiele app.

Lees ook

  • iPhone-apps zijn de grootste bedreiging van Google voor mobiel zoeken
  • Waarom Google Plus het web gaat veranderen zoals we het kennen
  • Is inhoud reclame voor reclame geworden? (CNET)

© Copyright 2020 | mobilegn.com