Filozofia funkcjonowania Google Inc.

Historia firmy rozpoczęła się w 1996r. jako projektu badawczego Lerry’ego Page’a i Sergeya Brina, doktorantów na Uniwersytecie Stanforda. Bazując na sposobie cytowania prac naukowych w innych publikacjach zrewolucjonizowali rynek wyszukiwarek analizując związki między stronami. Prekursorski w owym czasie mechanizm wyszukiwania BackRub opierał się na na stwierdzeniu, że hiperłącza w grafie webowym i ich opisy (tekst kotwicy) można utożasamiać z odpowiednio cytatami i adnotacjami do nich. Silnik wyszukiwarki odnajdywał adresy odnośników w sieci, zapisywał je celem analizy i zwracał adresy sieciowe, które zawierały hiperłącza do danej strony. Po zliczeniu liczby odnośników prowadzących do witryny wyznaczana była jej ranga.

Celem największej wyszukiwarki jest “zorganizowanie światowych zasobów informacji tak, by stały się powszechnie dostępne i użyteczne”.

Google reprezentuje idealistyczną postawę, otwarty styl działania i stanowi przeciwieństwo pracy w hermetycznie zamkniętych firmach programistycznych o hierarchicznych strukturach. Zamiłowanie do prostoty przejawia się w minimalistycznym wyglądzie produktów korporacji, za którymi w rzeczywistości stoi złożony algorytm działania.

Chociaż wyciąga konsekwencje stosowania nieetycznych praktyk manipulowania algorytmem wyszukiwarki, pozostaje bezstronna w obliczu decydowania o zasadności moralnej prezentowania w sieci niektórych stron i odmawia ich usunięcia z indeksu.

Indeks Google jest dynamicznie aktualizowanym obrazem stron w sieci WWW przez nieprzerwanie penetrujące sieć zautomatyzowane skrypty – roboty. Algorytmy funkcjonowania programów wyszukiwarki zmieniają się wraz z poszerzaniem się wiedzy programistów Google o czynnikach wpływających na użyteczność treści dla audytorium i sposobów pomiaru jej wartości.

Wyszukiwarka ciągle ewoluuje, aby jak najefektywniej dostarczać treści odpowiadających zapytaniu użytkowników, biorąc pod uwagę nieustannie powiększające się zasoby udostępniane w ramach sieci web.

Dostarczanie wyników

Z punktu widzenia internauty, wzorcowy serwis wyszukiwania dostarcza błyskawicznie trafnych odpowiedzi na nawet złożone zapytania. Zatem kluczem do sukcesu Google jest taka organizacja na bieżąco katalogowanych treści, by móc w możliwie najkrótszym czasie dostarczyć wiarygodnych wyników, z których wyeliminowane zostały treści nieatrakcyjne dla odwiedzającego. Dlatego też, programy indeksujące Google automatycznie obniżają w rankingu pozycje stron, na których wykryją oznaki optymalizacji ukierunkowanej na skrypt zamiast na użytkownika.

Dodatkowo, w funkcji wyszukiwania dynamicznego Google Instant wyszukiwarka wspomaga precyzowanie zapytania wyświetlając listing wyników SERP dla aktualnego hasła jeszcze zanim użytkownik zakończy jego wpisywanie.

Dzięki technologii Ajax, która umożliwia asynchroniczną komunikację z serwerem bazodanowym używając skryptów Java, czas oczekiwania na uzyskanie wyników wyszukiwania jest krótszy. Dzięki wyszukiwaniu semantycznemu, Google stara się wnioskować o kontekście wyszukiwanych słów, by bezpośrednio, jeszcze na swojej stronie, udzielić trafnej odpowiedzi. Nie ma konieczności otwierania nowej strony, a minimalistyczny layout umożliwia przejrzystą prezentację wyników.

Przyład grafu wiedzy Google

 

Google Knowledge Graph

 

Administratorzy optymalizujący witryny pod względem ruchu przychodzącego z Google mają do dyspozycji szereg etycznych Wskazówek dla webmasterów, podpowiadających, jak poprawić indeksację witryny przez bota. Porady dotyczą aspektów technicznych i jakościowych, mówią także o niedozwolonych praktykach sztucznego podwyższania pozycji strony w listingach wyników, które, jeżeli wykryte przez Google, prowadzą do ukarania strony.

Typowe są znaczne skoki pozycji nowoopublikowanych witryny, które mogą liczyć na fresh site bonus,  czyli przyznaną przez Google promocję na wyższe miejsce w wynikach SERP dla powiązanych kombinacji wyrazów kluczowych. Im bardziej konkurencyjne frazy, tym krócej witryna liczyć na przychylne oko Google i szybciej powróci na lokatę faktycznie wypracowaną podczas pozycjonowania.[2] Z drugiej strony, stosowany jest mechanizm filtrujący nowopowstałe strony, tzw. sandbox. Usuwa on z czołowych wyników dla fraz konkurencyjnych strony, które nie zdobyły jeszcze zaufania Google przez pozyskanie wartościowych backlinków. Ma to na celu ochronę internautów przed masowo zakładanymi farmami spamu i reklam. Obniżenia pozycji w skutek wygaśnięcia FSB lub skierowania strony do piaskownicy nie należy mylić z nałożeniem kary lub filtru na stronę.[3]

Jednakże profil działalności Google nie ogranicza się jedynie do udostępniania wyników indeksacji stron sieci WWW poprzez wyszukiwarki filmów, książek i artykułów naukowych. Istotnym z punktu widzenia pozycjonowania faktem jest rejestrowanie przez Google danych ściśle związanych z wyszukiwaną frazą – to m.in. rodzaj urządzenia, wersja przeglądarki i adres IP internauty. Przetwarzane są w bezpłatnych narzędziach analitycznych Google[4], które zostały przybliżone w kolejnych rozdziałach niniejszej pracy, a należą do nich:

Wybrane narzędzia Google

Nazwa narzędzia Skrót funkcjonalności
Narzędzia dla Webmasterów Feedback dotyczący sposobu postrzegania strony przez program indeksujący. Pozwala zwiększyć widoczność strony i dostarcza informacji do analizy źródeł problemów z indeksacją.
Google Analytics Narzędzie analityczne źródeł ruchu sieciowego na stronie, generuje szczegółowe raporty, także w czasie rzeczywistym. Możliwa integracja z kampanią AdWords.
Google Trends Przegląd trendów w hasłach zapytań internautów w ujęciu czasowym, z podziałem na tematykę i rejon geograficzny.

Zagregowane dane zapytań służą również do budowy modeli odzwierciedlających rzeczywiste zjawiska. Częstotliwość pojawiania się schematów w zapytaniach w większości pokrywa się z danymi z systemów tradycyjnych śledzenia zachorowań na choroby zakaźne. Zwiększona liczba zapytań o wirusa grypy w danym rejonie geograficznym najczęściej świadczy o natężonej zachorowalności na wskazanym obszarze. Obserwacje te nie są całkowicie wiarygodne i mogą generować fałszywe, zawyżone statystyki (nie każdy, kto kieruje zapytanie jest faktycznie chory). Jednakże, ze względu na prostotę gromadzenia takich danych, na ich podstawie szacuje się sezonowość występowania wirusa. Informacje te stanowią uzupełnienie działań epidemiologów w celu zwalczania choroby i uniknięcia epidemii.

Głównym źródłem zysków firmy są wpływy z płatności za usługi reklamowe w modelu CPC (dokładniej opisanego w ostatnim rozdziale). Firma otrzymuje prowizję za każde rzeczywiste kliknięcie w reklamę, zatem w jej interesie jest, aby wyświetlane reklamy były jak najdokładniej dopasowane do tematyki wyszukiwanego hasła, dlatego też wszelkie nieetyczne działania mające na celu sztuczne promowanie strony w rankingu reklamowym prowadzą do ukarania strony.

Czytaj więcej: Pozycjonowanie Black Hat SEO i jego konsekwencje