Postanowiliśmy rozpocząć cykl podcastów na temat działań marketingowych w sieci. Na początek przygotowaliśmy dla was krótką historię o początkach SEO w Polsce. Możecie posłuchać podcastu poniżej, albo przeczytać transkrypcję nagrania. Miłej lektury!
Michał Szewczyk: Cześć. Z tej strony Michał Szewczyk, agencja Silence! To jest podcast „Prosto o SEO”. Dzisiaj będziemy trochę wspominać, ponieważ zajmiemy się tematem, jak wyglądało pozycjonowanie stron internetowych kiedyś, w przeszłości. Razem ze mną jest Grzegorz. Cześć, Grzegorz.
Grzegorz Skiera: Cześć wszystkim.
Michał: Grzegorz, który w branży działa już od ilu? Szesnastu, siedemnastu lat?
Grzegorz: Pierwsze kroki w pozycjonowaniu stawiałem w 2004, czyli szesnaście lat.
Michał: Czyli tak naprawdę dla wielu osób, które w tej chwili pozycjonują strony internetowe, jest to pokaźne doświadczenie. Mam nadzieję, że nam trochę poopowiadasz o tym, jak to wyglądało w przeszłości, bo mam wrażenie, że branża się mocno teraz sprofesjonalizowała. O tym jeszcze będziemy rozmawiać. Natomiast początki wyglądały naprawdę interesująco. Także może zacznijmy od ciebie – jak to się zaczęło, jak to się stało, że zacząłeś pozycjonować strony internetowe, kiedy to było, co było takim impulsem.
Grzegorz: Ok. W tym 2004 roku byłem chłopakiem, który kończył studia. Szukałem swojego miejsca na rynku. Potrafiłem wtedy programować i dużo klientów pytało o strony internetowe. Wtedy Internet i strony internetowe to była trochę nowość dla polskiego biznesu. Ja te strony internetowe tworzyłem i po każdym zrobieniu takiej strony, klienci pytali: „No dobra, ale co dalej? Skąd wziąć tych użytkowników na stronę?”. Zainteresowałem się pozycjonowaniem i zacząłem w tym temacie się rozwijać.
Temat dużo bardziej mi przypadł do gustu, jako takiemu początkującemu freelancerowi, i zostałem z tym tematem do dzisiaj –z pozycjonowaniem, później ogólnie z marketingiem w Internecie.
Michał: I powiedz, jak to było kiedyś? Jak to się robiło? Bo teraz mamy masę narzędzi, które bardzo precyzyjnie potrafią nam określić, jakie wymagania musimy wprowadzić, jak optymalizować stronę. Wówczas tego nie było. Czym można było się wspierać? W jaki sposób pozycjonowało się strony?
Grzegorz: Tak jak powiedziałeś – teraz jest masa narzędzi. Wtedy tych narzędzi nie było i generalnie mocno bazowaliśmy na takiej pracy własnej. Jeżeli klient miał stronę internetową, to się optymalizowało, tak jak dzisiaj się optymalizuje – dobierało się słowa kluczowe. To też się wtedy robiło przez planer słów kluczowych. Należy pamiętać o tym, że w Polsce w tamtych czasach trzeba było pozycjonować na trzy różne wyszukiwarki. Była wyszukiwarka Google, które miała około siedemdziesięciu procent udziału w rynku. Była wyszukiwarka Onetu, która miała około dwudziestu paru procent udziału w rynku. I była też wyszukiwarka WP, która miała do dziesięciu procent udziału w rynku. Każda z nich rządziła się swoimi prawami, ale w tej optymalizacji wiele punktów było wspólnych. Optymalizowało się stronę pod kątem tych wyszukiwarek, uzupełniało się znaczniki title, description…
Michał: Na razie brzmi to bardzo podobnie.
Grzegorz: Tak. Znaczniki keywords, których na przykład dzisiaj już nie optymalizujemy, bo w okolicach 2010 roku Google ogłosił, że nie bierze tego pod uwagę. Wirtualna Polska była o tyle fajna, że wystarczyło się zarejestrować w ich katalogu - koszt wysłania SMS-a to było dziewięć złotych. Rejestracja w katalogu powodowała, że już następnego dnia strona pokazywała się w ich wyszukiwarce. Jeżeli te wyniki nie były dla nas satysfakcjonujące, to płaciliśmy kolejne dziewięć złotych, ten wpis w katalogu zmienialiśmy i działaliśmy do skutku.
Michał: A powiedz, bo ja takie historie słyszałem, wiem, że tak to wyglądało – w pewnym momencie po prostu kupowało się tysiąc linków – mam takie wrażenie, że w ciągu jednego dnia – to było wrzucane i tak naprawdę strona zaczynała pracować.
Grzegorz: Tak. Jeszcze do tego przejdę.
Michał: Od razu powiem, że w tej chwili wiązałoby się to z dużym problemem ze strony Google.
Grzegorz: Najpierw zdobywało się te linki ręcznie. Był taki spis katalogów – tam było około dwóch tysięcy katalogów w Polsce w tamtym czasie, mówię o latach 2006-2007. Sukcesywnie się do tych katalogów swoją stronę dodawało i ona sukcesywnie zdobywała coraz lepsze efekty. Z czasem powstały skrypty – bo generalnie pozycjonerzy tworzyli wtedy jakby swoje zaplecza w oparciu o swoje skrypty, swoje programy. Te zaplecza mogły być oczywiście czyste, ładne, zrobione podobnie do stron klientów. Ale były też zaplecza, które były typowymi mieszarkami – zaciągały skądś teksty i generowały jak najwięcej tego site’u i content’u. Na tym się wstawiało linki.
Michał: Czyli one po prostu brały jakieś określone słowa i dopasowywały w jakikolwiek sposób, tak żeby to było zrozumiałe? Czy mieszały w dowolny sposób?
Grzegorz: Mieszały w dowolny sposób. Wtedy Google totalnie nie rozróżniał naszego bełkotu, który tworzyliśmy, względem tego, co było normalnym językiem, że tak powiem, pisanym.
Michał: Czyli psuliście Internet?
Grzegorz: [śmiech] No, można tak powiedzieć. Polegało to na tym, że w takim skrypcie na przykład wpisywałeś słowo kluczowe, na którym ci zależało. Ten skrypt łączył się z Google, zaciągał wyniki wyszukiwania z Google, łączył się z tymi stronami, zaciągał teksty z tamtych stron, mieszał to jakąś mieszarką i takie coś wisiało w Internecie, to było indeksowane przez Google’a. Oczywiście, można było w tamtym czasie też dostać bany, bo Google już miał jakieś systemy filtrowania. Ale idąc dalej w zdobywanie linków i te katalogi, to z czasem ktoś stworzył katalog, który mogłeś sobie wziąć do siebie na swój serwer i go uruchomić. Ludzie zaczęli na siłę tworzyć takie katalogi. Powstało ich tysiące. Potem twórca tych katalogów wymyślił, że zacznie robić do nich dodawarkę i zaczął ją sprzedawać. Wtedy wszyscy te dodawarki kupowali. Dodawało się do nich nasze strony internetowe.
Jednym kliknięciem można było taką kampanię link building’u uruchomić. Jak ją uruchomiłeś, i chcesz jednego dnia wziąć ileś tysięcy linków, to tyle dostałeś.
A jak chciałeś to zrobić, tak aby było bardziej zgodne z Google’m – czyli na przykład po dziesięć, pięćdziesiąt linków dziennie - to też to w taki sposób działało. Później powstały tzw. precle. Ktoś wymyślił, że jak masz stronę internetową, możesz zrobić podstronę i na tej podstronie będzie tekst na jakieś słowo kluczowe i tam wstawisz linka. To się nazywało presell pages, czyli takie strony jakby „wyprzedane”. Ktoś wymyślił, że zrobi stronę tylko z takimi podstronami i tak powstały tzw. „polskie precelki”, bo to było tylko na polskim rynku. Jak powstały „polskie precelki”, tak za chwilkę powstała dodawarka do „polskich precelków”. Dodawało się znowu teksty do precli. Były precle bardziej zadbane i mniej zadbane, gdzie dodawało się teksty z mieszarek. W ten sposób zdobywało się linki. Z czasem Google wyłapał się w tych tematach.
Michał: Czy to, co mówisz, jest bardziej na zasadzie Polak potrafi, czy to było praktykowane także ogólnie, globalnie, na świecie? Czy to było polskie podejście – w jaki sposób wypozycjonować te strony skuteczniej i szybciej?
Grzegorz: Część tych rzeczy była typowo polska. Precle, z tego co wiem, były znane tylko na rynku polskim. Black Hat SEO czy też Grey Hat SEO istniały na całym świecie. Nawet Neil Pater chyba swego czasu gdzieś w swoim podcaście opowiadał, jak się wypozycjonował na słowo „casino” na pierwsze miejsce. Tego nie udałoby się zrobić normalnym link building’iem.
Michał: Ja pamiętam, że była taka głośna sprawa z Leszkiem Millerem bodajże. Ktoś wypozycjonował jego imię i nazwisko?
Grzegorz: To nie z Leszkiem Millerem, tylko chyba z Bogusławem Komorowskim, jak startował na prezydenta. Ktoś właśnie brzydkim słowem, że tak powiem, wypozycjonował jego stronę. Tę osobę złapali i chyba poniosła tego konsekwencje.
Michał: Teraz, nawet gdyby chciał, byłoby to trudne do zrobienia.
Grzegorz: To się nazywało „Google bombing’iem” i to chyba nadal jakoś istnieje, tylko jest ukrócone. Na ten Google bombing było wiele tematów. Strona Donalda Tuska na pierwszym miejscu była na słowo „kłamca” czy strona Andrzeja Leppera była na pierwszym miejscu też na jakieś nieładne słowo – pomimo tego, że te słowa w ogóle nie istniały na ich stronach. Na słowa „siedziba szatana” była na pierwszym miejscu strona Radio Maryja. Także były takie przypadki. Ten Google bombing do dzisiaj istnieje i nawet widziałem przykłady, ale Google bardzo szybko sobie z tym radzi i to ukraca.
Michał: Przyszedł taki moment, że Google wprowadził dwie zmiany. Jedną tak potocznie nazywamy Pingwinem, drugą Pandą. Dwa zwierzątka, ale zrobiły naprawdę wielkie zamieszanie wśród pozycjonerów w całej branży. Ale też w jakiś sposób uporządkowały sytuację. Na czym to polegało?
Grzegorz: Google wprowadził kilka zmian algorytmów. W oparciu o tę nomenklaturę Pingwin i Panda wprowadzały te zmiany kilkukrotnie w latach 2011-2015. Pamiętam, że chyba taka największa zmiana miała miejsce w roku 2012, kiedy Google całkowicie zmienił sposób interpretacji linków. Nawet dla webmasterów zmienili wytyczne w jaki sposób linkować. To spowodowało trochę przetasowań w Internecie. Pamiętam, że w tamtym czasie miałem klientów, których prowadziłem od tego 2006 roku. Żebyście nie myśleli, że tylko robiliśmy takie mieszarki, bo za to też można było dostać karę. Nawet pomimo tego, że miałem klientów, których pozycjonowaliśmy w taki w miarę „czysty” sposób, czyli wykorzystując lepszej jakości katalogi stron, zdobywając linki zgodnie z wytycznymi, to i tak ci klienci dostali wtedy karę - spadli w wynikach wyszukiwania i trzeba było to odkręcać. Pamiętam, że w tamtym czasie dużo było działań, które polegały na tym, że trzeba było się zrzekać linków. Narzędzie Disavow Tool było wtedy bardzo popularne. Dzisiaj to nie występuje. Już nie pamiętam, kiedy ostatnio widzieliśmy jakąś karę ze strony Google’a i tych linków musieliśmy się zrzekać. Ale wtedy Google też zaczęło mocniejszą komunikację z otoczeniem – z webmasterami, z pozycjonerami. Dawało wytyczne i użytkownicy zaczęli bardziej na to zwracać uwagę.
Michał: Masz takie poczucie, że to są dwa odrębne światy – pozycjonowanie przed Pandą i po Pandzie?
Grzegorz: Nie. Właśnie trochę mnie to śmieszy. Jak sobie wracam do tych czasów, to taka mała łezka mi się w oku kręci. Zdobywanie linków w tych „precelkach”, niczym się nie różni od tego, że zdobywamy linki na portalach internetowych przy użyciu takich platform jak WhitePress czy Linkhouse. Po prostu płacimy za to dużo, dużo więcej. Wtedy też się tworzyło artykuł, wstawiało na stronę…
Michał: Wiesz, wtedy troszeczkę szło się w tą ilość, a nie jakość.
Grzegorz: Tak.
Michał: Teraz analizujesz gdzieś profil linkowy, analizujesz otoczenie linka. Analizujesz bardzo dokładnie portal, w którym zamieszczasz artykuł sponsorowany i cała filozofia wstawienia nawet jednego linka jest bardzo rozbudowana.
Grzegorz: Tak, zgadzam się z tobą. Tak to wygląda – przygotowujesz, przypuśćmy, jeden artykuł i zastanawiasz się, gdzie go umieścić…
Michał: Cała obudowa słów, semantyka i tak dalej.
Grzegorz: Tak, tak – i nad tym pracujesz, ale działania są bardzo podobne. Też znajdujesz miejsce, w którym ten artykuł wstawiasz z linkiem, z odpowiednim anchor’em kierującym do wybranej strony, tylko zdobywasz tego mniej i za większe pieniądze. Ale jeśli popatrzysz sobie na to w dłuższej perspektywie czasu, na przykład roku, to tych linków zdobywasz sporo. Także jest to bardzo podobne. Katalogi zostały do dzisiaj, tylko w mniejszej ilości. Trzeba wyszukać katalogi lepszej jakości i w ten sposób na to patrzeć. Ale też troszkę się zmieniło, bo więcej działasz z content’em – więcej content’u budujesz na stronie i dzięki temu zdobywasz większe zasięgi w wyszukiwarce.
Michał: Jest też tak, że może te narzędzia, które się pojawiły, sprawiły, że siłą rzeczy trzeba było bardziej opierać się na jakichś konkretnych danych, cała branża dużo więcej się nauczyła i zaczęła się profesjonalizować? Bo mam wrażenie, że w tej chwili są to już naprawdę zaawansowane strategie dotyczące zarówno optymalizacji, jak i link building’u.
Grzegorz: Tak. Z czasem zaczęły powstawać te narzędzia do analizy linków przychodzących. Kiedyś można było z poziomu wyszukiwarki Google czy innej wyszukiwarki, na przykład Bing’a, sprawdzić linki prowadzące do strony dowolnego klienta. Dzisiaj już tak tego nie zrobimy. Powstały nowe narzędzia, takie jak Ahrefs czy Majestic. Tak, masz rację. Branża się bardziej sprofesjonalizowała. Więcej jest tych narzędzi, za pomocą których możemy robić pozycjonowanie w oparciu o dane.
Michał: A w takim razie to, że jesteś tak długo w branży… [śmiech] Nie chcę tutaj wypominać, bo to tak jakbym ci wypominał wiek. Te siedemnaście lat – to jest na pewno wartość, bo przeszedłeś cały ten etap i wiesz, jak to wyglądało wcześniej. Teraz właściwie działasz na bazie tych doświadczeń, ale jednak zupełnie inaczej. W takim razie jest ci łatwiej w tej chwili dzięki temu, że miałeś za sobą ten okres „partyzancki”, powiedzmy.
Grzegorz: Wydaję mi się, że tak, mam łatwiej – przede wszystkim dlatego, że mam doświadczenie.
Niejednokrotnie dzisiaj spotykając się z różnego rodzaju stronami internetowymi, czasami widzę, że pojawiają się na nich takie błędy, które widywałem też wiele lat wcześniej.
Moje doświadczenie pozwala podpowiedzieć czy szybciej znaleźć problem. Pod kątem link building’u się zmieniło – tu trzeba cały czas się dostosowywać. Może być tak, że za chwilę Google wymyśli całkowicie nowy algorytm, bo cały czas walczy z tym link building’iem. Od początku działania link building’owe im się nie podobały. Czytając wytyczne, można zauważyć, że oni nalegają na to, żeby te linki zdobywały się w sposób naturalny. Ja się w tym fajnie odnajduję, bo wiem, że trzeba po prostu cały czas działać troszeczkę wbrew nurtowi Google. Jak Google coś komunikuje, to ja zawsze uważam, że trzeba z dwa, trzy razy obejrzeć to z różnych stron, sprawdzić, przetestować i wtedy podjąć decyzję czy to naprawdę działa, czy też nie. Google komunikowało na przykład ostatnio o mobile-first. Oznajmił, że na każdej stronie musi być wersja mobilna i będzie brał to pod uwagę. My widzimy, że nie zawsze to wpływa na działania SEO i ostatnio Google ogłosiło, że w 2021 już naprawdę będą brali pod uwagę te wersje mobilne.
Michał: Te komunikaty Google są często mylące. Tak było też z paginacją i z prev/next. Chyba po roku dopiero okazało się, że Google zakomunikował, że od roku nie bierze tego pod uwagę. A przez cały rok wszyscy optymalizowali i dostosowywali to pod tym kątem.
Grzegorz: Tak, tak. Te czasy partyzanckie przypominają mi, że na to co mówi Google, mówię „ok, spoko, my sobie to sprawdzimy”. Nie bierzemy tego tak na siłę pod uwagę. Też na przykład Google swego czasu mocno forsował, że szybkość strony musi być jak najlepsza, a my mamy case’y, gdzie strona czasami ładowała się po kilka sekund i nie straciła pozycji. Nawet sam mi dałeś linka do wywiadu z webmasterami Google, którzy też powiedzieli, że ten wynik ze strony Google PageSpeed Test to...
Michał: To jest tak naprawdę kwestia tendencji i przede wszystkim UX, a niekoniecznie tylko SEO, tak?
Grzegorz: Tak.
Michał: W takim razie, już tak podsumowując - jakbyś bazując na swoim doświadczeniu, miał określić, w jaką stronę będzie się rozwijać pozycjonowanie stron? W którą stronę pójdzie SEO?
Grzegorz: Oj, to trudne pytanie. Nigdy nie byłem w czymś takim dobry. [śmiech]
Michał: Bo wydaję mi się, że wchodzimy teraz w coraz większą detaliczność, coraz więcej parametrów mierzymy. Też pojawił się ten aspekt miękki, czyli content marketing i jak najlepsze dopasowanie treści, zgodność semantyczna. Więc wchodzimy coraz głębiej w szczegóły. Czy to będzie kontynuowane, czy myślisz, że w pewnym momencie Google stwierdzi, że obiera jakąś inną taktykę?
Grzegorz: Zgadzam się z tobą, ale myślę, że też powinniśmy patrzeć na Google’a. Jak Google’owi będzie zależało na tym, żeby użytkowników zatrzymywać na ich portalu, na ich wyszukiwarce? Można zauważyć, że Google robi coraz to więcej dodatków do swojej wyszukiwarki, gdzie z poziomu wyszukiwarki mamy już informację i nie musimy przechodzić na stronę internetową – choćby informacja o pogodzie, o lotach, o wynikach meczów.
Michał: Albo direct answer, czyli taka pozycja „zero”.
Grzegorz: Tak.
Moim zdaniem Google za chwilę nie powinno się nazywać wyszukiwarką, tylko portalem. Kiedyś to była tylko lista wyników wyszukiwania, gdzie przechodziłeś na stronę internetową. Aktualnie z poziomu wyszukiwarki możesz dostać informacje, na których ci najbardziej zależy, nie przechodząc na żadną stronę.
Ja się do końca z tym nie zgadam, bo moim zdaniem to jest trochę łamanie praw autorskich – zaciągają oni z każdej strony informację, jaka im się podoba, nie informując o tym. Gdybyś ty na przykład na swojej stronie wstawił jakiś tekst z Onetu, to podejrzewam, że za chwilę Onet by cię gonił, nie? A tutaj jest tak, że Google sobie bierze te informacje. Oczywiście, możesz całkowicie zablokować stronę przed robotem Google’a, ale to nie będzie dla ciebie korzystne. Także wydaję mi się, że Google tutaj wykorzystuje swoją pozycję na rynku i trzeba patrzeć na to, że będzie mocno szedł w reklamy Google Ads, bo to jest jego główne źródło dochodu. Dochód z Google Ads dla Google jest chyba na poziomie dziewięćdziesięciu procent całego obrotu. Także na pewno Google będzie mocno cisnął w te reklamy, ale równocześnie będzie się zmieniał pod kątem bycia portalem.
Michał: Wróciłbyś do tych dawnych czasów czy to, co jest teraz, jest wersją optymalną?
Grzegorz: [śmiech] Każde czasy mi się podobały.
Michał: Każdy czas jest dobry na pozycjonowanie?
Grzegorz: Tak. W pozycjonowaniu fajne jest to, że zawsze trzeba szukać jakichś dróg do osiągania lepszych efektów, zawsze w każdym czasie coś innego działa i trzeba tego cały czas szukać, to się cały czas zmienia i rozwija. Najlepsze jest to, że nie ma gotowców. Nie uczą tego na żadnej uczelni, nie ma ustawy o pozycjonowaniu, że powinieneś to robić w określony sposób. Możesz to robić w taki sposób, że przynosi ci to efekty i czerpiesz z tego niesamowitą przyjemność.
Michał: I bazujesz na swoim doświadczeniu.
Grzegorz: Tak, dokładnie. [śmiech]
Michał: Ok. Dzięki bardzo w takim razie. To był podcast „Prosto o SEO”. Moim i waszym gościem był Grzegorz Skiera. Wracamy już za niedługo, także do usłyszenia.
Grzegorz: Dzięki bardzo. Cześć.
Podcast został zrealizowany w studiu nagraniowym Stereosound.
Dodaj komentarz