Czy jest to nieunikniona cena postępu, czy może sygnał, że coś w cyfrowym ekosystemie wymaga fundamentalnej zmiany? W tym artykule przybliżę Wam, jak aktualizacje Google wpłynęły na internet, jaki znamy, i co to może oznaczać dla przyszłości dostępu do informacji online.
(Not so) Helpful Content Update
W sierpniu 2022 roku Google wprowadziło aktualizację swojego algorytmu znaną jako Helpful Content Update (HCU). Wywołała ona ogromne poruszenie w świecie internetu. Wbrew oczekiwaniom i oficjalnym komunikatom Google, które sugerowały, że aktualizacja ma promować wartościowe treści tworzone przez ekspertów i pasjonatów, rzeczywistość okazała się brutalna.
Wiele blogów prowadzonych przez pasjonatów oraz portali specjalistycznych z dnia na dzień straciło swoje zasięgi. Co za tym idzie, zanikł ruch organiczny, będący podstawą monetyzacji tego typu serwisów. Paradoksalnie to właśnie ich treści, bogate w wiedzę ekspercką i autentyczne doświadczenie, miały być w pierwotnym zamyśle faworyzowane przez nowy algorytm. Sytuacja wywołała falę krytyki i dyskusji na temat rzeczywistych intencji i efektów działań Google w zakresie oceny jakości treści w sieci.
Czym jest HCU (według Google)?
Google definiuje Helpful Content Update (HCU) jako aktualizację mającą na celu promowanie treści, które są tworzone z myślą o użytkownikach, a nie o algorytmach wyszukiwarek. Głównymi zadaniami HCU miały być:
- poprawa jakości wyników wyszukiwania poprzez nagradzanie stron, które dostarczają wartościowe, unikalne i użyteczne informacje;
- obniżanie widoczności tych, które powstają wyłącznie w celu manipulowania pozycją w wyszukiwarkach (SEO).
Czym jest pomocna treść według Google?
Oto kluczowe kryteria, na które podobno zwraca uwagę algorytm:
- Treść skierowana do konkretnej grupy odbiorców. Strony powinny odpowiadać na rzeczywiste potrzeby i pytania użytkowników. Zamiast skupiać się na SEO, treści mają służyć ludziom, dostarczając im tego, czego szukają.
- Fachowa wiedza i doświadczenie. Google premiuje treści tworzone przez osoby, które są ekspertami w danym obszarze. Kluczowe są tu: autentyczność i głęboka wiedza. Treści muszą pokazywać, że autor faktycznie rozumie temat i ma bezpośrednie doświadczenie.
- Wiarygodność i zaufanie. Treści muszą być poparte rzetelnymi źródłami. Autorzy powinni mieć jasne dowody swojego eksperckiego statusu, np. poprzez linki do stron „O nas” czy profili autora poza domeną. Błędy merytoryczne czy niejasne informacje mogą obniżać wiarygodność strony.
- Spełnianie oczekiwań wyszukujących. Google kładzie nacisk na to, aby użytkownik po przeczytaniu treści czuł, że uzyskał odpowiedzi na swoje pytania. Jeżeli treść sprawia, że użytkownik musi dalej szukać informacji, to jest ona uznawana za niepomocną.
W skrócie: artykuły klepane przez SEO-wców i copywriterów, głównie na potrzeby poprawienia widoczności domeny i wygenerowania ruchu organicznego z kalorycznych keywordów, powinny dostać po głowie. Powinny ustąpić treściom od faktycznych specjalistów, którzy od lat dzielą się wiedzą na łamach blogów i portali specjalistycznych.
A jak jest naprawdę? Pasja w dołku, razem z wynikami
Joshua Waldron, który przez ostatnią dekadę rozwijał bazę danych na temat pól golfowych par 3, dzieli się swoją frustracją wynikającą właśnie z HCU. Mimo że jego strona zawiera oryginalne, wartościowe treści tworzone bez pomocy AI, straciła widoczność w wynikach wyszukiwania na rzecz dużych wydawców, którzy publikują treści o znacznie niższej jakości.
To doskonały przykład na to, jak algorytm Google, zamiast promować rzetelne źródła, premiuje ogólnikowe materiały. Szkodzi to nie tylko pasjonatom i doświadczonym twórcom chcącym dzielić się wiedzą, ale przede wszystkim tym, którzy tej wiedzy szukają i jej potrzebują.
Jak pisze Waldron na X.com:
Przez ostatnią dekadę stworzyłem najbardziej szczegółową bazę danych pól golfowych par 3 na świecie (bez pomocy AI). Spędziłem niezliczone godziny na opracowywaniu ponad 1400 opisów pól golfowych, jednocześnie prowadząc własne pole par 3. Odwiedzałem miejsca, rozmawiałem z właścicielami i śledziłem brakujące dane, których nie można znaleźć nigdzie indziej. Ta strona jest wynikiem dziesięciu lat konsekwentnej pracy, by być najlepszym źródłem dla entuzjastów krótkich pól golfowych. Moja strona oferuje najbardziej oryginalne i pomocne treści w tej dziedzinie… A w nagrodę zostaję zakopany w wynikach wyszukiwania?
Historia Hardbacon – 11 miesięcy walki i bankructwo
Hardbacon to kanadyjska firma zajmująca się finansami i budżetowaniem. Jej przykład doskonale ilustruje, jak drastyczne skutki może mieć aktualizacja algorytmu Google dla biznesów opartych na ruchu organicznym.
Hardbacon.ca, podobnie jak wiele innych serwisów, zostało mocno dotknięte przez kolejne HCU z 2023 roku. Skutki były tak dotkliwe, że 11 miesięcy później, w sierpniu 2024 roku, firma stanęła na krawędzi bankructwa.
Julien Brault, CEO Hardbacon, opisał tę sytuację w poruszającym poście na LinkedIn:
Po 11 miesiącach demontowania mojej firmy kawałek po kawałku i gromadzenia złych wiadomości każdego dnia, nie wiem, czy mam to, czego potrzeba, aby się odbudować, nawet jeśli nasz ruch powróci do poziomu, na którym Hardbacon byłoby rentowne…
W przeddzień podpisania dokumentów o bankructwie tej firmy Google ogłosiło kolejną aktualizację algorytmu
Ku zaskoczeniu wszystkich, ta aktualizacja przyniosła Hardbacon nieoczekiwany wzrost ruchu. W ciągu zaledwie czterech dni ruch organiczny z Google wzrósł czterokrotnie i, jak relacjonował Brault, zdawał się podwajać każdego dnia.
Mimo tego nagłego wzrostu sytuacja Hardbacon pozostaje niepewna. Jak zauważył Brault:
Biorąc pod uwagę naszą sytuację finansową, to prawdopodobnie za mało i za późno… Wygląda na to, że Google potrzebował 11 miesięcy, aby naprawić błąd, który popełnił we wrześniu 2023 roku. Ale szkody zostały już wyrządzone.
Przypadek Retro Dodo – pasja i ekspercka wiedza kontra algorytmy
Innym, chyba najgłośniejszym przykładem negatywnego wpływu aktualizacji Google jest historia Retro Dodo, strony internetowej poświęconej grom i konsolom retro. Brandon Saltalamacchia, założyciel Retro Dodo, opublikował szczery i poruszający artykuł. Opisał w nim, jak jego pięcioletnia praca nad budowaniem wartościowego źródła informacji dla miłośników retro gamingu została zagrożona przez zmiany w algorytmach Google.
Retro Dodo, mimo tworzenia oryginalnych, wysokiej jakości treści opartych na rzeczywistych testach i doświadczeniach, odnotował spadek ruchu organicznego o około 85% po aktualizacji algorytmu we wrześniu 2023 roku. Ta sytuacja postawiła firmę na skraju bankructwa, zmuszając do redukcji personelu i ograniczenia planowanych projektów.
Saltalamacchia podkreśla paradoks całej sytuacji
Strona oferująca dokładnie to, co Google według własnych deklaracji chce promować (treści tworzone przez prawdziwych ekspertów, oparte na faktycznych doświadczeniach), została w rzeczywistości ukarana przez algorytm. Jednocześnie w wynikach wyszukiwania zaczęły dominować treści z dużych portali, które często nie przeprowadzają własnych testów produktów, lecz jedynie kompilują informacje z innych źródeł.
Ten przypadek jest kolejnym dowodem na to, jak aktualizacje algorytmów Google mogą mieć destrukcyjny wpływ na niezależne, specjalistyczne strony internetowe. Stawia to pod znakiem zapytania przyszłość wysokiej jakości, niszowego dziennikarstwa online.
Szerszy kontekst problemu
Historie Hardbacon, Joshui Waldrona i Retro Dodo ilustrują szerszy problem dotykający tysiące firm i indywidualnych twórców uzależnionych od ruchu z Google. Od portali finansowych, przez niszowe, hobbystyczne bazy danych, aż po strony poświęcone retro gamingowi – żaden sektor nie jest odporny na nagłe zmiany w algorytmach wyszukiwarki.
Paradoksalnie, strony oferujące głęboką, ekspercką wiedzę i unikalne treści – czyli mogące oczekiwać promowania przez Google – często są tymi, które najbardziej cierpią w wyniku aktualizacji.
- Retro Dodo, mimo tworzenia wartościowych treści opartych na rzeczywistych testach;
- Hardbacon ze swoją ekspercką wiedzą finansową;
- baza danych pól golfowych Joshui Waldrona
– wszystkie te projekty zostały poważnie zagrożone przez zmiany w algorytmach.
Ta sytuacja podkreśla:
- potrzebę większej transparentności ze strony Google;
- konieczność znalezienia sposobów na docenianie autentycznej eksperckiej wiedzy w wynikach wyszukiwania, niezależnie od wielkości czy popularności platformy.
Inaczej trudno myśleć o przyszłości niezależnego, specjalistycznego dziennikarstwa online i możliwości utrzymania różnorodności źródeł informacji w internecie.
Wpływ algorytmów Google na niezależne strony internetowe
Dominacja dużych wydawców w wynikach wyszukiwania
W ostatnich latach można obserwować niepokojące zjawisko w wynikach wyszukiwania Google. Niezależnie od tego, czego szukamy, na pierwszych pozycjach pojawiają się ci sami duzi wydawcy. Choć mogłoby się wydawać, że to gwarancja jakości, rzeczywistość jest zgoła odmienna. Wiele z tych stron publikuje rekomendacje produktów bez faktycznego ich testowania. Opierają się głównie na materiałach marketingowych i informacjach z Ceneo, Allegro czy Amazona.
Strategie dużych wydawców
Duzi wydawcy wykorzystują sprytne strategie, aby maksymalizować swoje zyski. Używają tych samych szablonów i zasobów dla różnych marek należących do jednej firmy. Można to określić jako najgorszą wersję programmatic SEO. Pozwala to na szybkie tworzenie dużych ilości treści „najlepszych produktów” bez faktycznej wiedzy. To podejście jest oczywiście skuteczne z punktu widzenia SEO. Często jednak prowadzi do publikowania niskiej jakości treści, które nie przynoszą realnej wartości czytelnikom, a okupują topowe miejsca na najbardziej konkurencyjnych frazach powiązanych z produktami.
Wpływ na niezależne strony
Niestety te praktyki mają ogromny wpływ na niezależne strony internetowe. Witryny, które faktycznie testują produkty i dostarczają wartościowych informacji, tracą ruch na rzecz dużych wydawców. Spadek widoczności w wynikach wyszukiwania dla stron z rzeczywistymi recenzjami jest alarmujący i może prowadzić do zaniku niezależnego dziennikarstwa w sieci.
Po co męczyć się tygodniami nad testami, a następnie przez wiele godzin pisać wyczerpującą recenzję? Tylko po to, by stracić ruch na rzecz artykułu napisanego „pod SEO” przez copywritera, który bazuje na powierzchownym researchu i wrażeniach innych, opublikowanych wcześniej na innych portalach?
Rola firm private equity
Warto zwrócić uwagę na rolę firm private equity, czyli niebędących notowanymi na giełdzie, w opisywanym procesie. Wiele znanych marek wydawniczych zostało przejętych przez tego rodzaju firmy, które następnie przekształcają tradycyjne magazyny w platformy do generowania przychodów z marketingu afiliacyjnego. To często prowadzi do obniżenia jakości treści i skupienia się na maksymalizacji zysków kosztem rzetelności.
Powyższa infografika ilustruje skalę konsolidacji mediów w internecie. Ukazuje 16 głównych firm, które kontrolują większość popularnych stron internetowych pojawiających się w wynikach wyszukiwania Google. Widać tu takich gigantów jak Hearst, Condé Nast, Dotdash Meredith czy Red Ventures. Skupiają oni pod swoimi skrzydłami setki znanych marek i portali.
Skala wpływu tych firm jest imponująca:
- 16 przedstawionych firm kontroluje co najmniej 588 indywidualnych marek internetowych;
- według szacunków Semrush łącznie otrzymują one około 3,5 mld kliknięć z Google miesięcznie;
- średnio każda strona w tej sieci generuje około 5,9 mln kliknięć miesięcznie.
Źródło: HouseFresh.com
Problemy z obecnym podejściem Google
Google ma wytyczne dotyczące jakości recenzji, ale wydaje się, że nie są one skutecznie egzekwowane. Algorytmy Google zdają się faworyzować duże, znane marki kosztem jakości treści. To podejście jest szkodliwe zarówno dla niezależnych twórców, jak i dla użytkowników szukających rzetelnych informacji.
Najnowsze działania Google budzą jeszcze większe obawy. Firma inwestuje znaczne środki w sztuczną inteligencję i premiuje w wynikach wyszukiwania domeny, z którymi ma umowy o współpracy. Przykładem jest umowa z Redditem warta 60 mln dol., mająca na celu wykorzystanie treści z tej platformy do szkolenia modeli AI Google. Choć intencje mogły być dobre – promowanie treści opartych na osobistych doświadczeniach użytkowników i ekspertów – efekty są dalekie od oczekiwanych.
Paradoksalnie, działania te jeszcze bardziej pogorszyły jakość wyników wyszukiwania. Platformy takie jak Reddit czy Quora, które zaczęły dominować w wynikach, zostały zalane przez spamerów i nieuczciwych specjalistów SEO. Wykorzystują oni techniki parasite SEO, tworząc fałszywe profile ekspertów i generując masowo treści za pomocą AI, aby promować biznesy swoich klientów.
Średni estymowany ruch organiczny Reddit.com i jego „przypadkowy” nagły wzrost od czasu podpisania umowy z Google
Ta sytuacja jest źródłem problemów
- Użytkownicy mają trudności z odróżnieniem autentycznych, wartościowych treści od wygenerowanych przez AI.
- Niezależni eksperci i twórcy wysokiej jakości treści są spychani na dalsze pozycje w wynikach wyszukiwania.
- Zaufanie do wyników wyszukiwania Google maleje, co może mieć długoterminowe konsekwencje dla całego ekosystemu internetowego.
Google stoi teraz przed nie lada wyzwaniem
- Jak utrzymać jakość wyników wyszukiwania, skoro spam tak łatwo się rozprzestrzenia?
- Jak jednocześnie nie zrezygnować z wykorzystania potencjału AI w ulepszaniu swoich usług?
Cyfrowa rewolucja – Google pod presją zmian
Google, długo uważane za niedotykalnego giganta technologicznego, obecnie stoi w obliczu bezprecedensowych wyzwań prawnych. Mogą one fundamentalnie zmienić sposób jego funkcjonowania.
1. Przełomowa decyzja sądu
We wrześniu 2024 roku federalny sędzia orzekł, że Google nielegalnie utrzymuje monopol w branży wyszukiwania online. Sędzia Amit Mehta stwierdził jednoznacznie: „Google jest monopolistą i działał jak monopolista, aby utrzymać swój monopol”.
2. Zarzuty antymonopolowe
Departament Sprawiedliwości USA oskarżył Google o wykorzystywanie swojej dominującej pozycji do eliminowania konkurencji i ograniczania wyboru użytkowników.
3. Potencjalne konsekwencje
Orzeczenie to może mieć daleko idące skutki nie tylko dla Google, ale i dla całej Doliny Krzemowej. Firmy technologiczne mogą spodziewać się zwiększonej kontroli swoich praktyk biznesowych.
4. Następne kroki
Kolejnym etapem będzie ustalenie środków zaradczych. Mogą one obejmować zakończenie umów na wyłączność, podział firmy czy udostępnianie danych konkurencji.
5. Szerszy kontekst
Administracja Joe Bidena prowadzi również sprawy przeciwko innym gigantom technologicznym, takim jak Amazon, Meta i Apple, dążąc do ograniczenia ich dominacji rynkowej.
6. Potencjalne zmiany w branży
Decyzja ta może zainspirować innowacje w sektorze wyszukiwarek. Inwestorzy i przedsiębiorcy mogą bowiem dostrzec nowe możliwości w obszarze dotychczas zdominowanym przez Google.
Wynik tej sprawy może fundamentalnie zmienić cyfrowy krajobraz informacyjny
Dla mniejszych wydawców, blogerów i niezależnych ekspertów, dotychczas marginalizowanych przez algorytmy faworyzujące duże marki, to potencjalna szansa na odzyskanie widoczności.
Zmiany antymonopolowe w Google mogą otworzyć drogę do bardziej zróżnicowanego internetu, gdzie jakość treści i autentyczna wiedza specjalistyczna znów staną się kluczowe w rankingach wyszukiwania. To możliwość przywrócenia równowagi w cyfrowym ekosystemie. Dałaby głos tym, którzy przez lata byli spychani na margines przez dominację wielkich korporacji medialnych.
Google wyciąga rękę do twórców ze spadkami ruchu
Jednocześnie pojawia się promyk nadziei dla twórców. Google zainicjowało serię spotkań z właścicielami stron internetowych dotkniętych spadkami ruchu po aktualizacji HCU. Danny Sullivan, rzecznik Google ds. wyszukiwania, osobiście zaprosił niektórych twórców do siedziby firmy. Chce wysłuchać ich historii i opinii na temat tego, jak Google powinno wspierać kreatywnych twórców treści.
Ta inicjatywa pokazuje, że Google zdaje sobie sprawę z problemów i aktywnie poszukuje rozwiązań. Choć konkretne zmiany mogą nie nastąpić szybko, sam fakt, że Google angażuje się w bezpośredni dialog z twórcami, jest pozytywnym sygnałem. Sugeruje to, że firma jest otwarta na feedback i potencjalne zmiany w swoim podejściu. W przyszłości może to prowadzić do bardziej zrównoważonego ekosystemu internetowego. Takiego, w którym niezależni twórcy i mniejsze serwisy będą mieć lepsze szanse na dotarcie do odbiorców.
Core Update z sierpnia 2024 i potencjalny comeback po HCU 2022/23
Warto odnotować, że po najnowszej aktualizacji algorytmów (sierpień 2024) część domen, które ucierpiały podczas Helpful Content Update z 2022 i 2023 roku, zdaje się odzyskiwać widoczność w wynikach wyszukiwania. Jest to pierwsza znacząca fala takich powrotów od dwóch lat. Właściciele stron takich jak Retro Dodo czy House Fresh raportują wzrosty ruchu, chociaż nadal dalekie od poziomów sprzed HCU. Eksperci SEO, w tym Glenn Gabe i Lily Ray, potwierdzają te obserwacje. Wskazują na poprawę widoczności dla niektórych stron dotkniętych wcześniejszymi aktualizacjami.
Należy jednak podkreślić, że nie wszystkie strony doświadczają poprawy, a te, które widzą wzrosty, zazwyczaj nie wracają do swoich dawnych pozycji. Sytuacja jest dynamiczna i zróżnicowana w zależności od niszy i charakteru strony. Zmiany dają jednak pewną nadzieję dla niezależnych twórców treści i mniejszych wydawców, którzy przez ostatnie dwa lata borykali się z drastycznymi spadkami ruchu.
Google nadal pracuje nad dostrojeniem swoich algorytmów
Stara się znaleźć równowagę między promowaniem wysokiej jakości treści a zapewnieniem różnorodności wyników wyszukiwania. Dla właścicieli stron internetowych oznacza to konieczność:
- monitorowania sytuacji i adaptowania się do zmiennych warunków;
- jednoczesnej koncentracji na tworzeniu wartościowych treści dla użytkowników.
Podobał Ci się artykuł?Wesprzyj naszych redaktorów i dziennikarzy, stawiając dużą czarną. |