Dlaczego Google nie czyta Twoich tekstów tak jak ludzie?

Opublikowano: Aktualizacja: 
Autor:

Dlaczego Google nie czyta Twoich tekstów tak jak ludzie? - Zdjęcie główne

reklama
Udostępnij na:
Facebook
PROMOWANECzłowiek czyta artykuł od pierwszego do ostatniego zdania. Wyobraża sobie sytuacje, łączy fakty z własnym doświadczeniem, ocenia styl autora. Google tego nie robi. Google rozkłada tekst na części składowe, wyciąga z niego fakty i porównuje je z miliardami innych fragmentów w swojej bazie. Różnica jest zasadnicza, bo algorytm przetwarza informacje w zupełnie inny sposób niż ludzki czytelnik. Poznanie tego mechanizmu zmienia podejście do tworzenia treści w internecie.
reklama

Algorytm szuka faktów, nie zdań!

Kiedy Google przetwarza stronę internetową, nie ocenia "czy tekst jest dobrze napisany". Ocenia, ile weryfikowalnych informacji może z niego wyciągnąć. Każde zdanie jest analizowane pod kątem tego, czy zawiera fakt, który algorytm może porównać z innymi źródłami, zapisać w swojej bazie wiedzy i ewentualnie przedstawić użytkownikowi.

Zdanie "Kraków to drugie co do wielkości miasto w Polsce z populacją ponad 800 tysięcy mieszkańców" to dla algorytmu zestaw konkretnych danych: encja (Kraków), atrybut (pozycja wielkościowa), wartość (drugie), atrybut (populacja), wartość (800 000+). Zdanie "Kraków to piękne miasto z bogatą historią i wyjątkową atmosferą" to dla algorytmu szum, bo nie zawiera żadnej weryfikowalnej informacji. Stąd zjawisko, które frustruje wielu autorów i marketingowców. Artykuł napisany pięknym językiem, z rozbudowanymi metaforami i angażującym storytellingiem, może przegrać w rankingu z tekstem technicznym, suchym, ale pełnym konkretnych danych. Algorytm nie ocenia estetyki. Ocenia gęstość informacyjną.

reklama

W AI Search ten mechanizm jest jeszcze wyraźniejszy. ChatGPT, Gemini i Perplexity dzielą każdą stronę na fragmenty i oceniają każdy fragment osobno. Fragment z konkretnymi danymi w pierwszym zdaniu ma wielokrotnie większą szansę na cytowanie niż fragment z ogólnikowym wstępem. Systemy AI Search szukają odpowiedzi, które mogą podać użytkownikowi bez dalszego przetwarzania. Fakt gotowy do zacytowania wygrywa z narracją, która wymaga interpretacji.

Model encja-atrybut-wartość w praktyce

Sposób, w jaki Google przetwarza treści, można opisać modelem Entity-Attribute-Value (EAV), który stanowi jeden z fundamentów semantycznego SEO. Algorytm rozkłada każdy tekst na trójki: encja (byt, o którym mowa), atrybut (cecha tego bytu) i wartość (konkretna dana).

reklama

Weźmy przykład z branży nieruchomości. Zdanie "Mieszkanie ma 65 metrów kwadratowych, 3 pokoje i jest zlokalizowane na Mokotowie" to dla algorytmu trzy trójki EAV: encja = mieszkanie, atrybut = powierzchnia, wartość = 65 m². Encja = mieszkanie, atrybut = pokoje, wartość = 3. Encja = mieszkanie, atrybut = lokalizacja, wartość = Mokotów. Trzy fakty w jednym zdaniu.

Natomiast zdanie "To przestronne, jasne mieszkanie w doskonałej lokalizacji, idealne dla rodziny szukającej komfortu" zawiera zero trójek EAV. "Przestronne" to nie jest wartość (ile metrów?). "Doskonała lokalizacja" to nie jest wartość (jaka dzielnica?). "Idealne dla rodziny" to opinia, nie fakt. Algorytm nie ma czego porównać z innymi źródłami.

reklama

W praktyce różnica jest taka. Strona z ogłoszeniem, na której każde mieszkanie ma tabelę z parametrami (powierzchnia, pokoje, piętro, cena za metr, rok budowy), jest dla algorytmu kopalnią trójek EAV. Strona z opisami pełnymi przymiotników, ale bez konkretów, jest informacyjnie pusta.

Model EAV wyjaśnia też, dlaczego strony porównawcze i agregatory danych tak dobrze radzą sobie w wynikach wyszukiwania. Porównywarka cen zawiera tysiące trójek EAV w ustrukturyzowanej formie (tabele, filtry, specyfikacje). Blog firmowy z artykułem "5 powodów, żeby wybrać nasze mieszkania" zawiera głównie opinie. Algorytm wybiera źródło z większą liczbą przetwarzalnych faktów.

"Analizując setki stron, widzę ten sam wzorzec. Strony z wysoką gęstością informacyjną zajmują wyższe pozycje niż strony dłuższe, ale wypełnione ogólnikami. Algorytm premiuje konkret, nie objętość" - mówi Lech Rudnicki, ekspert SEO i autor encyklopedii semantycznego SEO (seosemantyczne.pl).

reklama

Gęstość informacyjna - ile faktów na akapit?

Gęstość informacyjna (Information Density) to stosunek wartościowych informacji do całkowitej długości tekstu. To jeden z wymiarów, które Google uwzględnia w ocenie jakości treści, i jeden z najczęściej ignorowanych przez autorów. Wysoka gęstość oznacza, że niemal każde zdanie wnosi nową informację: fakt, liczbę, definicję, porównanie. Niska gęstość oznacza dużo zdań ogólnikowych, powtórzeń, pytań retorycznych, wstępów typu "w dzisiejszych dynamicznie zmieniających się czasach".

Algorytm mierzy to na poziomie fragmentów (passage ranking). Nie ocenia artykułu jako całości, a poszczególne sekcje. Fragment z 5 faktami na 3 akapity dostaje wyższy score niż fragment z 1 faktem na 5 akapitów. Dlatego artykuł o 800 słów z 12 faktami może wyprzedzić artykuł o 2000 słów z 8 faktami i resztą wypełnioną ogólnikami.

Praktyczna złota reguła jest prosta: jeśli zdanie nie zawiera encji, atrybutu lub wartości, rozważ jego usunięcie albo zastąpienie zdaniem, które je zawiera. To nie znaczy, że tekst ma być suchy jak raport techniczny. Oznacza, że każde zdanie powinno wnosić coś, co algorytm może przetworzyć i potencjalnie zacytować.

Co to zmienia w tworzeniu treści?

Wiedza o tym, jak Google czyta teksty, prowadzi do konkretnych zmian w procesie tworzenia treści.

  1. Zmienia się podejście do struktury. Zamiast pisać długie akapity narracyjne, warto dzielić informacje na formaty o niskim koszcie przetworzenia: tabele (dane liczbowe), listy (cechy, kroki, porównania), pogrubienia (najważniejsze terminy). Te formaty są łatwiejsze do przetworzenia przez algorytm i częściej trafiają do Featured Snippets i AI Overview.

  2. Rosną też wymagania wobec pierwszych zdań. Algorytm ocenia każdą sekcję osobno. Sekcja, która zaczyna się od konkretnej odpowiedzi na pytanie, ma wyższe szanse na cytowanie niż sekcja, która dochodzi do odpowiedzi dopiero w trzecim akapicie. W semantycznym SEO ta zasada nosi nazwę BLUF (Bottom Line Up Front): najważniejsza informacja na początku.

  3. Wreszcie zmienia się miara jakości. Zamiast liczyć słowa, warto liczyć fakty. Artykuł, który na każde 100 słów podaje 3-4 weryfikowalne informacje, jest cenniejszy dla algorytmu niż artykuł, który podaje 1 fakt na 200 słów ozdobnych zdań.

"Struktura tekstu ma dziś większe znaczenie niż jego długość. Tabela z porównaniem, lista z faktami, odpowiedź w pierwszych dwóch zdaniach artykułu to elementy, które obniżają koszt przetworzenia treści przez algorytm i zwiększają szansę na cytowanie" - dodaje Lech Rudnicki, ekspert SEO z ponad 15-letnim doświadczeniem, który prowadzi również Prawny Marketing i LinkiPL (linki.pl).

Koncepcje takie jak model EAV czy gęstość informacyjna są szczegółowo opisane w encyklopedii semantycznego SEO, która obejmuje 265 terminów z interaktywnym grafem wiedzy.

O autorze: Lech Rudnicki - ekspert SEO z ponad 15-letnim doświadczeniem (w branży od 2011 roku), specjalizujący się w semantycznym SEO i widoczności w AI Search. Autor encyklopedii semantycznego SEO (seosemantyczne.pl, 265 terminów, interaktywny graf wiedzy), dostępnej także w wersji angielskiej (semantem.com). Prowadzi Prawny Marketing (prawnymarketing.pl) - usługę marketingu prawniczego i pozycjonowania kancelarii oraz LinkiPL (linki.pl) - usługę linkbuildingu.

reklama
reklama
Udostępnij na:
Facebook
wróć na stronę główną

ZALOGUJ SIĘ

Twoje komentarze będą wyróżnione oraz uzyskasz dostęp do materiałów PREMIUM

e-mail
hasło

Zapomniałeś hasła? ODZYSKAJ JE

reklama
Komentarze (0)

Wysyłając komentarz akceptujesz regulamin serwisu. Zgodnie z art. 24 ust. 1 pkt 3 i 4 ustawy o ochronie danych osobowych, podanie danych jest dobrowolne, Użytkownikowi przysługuje prawo dostępu do treści swoich danych i ich poprawiania. Jak to zrobić dowiesz się w zakładce polityka prywatności.

Wczytywanie komentarzy
reklama
reklama
logo