Google ogłosił 5 marca, że zostanie wprowadzona znacząca aktualizacja, która usunie 40% nieistotnych treści. Pierwszym krokiem tej aktualizacji było pełne deindeksowanie wszystkich witryn w drodze znacznej serii ręcznych działań. Aktualizacja algorytmu, która zostanie wydana za dwa do czterech tygodni, różni się od ręcznych działań podejmowanych równolegle z tą aktualizacją.
Aby pomóc ludziom zrozumieć te aktualizacje, w ciągu ostatnich 24 godzin ukończyliśmy dwa duże badania, które zamieszczono tutaj.
Badanie 1: Lista witryn internetowych, w przypadku których w marcu 2024 r. przeprowadzono ręczne działania
Spośród 79 tys. witryn sprawdzonych w marcu 2024 r. w przypadku 4,446 witryn zastosowano ręczne działania.
Badanie 2: Czy spam związany z treściami AI był przyczyną ręcznych działań?
Pięćdziesiąt procent stron internetowych miało od dziewięćdziesięciu do stu procent postów wygenerowanych przez sztuczną inteligencję (AI).
W tym poście omówione zostaną następujące tematy:
- Omówienie aktualizacji Google
- Czym są działania ręczne i deindeksacja witryny
- Najpełniejsza lista stron internetowych, których dotyczy problem; I
- Co odkryliśmy na temat stron internetowych, których dotyczy problem.
Omówienie aktualizacji podręcznika dotyczącego treści AI z marca 2024 r
Google wydało tę aktualizację 5 marca, aby ukarać
„Skalowane nadużycie treści”
Położenie kresu masowej publikacji spamu zawierającego treści (w końcu kto będzie korzystał ze sztucznej inteligencji w roku 2024 i później do tworzenia spamu zawierającego treści?).
„Nadużycie wygasłej domeny”
Ma na celu uniemożliwienie użytkownikom korzystania z wygasłych domen w celu optymalizacji wyszukiwarek.
„Nadużycie reputacji witryny”
Ma na celu zapobieganie oszukiwaniu wyszukiwarek przez wiarygodne witryny internetowe poprzez publikowanie artykułów na temat pasożytniczej optymalizacji wyszukiwarek w części ich witryn internetowych. Przykład SEO pasożyta w Sports Illustrated służy jako ilustracja tego.
Na tej stronie omówiono podstawową aktualizację Google z marca 2024 r. oraz wiele aktualizacji dotyczących spamu:
- https://searchengineland.com/google-released-massive-search-quality-improvements-with-march-2024-core-update-and-multiple-spam-updates-438144
- https://www.wired.com/story/google-search-artificial-intelligence-clickbait-spam-crackdown/
Posty na blogu Google:
- https://blog.google/products/search/google-search-update-march-2024/
- https://developers.google.com/search/blog/2024/03/core-update-spam-policies
Ważne jest, aby zrozumieć, że działania człowieka to nie to samo, co zmiany algorytmu, które będą miały miejsce.
Co to jest „ręczne działanie” i „deindeksacja witryny”?
Jeśli Google znajdzie witrynę naruszającą jej zasady, może to potrwać działanie ręczne aby całkowicie usunąć go z wyników wyszukiwania, co jest również znane jako „deindeksowanie” Strona internetowa. 5 marca witryny zaczęły otrzymywać w swoich witrynach coraz więcej takich powiadomień Ręczne działanie w Google Search Console deska rozdzielcza.
Wygląda na to, że te ręczne działania powodują całkowite usunięcie treści z wyników wyszukiwania Google.
Jakie informacje posiadamy obecnie na temat stron internetowych, których dotyczy problem?
Badanie 1: Lista witryn internetowych, w przypadku których w marcu 2024 r. przeprowadzono ręczne działania
Zakończyliśmy badanie mające na celu zidentyfikowanie witryn z treścią, które Google zdeindeksowało, ale do niedawna generowały ruch organiczny w Google, aby lepiej zrozumieć zakres ręcznych działań. Niniejsze badanie nie skupia się na handlu elektronicznym ani innych typach witryn internetowych, ale raczej na witrynach zorientowanych na treść.
Wyniki:
- Spośród około 79 tys. przeanalizowanych witryn w przypadku 1.9% zastosowano ręczne działania.
- Łączną utratę ruchu oszacowano na ponad 20 milionów odwiedzających miesięcznie.
- Trzy serwisy z ponad milionem organicznych odwiedzin miesięcznie zostały zredukowane do zera. Ręczne działania zastosowano w przypadku ponad 1,446 witryn znajdujących się w platformach MediaVine, Raptive lub Ezoic.
3 strony internetowe z ponad 1 milionem organicznych odwiedzających miesięcznie do zera
- zacjohnson.com
- bycie samolubnym.in
- equityatlas.org
Metodologia
W ten sposób przeprowadzono badanie.
Podsumowanie: Sporządziliśmy listę 79 tys. stron internetowych, które reprezentują Internet lepiej niż przeciętnie. Następnie sprawdziliśmy, czy te witryny są obecnie indeksowane, a jeśli nie, sprawdziliśmy najnowszą historię ruchu organicznego w nich, korzystając z dwóch różnych źródeł: AHrefs i PodobneWeb.
W przypadku, gdy witryna odnotowała ruch organiczny w lutym, ale obecnie nie jest indeksowana przez Google, prawdopodobnie 5 marca zastosowano ręczne działanie.
1. Korzystanie z wbudowanego list, wygenerowaliśmy listę wszystkich adresów URL wyświetlających reklamy od znanych dostawców reklam. Witryny AdSense nie zostały zbadane ze względu na dużą liczbę witryn o niskiej jakości; zamiast tego wybrano te platformy, ponieważ mają minimalne wymagania przed umożliwieniem dodawania witryn. Ta lista może nie odzwierciedlać odsetka witryn, w przypadku których podjęto ręczne działania, ale powinna (prawdopodobnie) przedstawiać ponadprzeciętną liczbę wszystkich witryn w Internecie. Według firmy dostarczającej reklamy, zaliczone zostały następujące strony internetowe:
- MediaVine: 21,808 XNUMX;
- Porywacz: 6,428;
- Ezoik: 51,293.
2. Wyeliminowano 18 duplikatów.
3. Za pomocą AHrefs i LikeWeb sprawdziliśmy lutowe wartości organicznego ruchu dla każdej zdeindeksowanej witryny.
4. Sprawdziliśmy także każdy adres URL, czy nie został on zdeindeksowany, wyszukując hasło „Witryna: URL”.
5. Sprawdziliśmy, że nasze podejście skutecznie przechwyciło część publicznie dostępnych stron internetowych i tak się stało.
Badanie 2: Czy ręczne działanie było spowodowane spamem związanym z treścią AI?
Wiele mediów pośpiesznie doszło do wniosku, że celem tej aktualizacji było wyeliminowanie spamu AI z wyników wyszukiwania Google.
Chociaż wielu SEO na X zgadza się..
Chcieliśmy przeprowadzić dokładniejszą analizę za pomocą naszego Kontroler AI.
Aby określić częstość występowania treści AI w witrynach, które zostały ręcznie ukarane, sprawdziliśmy 100 najnowszych artykułów, które zostały już udostępnione publicznie w przypadku każdej z deindeksowanych witryn.
Wyniki:
- 100% witryn z ręcznym działaniem wykazało użycie sztucznej inteligencji.
- W siedmiu z czternastu zbadanych przez nas witryn internetowych znalazło się ponad 90% przykładowych artykułów.
Metodologia
1. Zidentyfikowane strony internetowe, które zostały zdeindeksowane i których adresy URL zostały już upublicznione.
- Xfresherslive.com
- qmunicatemagazine.com
- hnbgu.net
- zacjohnson.com
- newsunzip.com
- Bognor.newspopularbio.com
- popularbio.com
- popularnetworth.com
- bioofy.pl
- istaunch.com
- zdroweceleb.com
- GoDownSize.com
- networthpost.org
- tvguidetime.com
- thesocialtalks.com
- juliangoldie.com
- chipperbird.com
- EquityAtlas.org
- filmifeed.com
2. Usunięto 100 najnowszych ogłoszeń zawierających więcej niż 100 słów.
3. Wykluczono kilka stron internetowych:
- juliangoldie.com – nie jest już w pełni zdeindeksowany – w indeksie znajduje się 10 stron (ale publicznie przyznaje się do korzystania z AI)
- chipperbird.com – nie można pobrać treści (ale właściciel witryny publicznie przyznaje się do korzystania z AI)
- equityatlas.org – nie można pobrać treści
- filmifeed.com – nie można pobrać treści
- thesocialtalks.com – nie można pobrać treści
4. 7 marca użyliśmy standardu modelu 2.0 do przejrzenia każdego artykułu w naszym serwisie Detektor AI (skuteczność detektora).
5. Następnie zakończyliśmy analizę każdej witryny, aby określić średni wynik AI i odsetek artykułów podejrzanych o wygenerowanie sztucznej inteligencji (AI).
Google stoi w obliczu egzystencjalnego zagrożenia wynikającego z możliwości nadmiaru spamu generowanego przez sztuczną inteligencję. Wygląda na to, że jest to bezpośrednia próba Google wyrażenia swojej opinii na temat spamu generowanego przez sztuczną inteligencję i ukarania go.
Źródło informacji: oryginalność.ai