13 Kwietnia Google wprowadziło kilka kolejnych zmian w algorytmie. Do tej pory nie znalazłem sensownego artykułu na temat aktualizacji Google Panda/Farmer w języku polskim, dlatego postanowiłem opublikować takowy na swoim blogu 😉
Wielu pozycjonerów, marketerów internetowych zadaje sobie pytanie, czy ich kampanie w dalszym stopniu będą skuteczne. Jak prowadzić seo kampanie, aby zajmować najwyższe miejsca w najpopularniejszej wyszukiwarce na świecie, Google?
Aktualizacja Panda lub Aktualizacja Farmer wprowadziła najprawdopodobniej największe zmiany algorytmu, jakie wprowadziło Google w ostatnich 8 latach! Aktualizacja dotyczy ponad 16% wszystkich wyszukiwań.
Największego szoku doznały olbrzymie serwisy z artykułami, oraz większa część serwisów Web 2.0
2 lata, a nawet jeszcze rok temu budując mini stronę, czy publikując artykuły na serwisach typu E-zine Articles, HubPages, czy Squidoo można było z łatwością przebić się do TOP10 w kilka dni!
Właśnie kilka dni temu (13 kwietnia) zaobserwowałem to na swoich mini-blogach.
Moja strona zajmowała 1 miejsce w Google na frazę ponad 5000 miesięcznych wyszukiwań [Ścisłe]. Artykuł z E-zin’u był na 5 miejscu. 13 Kwietnia, kiedy sprawdzałem rankingi E-zin nagle wskoczył na pierwsze miejsce, co mnie bardzo zdziwiło, po czym wypadł całkowicie poza TOP 20.
Podobnie było w przypadku squidoo (web2.0) Na inną z kolei frazę zajmowałem 2 miejsce(jako blog), natomiast mój squidoo lens był na miejscu 7. Po Google Panda Update wypadł całkowicie z TOP 20.
Co to oznacza dla Ciebie? Google podkreśla, że najważniejszym czynnikiem w rankingach jest CZAS. Google stara się, aby SEO marketerzy nie byli w stanie wbić się po kilku dniach na wysoko wyszukiwane frazy. Jednak zmieniając troszkę taktykę w dalszym ciągu możemy wylądować na pierwszym miejscu w Google w czasie krótszym niż miesiąc na bardzo ładne frazy 😉
Najważniejsze zmiany po aktualizacji PANDA
- Wygląda na to, że reklamy na blogu obniżają rankingi. Oczywiście, nie chodzi mi tutaj o to, abyś całkowicie zlikwidował reklamy na blogu, bo to na pewno nie poprawi Ci rankingów (chociaż z takimi opiniami już się spotkałem O.o). Raczej mam na myśli, abyś ograniczył trochę agresywne kampanie reklamowe na twojej stronie, czy blogu. Nie wciskaj reklam Adsense, przeróżnych bannerów gdzie się tylko da.
- Zwróć uwagę na ilość linków partnerskich, reklamowych. Nie dodawaj w każdym wpisie link promujący. Nie spamuj niepotrzebnie. Sprawdź także, czy wszystkie linki na twoim blogu działają prawidłowo. Aby sprawdzić, czy twoja strona nie zawiera zepsutych linków, zainstaluj wtyczkę Broken Link Checker.
- Sprawdź indywidualne strony. Oczyść swój blog z niepotrzebnych treści, stron, które nic nie wnoszą, a mogą zaszkodzić. Jeśli stosowałeś czarne techniki SEO ze słowami kluczowymi itd, to usuń je ze swojego bloga. Nadszedł czas, aby zrobić porządek ze swoją stroną.
- „Duplicate Content”… Google zdecydowało nareszcie wyplenić duplicate content (artykuły kopiowane, takie same artykuły). Strony z dużą ilością artykułów kopiowanych, o słabej jakości automatycznie tracą pozycję. Wiele osób, blogerów pisze, że duplicate conent nic nie znaczy dla Google. Być może nie znaczył. Jednak Google się zmienia i z Google update już automatyczne blogowanie nie działa tak skutecznie, jak to było kiedyś. Chyba nie muszę pisać, co trzeba teraz robić 😉 Po prostu dodawaj wysokiej jakości artykuły. Pisząc o Duplicate Content, nie mam tutaj na myśli wpisów na kontach posterous, czy RSS. W tym wypadku jest to Syndication(ktoś zna polski odpowiednik?), który nie jest zaszkodzi w rankingach wujka G.Przeczytaj, co na temat Duplicate Content pisze JohnMu z Google:
“Just to be clear — using a robots.txt disallow is not a recommended way to handle duplicate content. By using a disallow, we won’t be able to recognize that it’s duplicate content and may end up indexing the URL without having crawled it.For example, assuming you have the same content at: A) http://example.com/page.php?id=12 B) http://example.com/easter/eggs.htmand assuming your robots.txt file contains: user-agent: * disallow: /*?that would disallow us from crawling URL (A) above. However, doing that would block us from being able to recognize that the two URLs are actually showing the same content. In case we find links going to (A), it’s possible that we’ll still choose to index (A) (without having crawled it), and those links will end up counting for a URL that is basically unknown.On the other hand, if we’re allowed to crawl URL (A), then our systems will generally be able to recognize that these URLs are showing the same content, and will be able to forward context and information (such as the links) about one URL to the version that’s indexed. Additionally, you can use the various canonicalization methods to make sure that we index the version that you prefer.”
Podsumowując, nowa Aktualizacja Google była bardzo duża i złamała mnóstwo biznesów, opartych na „black hat techniques”. Wiele multi-stron straciło swoje pozycje. Pamiętaj zatem, żeby umieszczać na swoich stronach artykuły wysokiej jakości, wystrzegać się „duplicate content”. Staraj się budować backlinki z różnych źródeł. Nie polegaj tylko na linkach web2.0, czy linkach z artykułów. W szczególności zadbaj o ruch na wszystkich stronach social media. Kiedy ludzie umieszczają twoją stronę w serwisach typu social media, to znaczy, że zawiera ona dobrej jakości treść. Popularność strony z kolei przekłada się na rankingi w wyszukiwarkach, a w szczególności w Google.
Dodaj komentarz