Mempelajari Cara kerja Mesin Pencari Lebih Dalam

Meskipun Anda tidak menggunakan sitemap.xml untuk tujuan yang dimaksudkan, untuk analisis lebih lanjut, bagaimanapun, kami memerlukan daftar lengkap halaman situs yang ingin kami lihat di indeks. Kami mengekstrak data ini dari beberapa sumber Peta situs itu sendiri. Parsing situs dengan program khusus untuk audit teknis (ada opsi berbayar seperti Screaming Frog, ada alternatif gratis). Informasi dari klien, dari panel admin (ada bagian yang tidak mengarah ke tautan internal dan crawler tidak dapat menemukannya). Pemeriksaan pengindeksan, Untuk situs yang lebih atau kurang besar (sudah dari ratusan halaman) selalu ada risiko pengindeksan halaman yang tidak lengkap. Lebih sedikit url di indeks - lalu lintas lebih sedikit dari yang seharusnya. Untuk memeriksa pengindeksan di Yandex, akan lebih mudah menggunakan Yandex.

Kami membongkar semua halaman, memfilter di Excel dengan status pengindeksan dan membandingkan dengan daftar yang telah dikompilasi pada langkah sebelumnya. Google tidak memberikan informasi yang begitu mendetail, jadi solusinya harus ditemukan. Saya menulis tentang ini secara rinci dalam artikel terbaru Bagaimana seokoko resmi 61 menemukan halaman yang tidak diindeks oleh Google tanpa kerumitan dan biaya. Sebagai hasil dari langkah ini, kita bisa mendapatkan tiga grup url. Halaman yang paling menarik adalah secara tidak sengaja masuk ke indeks dokumen sampah. Dengan konten berkualitas tinggi yang tidak ada di basis mesin pencari. Dengan sampah semuanya biasanya cukup sederhana, Anda hanya perlu menemukan cara yang memadai untuk mengeluarkannya dari indeks. Ada banyak pilihan Meta tag noindex (untuk halaman teknis).

Anda perlu bekerja dengan alasan ketidakhadiran dalam indeks, setelah mempertimbangkan semua hipotesis yang mungkin. Dokumennya terlalu muda; robot tidak punya waktu untuk memprosesnya. Halaman berkualitas tidak memadai. Kesalahan teknis di situs (misalnya, kode 404 dikembalikan). Dokumen sudah tua, tetapi robot tidak mengunjunginya. Bagian Yandex.Webmaster yang sama akan membantu kami seokoko resmi 56 sebagian untuk menganalisis alasan komentar singkat ditampilkan untuk halaman yang dikecualikan dari indeks. Untuk menentukan halaman yang tidak dikunjungi oleh robot Yandex, gunakan bagian statistik Perayapan. Google tidak memberikan informasi seperti itu, jadi kami menggunakan analisis log server (lihat bagian selanjutnya). Google tidak memberikan informasi seperti itu, jadi kami menggunakan analisis log server (lihat bagian selanjutnya).

Sebagian besar program audit teknis yang disebutkan di atas melakukan verifikasi kode respons server. Analisis yang paling memakan waktu diperlukan untuk mengidentifikasi perbedaan antara halaman "berkualitas tinggi" dan "berkualitas rendah" dalam hal memasukkan halaman ke dalam indeks (masalahnya relevan terutama untuk Yandex; di Google, url berkualitas rendah dapat bertahan di indeks, URL tersebut tidak mendatangkan traffic). Skema umumnya cukup sederhana kami membandingkan halaman yang terus-menerus dalam pencarian dengan halaman yang tidak dapat masuk dengan cara seokoko resmi 58 apa pun atau terus menerus keluar. Kesulitannya adalah sebagai berikut. Tidak hanya faktor dari halaman itu sendiri yang dapat mempengaruhi. Anda tidak dapat menyimpulkan semuanya menjadi keunikan konten (hal pertama yang biasanya terlintas dalam pikiran).
    
Anda perlu membandingkan halaman dengan potensi lalu lintas yang serupa dan tingkat persaingan dalam hasil pencarian (Anda akan mengerti mengapa demikian jika Anda membaca posting Cara Kerja Pencarian Yandex: dua laporan penting dari tangan pertama (catatan samping) dan presentasi terbaru saya dengan SEMPRO. Penting untuk menyoroti faktor-faktor yang mudah ditarik ke tingkat yang dapat diterima. Rekomendasi "tulis teks unik pada setiap 10.000 kartu produk" sepertinya tidak akan diterima dengan antusias oleh pelanggan. Access.log berisi informasi berharga tentang iwww.seokoko.com nteraksi robot pencari dengan situs. Bahkan hanya daftar url yang dikunjungi oleh Googlebot dan YandexBot adalah sebuah peluang. Temukan halaman sampah berkualitas rendah yang tidak dilihat pengurai, tetapi diketahui robot. Termasuk, ngomong-ngomong, url ini bisa dibuat khusus oleh kompetitor, untuk lebih jelasnya lihat presentasi dari postingan ini.

Komentar

Postingan populer dari blog ini

Pilih Bodysuit Pakaian yang Mudah Dibersihkan

Membangun Arsitektur Situs Web yang Ramah-SEO

Memilih Kueri yang Sering Digunakan Pengguna