Yaklaşık bir ay önce pretty url den sef url ye geçiş yaptığım için sitemap ve linkler tamamen değişti.
Fakat halen daha 3 mart 2012 tarihine ait pretty url linkleri tarama hatası olarak çıkıyor. halbu ki bir aydır link o şekilde değil.
Bunlardan nasıl kurtulabilirim ? zamanla silinecekler mi ? teşekkürler.
pretty url ile alınan linklerin hepsinde tarama hatası vericektir, o linkleri googleden silmenin bir yolu var ama önermiyorum daha sonra hiç indexlenmeme gibi sorunlarla karşılaşabilirsin daha önce başıma geldi
yeni linklerin ise forumun indexlendikçe googleye eklenecektir yapman gereken hiç bir şey yok site haritası gönderdiysen daha çabul eklenir
Zaten yeni sitemap ile gönderilen ve dizine eklenen url ler devam ediyor. fakat robots.txt ile kısıtlanan linkler sıkıntılı benim için. çünkü linklerin hepsi aktif. robots.txt yi tekrar düzenledim. peki o linkler nasıl tarama hatasından çıkacaklar? çünkü linkler aktif.
URL'leri göster: Bulunamadı (60.651)
Erişilemiyor (8)
HTTP (11)
Oluşturulan 404 hataları (2)
Site Haritaları içerisinde (4.235)
robots.txt ile kısıtlanıyor (44.869)
İzlenemiyor (273)
Google da bu kadar link tarama hatası gösteriyor. robots.txt dosyasını aşağıdaki gibi düzenlemiştim o yüzden mi oldu acaba.
User-agent: *
Disallow: *.msg*
Disallow: */msg*
Disallow: *prev_next*
Disallow: *action=admin*
Disallow: *action=help*
Disallow: *action=login*
Disallow: *action=post*
Disallow: *action=printpage*
Disallow: *action=recent*
Disallow: *action=register*
Disallow: *action=reminder*
Disallow: *action=search*
Disallow: *action=stats;expand*
Disallow: *action=who*
Disallow: *sa=showPosts*
Disallow: *sort=*
Disallow: /Themes/
robots.txt dosyası ile ilgisi yok çünkü zaten indexlemesini istediğin dosyalar doğru.Fakat o şekilde tarama hatası bulması normal çünkü linklerin değişmiş senin hiçbirşey yapmana gerek yok google yeni linkleri indexliyecek ve o eski linklerin bir süre tarama hatası olarak gözükücek daha sonra google onları silicek.Bu işlemi hemen de yapabiliyorsun silmesini bir kaç yöntem ile fakat bunun dezavantajı var o yüzden önermem,yapman gereken sadece beklemek.
Lainaus käyttäjältä: Flypside - maaliskuu 08, 2012, 12:02:25 IP
robots.txt dosyası ile ilgisi yok çünkü zaten indexlemesini istediğin dosyalar doğru.Fakat o şekilde tarama hatası bulması normal çünkü linklerin değişmiş senin hiçbirşey yapmana gerek yok google yeni linkleri indexliyecek ve o eski linklerin bir süre tarama hatası olarak gözükücek daha sonra google onları silicek.Bu işlemi hemen de yapabiliyorsun silmesini bir kaç yöntem ile fakat bunun dezavantajı var o yüzden önermem,yapman gereken sadece beklemek.
bilgi için teşekkürler. peki son olarak robots.txt ile kısıtlanıyor (44.869) olarak görünen linkler peki robots.txt den kaynaklanmıyor mu? çünkü o linkler yeni hani ile google webmaster tools da görünüyor. eski hali ile değil. tıklayınca zaten doğru linke gidiyor.