Přidat otázku mezi oblíbenéZasílat nové odpovědi e-mailem google tools a robots.txt problem

Nemam zdanie preco, ale google tools mi vyhadzuje chybu pri testovani sitemap.xml
pise ze mam zablokovanu url ktoru mam v sitemap
Tato sice predtym bola zablokovana ale odstranil som ju zo suboru a ponechla iba blokovanie liniek s odkazmi.
Takze teraz mi tam ostalo iba :

Disallow: /links
Disallow: /links/*

a ja som predtym odstranil zo suboru :

Disallow: /novinky/

ktoru chcem opatovne pridat.

nacital som znovu v google tool robots.txt kde mi nabehol uz novy
ale google mi pri testovani sitemap.xml stale vypisuje :
Súbor Sitemap obsahuje webové adresy, ktoré sú zablokované súborom robots.txt.

nemate s tym niekto skusenost preco to tam stale niekde je?
Ivan

Předmět Autor Datum
Takze teraz mi tam ostalo iba : Kde to zůstalo? V sitemap.xml, nebo v robots.txt?
Kurt 06.12.2016 22:42
Kurt
v robots.txt mi ostalo len blokovanie links rozmyslam este ci by nepohlo dat teraz allow na adresar…
dirko 06.12.2016 22:55
dirko
tak uz som z toho blazon, aj som uplne odstranil (zmazal) robots.txt z webu a stale mi to vyhadzuje… poslední
dirko 07.12.2016 08:45
dirko

Zpět do poradny Odpovědět na původní otázku Nahoru