

Jak obejit cache?
jeden z mych pocitacui je v siti, kde spravce nastavil transparentni squid, ktery cachuje webove stranky. Normalne by mi to nevadilo, ale ma to nastavene nejak blbe a neni s nim rec. Zaroven mam plne pravo ten soubor stahovat, protoze ho pro praci potrebuju (tedy nic, co by melo byt zakazano).
Kdyz si chci stahnout soubor z internetu, tak mi to vraci 404 not found, ackoli ten soubor tam zcela jiste je a z jinych pocitacu se stahnout da. Kdyz si dam vypsat hlavicky, tak vidim tu cache (nejaka.sit je 11.22.33.44, adr/soubor.tar.gz normalne na jinych pocitacich stahnout jde):
# wget -S http://nejaka.sit/adr/soubor.tar.gz?a=a
--2014-11-28 14:48:06-- http://nejaka.sit/adr/soubor.tar.gz?a=a
Resolving nejaka.sit... 11.22.33.44
Connecting to nejaka.sit|11.22.33.44|:80... connected.
HTTP request sent, awaiting response...
HTTP/1.0 404 Not Found
Date: Fri, 28 Nov 2014 13:48:06 GMT
Server: Apache
Content-Length: 308
Content-Type: text/html; charset=iso-8859-1
X-Cache: MISS from nmoscopha
X-Cache-Lookup: MISS from nmoscopha:3128
Via: 1.0 nmoscopha (squid/3.1.19)
Connection: keep-alive
2014-11-28 14:48:06 ERROR 404: Not Found.
Nevite nekdo, jak tu chache bud obejit, nebo donutit stahnout ten soubor?
Predem diky.
pokud potřebuješ pracovat a nejde to, jdu za svým nadřízeným. Ten by to měl zařídit, aby to fungovalo.
Ono to neni tak jednoduche, ja delam pro firmu, co pro nekoho cosi dodava a ten pocitac je soucasti te dodavky. Oficialni zadost byla vznesena jiz nekolikrat, zatim bezuspesne, vzdycky se to ztrati kdesi v administrative, je prislibeno a nesplneno a tak podobne - pohadka o kohoutkovi a slepicce. Takze zkoumam, jestli neni nejaky trik, jak to zprovoznit/obejit z moji strany - zkousel jsem tomu davat GET parametry, ale na ty to statecne kasle, ze stranka neni a tak neni ani s parametrama a nic se zkouset nebude. Zkousel jsem tomu dat primo IP, ale zjevne si to nejak sparoval, takze taky bez uspechu. Tak hledam, co dal.
Jinak z normalniho pocitace to da tohle:
transparentní proxy to řeší na své straně, na svém PC to nijak nepořešíš bez třetí strany na netu, a to je věc, kterou bych rozhodně bez vědomí vedení/nadřízených nedělal.
Takováhle svépomoc je to nejzhoubnější, co může být.
No obcas muzeme byt radi, ze se na ten pocitac vubec obcas dostaneme, protoze o kvalitach prislusnych spravcu se leckdy da s uspechem pochybovat. Od koncoveho zakaznika mame smluvne zajisteny pristup asi na 5 ruznych portu, casto s bidou chodi aspon ssh, protoze jejich mistni sitar proste neumi, neni, nechape ...
Treti stranu na netu mam, je to nas server, kde stejne kazdou chvili neco beha prez ssh, tak toho holt pujde vic.
Koncaka detaily moc nezajimaji, ale data na tom pocitaci proste potrebuje. Tak kdyz nejdou standardni kanaly, budu muset pouzivat jine a pujde to pomaleji, ale pujde.
Nadrizene nemam, vykoristuju se sam :) A ten koncovy pocitac mam plne pod kontrolou (pokud je spojeni), takze je jen muj problem, jestli si Gentoo bude stahovat balicky pro overlay standardne prez wget, nebo jestli nejaky skript, krome vsech dalsich dat, ktere taha prez ssh, bude tahat i nejake zdrojaky a ty se "zazrakem" octnou na spravnem miste, kde je emerge hleda a ceka (a kdyz je tam nema, tak stahuje prez ten wget)
nejde ani reload button?
Resolving dalo stejnu IP na tom PC na ktorom to ide aj na tom na ktorom to nejde?
Reload nejde, resolvuje to na vsech pocitacich na spravnou domenu, chova se to stejne, at dam domenu, nebo jeji IP.
Otazka neznie ako obist cache, ale ako obist proxynu. Odpoved znie nijako.
Mozes sa pretunelovat inde a stiahnut to tak, mozes si zmenit IP (na linuxe vies, ze je to jeden riadok) a docasne sa vydavat za niekoho ineho (ak tam nemate port locking na managovatelnych switchoch) a stiahnut to tak.
Zmena IP se obavam moc nepomuze, navic by s tim bylo trochu vic prace, protoze na ten pocitac mam jen vzdaleny pristup prez minimalne jeden NAT.
Takze se asi cas od casu zaloguju rucne, prez ssh si forwardnu port na jiny pocitac a postahuju to prez ten tunel, nebo mozna nebudu liny a napisu si skript, ktery vytaha z ebuildy ta psravna jmena a stahne to kazdou noc prez scp, nebo tak neco.
Doufal jsem, ze by to mohlo jit prez nejake hlavicky toho dotazu, nebo tak neco, ale kdyz to nejde po dobrem, tak to holt bude muset jit jinak.
Buď pridáš do URL nejaký náhodný parameter, alebo namiesto GET požiadavky odošleš POST požiadavku (pre wget je to parameter --post-data). Obidva spôsoby by mali fungovať.
Ale keďže píšeš, že pridanie GET parametru nefungovalo, tak pochybujem, že bude fungovať aj zmena na POST (odpovede na požiadavky typu POST by nemali byť nikdy kešované). Iné stránky fungujú normálne?
tady s největší pravděpodobností nejde o caching, ale o ACL v rámci proxy.