Byla vydána verze 5.0 webového aplikačního frameworku napsaného v Pythonu Django (Wikipedie). Přehled novinek v poznámkách k vydání.
TuxClocker je Qt GUI nástroj pro monitorování a nastavování (přetaktovávání) hardwaru na Linuxu. Aktuální verze je 1.4.0. Z novinek lze vypíchnout monitorování využití AMD a NVIDIA VRAM nebo sledování spotřeby energie procesorů AMD a Intel.
O víkendu (15:00 až 23:00) probíhá EmacsConf 2023, tj. online konference vývojářů a uživatelů editoru GNU Emacs. Sledovat ji lze na stránkách konference. Záznamy jsou k dispozici přímo z programu.
Na čem aktuálně pracují vývojáři GNOME a KDE? Pravidelný přehled novinek i s náhledy aplikací v Týden v GNOME a Týden v KDE.
Organizace Apache Software Foundation (ASF) vydala verzi 20 integrovaného vývojového prostředí a vývojové platformy napsané v Javě NetBeans (Wikipedie). Přehled novinek na GitHubu. Instalovat lze také ze Snapcraftu a Flathubu.
Desktopové prostředí Cinnamon, vyvíjené primárně pro distribuci Linux Mint, dospělo do verze 6.0. Seznam změn obsahuje především menší opravy a v říjnovém přehledu novinek v Mintu avizovanou experimentální podporu Waylandu.
OpenZFS (Wikipedie), tj. implementace souborového systému ZFS pro Linux a FreeBSD, byl vydán ve verzích 2.2.2 a 2.1.14. Přináší důležitou opravu chyby vedoucí k možnému poškození dat.
V ownCloudu byly nalezeny tři kritické zranitelnosti: CVE-2023-49103, CVE-2023-49104 a CVE-2023-49105 s CVSS 10.0, 8.7 a 9.8. Zranitelnost CVE-2023-49103 je právě využívána útočníky. Nextcloudu se zranitelnosti netýkají.
I letos vychází řada ajťáckých adventních kalendářů. Programátoři se mohou potrápit při řešení úloh z kalendáře Advent of Code 2023. Pro programátory v Perlu je určen Perl Advent Calendar 2023. Zájemci o UX mohou sledovat Lean UXmas 2023. Pro zájemce o kybernetickou bezpečnost je určen Advent of Cyber 2023…
Byla vydána verze 2.12 svobodného video editoru Flowblade (GitHub, Wikipedie). Přehled novinek v poznámkách k vydání. Videoukázky funkcí Flowblade na Vimeu. Instalovat lze také z Flathubu.
Nedavno jsem dokoncil takovou zakladni konfiguraci SQUIDa a uz mam 2 problemy co mi vrtaji hlavou.
1) Kdyz mam proxy kesujici server(centos) a k nemu pripojene XP(pres to proxy) ktere si dejme tomu prohledne nejake stranky jako atlas.cz google.cz zive.cz tak by se tyhle stranky meli ulozit do cache a v pripade odpojeni od netu by meli jet aj tak ne? Bohuzel se tak nedeje. Pritom v proxy mam nastavenu dost velkou (32MB) cache.
2) Dalsi vec je jeste horsi. Mam zablokovany nektere URL napr kdyz se tam vyskytuje "seznam" tak se nezobrazi. Problem je kdyz si nekdo prikazem nslookup zjisti IP seznamu a zada ji v ciselnem tvaru tak mu to najede - nevite jak tomu proxy vnutit aby i primy pozadavek prekladal a zjistil si tak ze jde treba prave o onen seznam?
Diky
No prave tady na te odpovedi mi neni jasne to ze kdyby expirace jeste nevyprsela a on ho vracel z cache tak i kdyby byl offline tak by se stranka mela zobrazit ne? Ja vim funguje to jak jste napsal jen mi to neleze do hlavy:(
tak by se stranka mela zobrazit ne
Neměla. SQUID si vždy ověřuje existenci objektu na serveru (stáhne HTTP hlavičku). Pokud tam už není tak jej smaže z keše (i před jeho expirací) a pokud jeho existenci nemůže ověřit (výpadek připojení), tak jej prostě nezobrazí. Proxi cache nemůže uživateli lhát.
ad 1) Jak jiz bylo napsano. Squid neni na to aby Internet fungoval offline
ad 2) Jak by to mel squid prakticky delat? On nemuze z ip adresy zjistit, jaka vsechna domenova jmena muzou ip adrese udane v URL vyhovovat. Proto to takto fungovat nemuze. Co by ale fungovat melo, je zakazani IP adresy, protoze naopak z jakehokoliv jmena proxy serveru muze (on dokonce musi) zjistit cilovou ip adresu. U access-listu typu dst by takto mel pro jmeno z pozadovaneho URL prislusnou ip adresu zjistit a access-list podle toho vyhodnotit. Takze moznosti jsou IMHO bud se smirit s tim, ze to v pripade dstdomain nebo url regexpu pro pozadavky zadane pomoci ip adresy fungovat nebude (pricemz takovych pripadu diky HTTP/1.1 virtual hostum nebude snad mnoho), nebo to zakazovat jen pomoci dst a tedy podle IP adres (coz bude fungovat pro vsechno a opet diky HTTP/1.1 a virtual hostum mozna i pro neco navic).
Tomas
ad2) Kdyz to shrnu tak mi zbyva moznost neco jako a ted omluvte tu syntaxi: acl zakazane dst file. Pricemz file bude soubor plny IP adres. A pak dam pravidlo zase neco jako http_access deny zakazane. Myslel jste to takle?
Podle me jde o to ze kdyz zadate IP v ciselnem tvaru tak on nezjistuje od DNS zda to nahodou neni zakazana URL pac neni duvod. Pro neho je IP tvar vlastne ulehcenim pac uz nemusi delat zadne preklady proste da pozadavek na prislusnou IP: port 80.
A ted nakonec ciste jen ma fantazie mam soubor zakazanych URL. Uzivatel to bude chtit obejit zadanim IP. Proxy bude ale tak chytry ze si danou IP prelozi na URL a to pak porovna se vsema co jsou v souboru zakazanych URL. Myslim ze tohle by bylo idealni reseni'! Myslite ze je to realizovatelne a nebo si o tom mam nechat zdat?:)
Snazil bych se nic nezakazovat Pokud je potreba neco zakazat a hrozi, ze to uzivatele obejdou pomoci IP adresy, tak udelat access-list na zaklade IP adresy. Ten bude vyhovovat jak pro zadani ip adresy, tak i jmena na strane uzivatele. Neprijemne je, ze to muze zakazat i neco navic. Proto by uplne nejpresnejsi bylo zadat vsechny mozne tvary url do access-listu - jak tvar s pouzitim ruznych hostname, tak i ip adres.
Problem s tim reversnim resolvovanim uzivatelem zadane ip adresy je ten, ze proxy server nebude chytrejsi nez Vy a zkusite si, pri znalosti pouziti digu, zjistit z IP adresy jmeno, ktere by bylo mozne porovnavat s danym ACL. Treba pro www.zive.cz mate ip adresu 77.93.192.144, ale PTR zaznam k 77.93.192.144 ukazuje na jmeno www4.cpress.cz. Jakou cestou by se mel proxy server spolehlive dostat od 77.93.192.144 k www.zive.cz ?
Tomas
Proxy bude ale tak chytry ze si danou IP prelozi na URLTo by byl opravdu geniální. Mapování URL k IP adresám je M:N, dokonce i mapování webových serverů k IP adresám je M:N. Tj. jeden web server (třeba www.example.com) může běžet na několika IP adresách (a klient si pak může vybrat), zároveň na jedné IP adrese může běžet víc webů (u různých freehostingů to klidně můžou být stovky webů na jednu IP).
Tiskni
Sdílej: