Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
Eugen Rochko, zakladatel Mastodonu, tj. sociální sítě, která není na prodej, oznámil, že po téměř 10 letech odstupuje z pozice CEO a převádí vlastnictví ochranné známky a dalších aktiv na neziskovou organizaci Mastodon.
Byla vydána nová major verze 5.0 svobodného 3D softwaru Blender. Přehled novinek i s náhledy a videi v obsáhlých poznámkách k vydání. Videopředstavení na YouTube.
Zdravím,
potřeboval bych zprovoznit cache server tak, aby si pamatoval v cache vše, kde byl, ale pozor tak aby nedělal obměnu dat.
Zatím se mi stává to, že v cache.log a store.log normálně data přibývají, ale jakmile restartuju PC, tak znova načítá všechno z netu ...
Zkoušel jsem nastavit vysokou hodnotu na
dead_peer_timeout
a na
refresh_pattern
Podle mne to nepomáhá a ještě podezírám, že firefox používá vlastní cache a ne ze squidu.
Squid v 2.6, FF2.0 s nastavení proxy na 3128 (default SQUID).
Díky moc
David
Muzete pastnout konfig te cache?
NN
A co říká access.log? Jsou tam vidět záznamy s TCP_HIT?
Tak výpis z acces.log nemá žádné HIT, pouze TCP_MISS/200.
Jinak tady je výpis z squid.conf.
Věděl by někdo??
Díky
A co ma byt cilem te konfigurace? Squid se ridi hlavickami, ktere k danym objektum ziska. Pokdu mu z nich neni jasne, jak s danym objektem nalozit, zaridi se podle hodnot v refresh patternu. Jestlize clovek z nejakeho hodne dobreho duvodu potrebuje, aby se squid choval jinak, muze ho pozadat, aby tyto standardni hlavicky ignoroval - viz volby override-expire, override-lastmod, reload-into-ims, ignore-reload, ignore-no-cache, ignore-private a ignore-auth popsane v onom dlouhem konfiguracnim souboru. Dalsi defaultne zapnute omezeni cache je volba "cache deny QUERY", ktera podle acl QUERY rovnou obchazi cache pro urcita url (cgi-bin, ?). Ve standardni konfiguraci by se squid mel chovat celkem slusne a do cache ukladat jen ty objekty, u kterych je to bezpecne. Tomas
Treba cache_replacement_policy a veci kolem.. NN
Zdravím,
cílem je to co jde přes proxy, hodit do swap cache a pokud přijde nový požadavek na stejnou stránku, aby nezjišťoval jestli je na netu nová verze, ale automaticky si vzal z cache na disku.
Díky
Tak to je to, co squid dela ve sve defaultni konfiguraci. Aby to bylo prakticky pouzitelne, dodrzuje pri vyberu co do cache ulozit a co ne pravidla definovana prislusnymi RFC. Muzou byt vyjimky, kdy je potreba tato pravidla prebit (jak jsem psal drive) a do cache ukladat treba i dynamicky generovany obsah, neridit se uvedenou expiraci nebo tak neco (pokud se squid pouzije napr. jako akcelerator pred webserverem - to je vsak potreba dobre promyslet a zvazit) a proto jsem se ptal na ten ocekavany vysledek. Pokud to ma byt obecny proxy/cache server, tak bych se pripravil na cache hit tak kolem 30% ?
Tomas
Tiskni
Sdílej: