Hru Warhammer: Vermintide 2 (ProtonDB) lze na Steamu získat zdarma napořád, když aktivaci provedete do pondělí 24. listopadu.
Virtualizační software Xen (Wikipedie) byl vydán v nové verzi 4.21. Podrobnosti v poznámkách k vydání a přehledu nových vlastností.
Evropská komise schválila český plán na poskytnutí státní pomoci v objemu 450 milionů eur (téměř 11 miliard Kč) na rozšíření výroby amerického producenta polovodičů onsemi v Rožnově pod Radhoštěm. Komise o tom informovala v dnešní tiskové zprávě. Společnost onsemi by podle ní do nového závodu v Rožnově pod Radhoštěm měla investovat 1,64 miliardy eur (téměř 40 miliard Kč).
Microsoft v příspěvku na svém blogu věnovaném open source oznámil, že textové adventury Zork I, Zork II a Zork III (Wikipedie) jsou oficiálně open source pod licencí MIT.
První prosincový týden proběhne SUSE Hack Week 25. Zaměstnanci SUSE mohou věnovat svůj pracovní čas libovolným open source projektům, například přidání AI agenta do Bugzilly, implementaci SSH v programovacím jazyce Zig nebo portaci klasických her na Linux. Připojit se může kdokoli.
Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Výkon ti nezlepšíFakt Vám nevěřím, že filesystém nad filesystémem nad blokovým zařízením je rychlejší než filesystém nad blokovým zařízením.
Operace se snapshoty u LVM jsou šíleně pomalýRychlost snapshotů u LVM je problém v případě, když člověk není ochoten investovat pár tisíc do dvou SSD na metadata. S těmi je to docela v pohodě.
Já tvrdím, že performance impact u qcow2 je relativně zanedbatelný a v některých věcech nepostřehnutelný...Ok, to beru.
pokud někde rezervy mám, tak nevidím důvod používat LVM.Třeba když nepotřebuju funkce, které nabízí qcow2, ani podporu app třetích stran
Pokud ve virtuálu je databáze, tak ji před tím dumpnu do souboruU databází, které to podporují, tohle jde ještě vylepšit tak, že se DB serveru řekne, aby data na filesystému uvedl do stavu, kdy půjdou zazálohovat (např. u Postgresu pg_start_backup()). Pak není potřeba nic dumpovat a zálohu jde zkopírovat ze snapshotu rsyncem.
Da se ricit, ze muj zalohovaci ekosystem tim konecne dosahnul verze 1.0 - tedy dela vse to co potrebuju a dela to tak jak potrebuju a v nasledujicich letech to muzu uz jen vylepsovat a ladit a pokud by tam pribylo neco zasadne noveho, tak si fakt neumim predstavit ze co za bonbonek by to mohlo byt, ale cela leta jsem vedel, ze co potebuju a co mi chybi a i kdyz jsem uz mel temer uplne vsechno, tak mi chybela prave ta deduplikace komprimovanych zaloh! A kdyz jsem laboroval s deduplikaci, tak to vzdy melo nejake zasadni mouchy, nebo pretezke vykonove naroky, ale pak prisel borgbackup a ten deduplikaci dela nadhernym zpusobem! Spolehlive a velmi rychle! Nepotrebuje temer zadny vykon stroje, takze muzu ukladat komprimovane a deduplikovane a velmi rozsahle zalohy a jeste k tomu i sifrovane a to cele nekdy i na nejakem pocitaci z odpadkace - neco co se neda pouzit uz ani na desktop pro sekretarku!
Jo a strasne moc dulezite je taky to, ze borgbackup uklada v zaloze data jen jako normalni soubory! To znamena, ze kdykoliv muzu repository premistit bez nejmensich problemu na jiny zalohovac, takze mi to dava velikou flexibilitu. Nektere z drivejsich reseni mely sice ruzne zasadni vyhody a socialni jistoty (i kdyz ty taky tak nejak ne uplne...), ale nevyhody treba v tom, ze neprovadely deduplikaci na urovni dat, ale jen na urovni souboru (2x stejny soubor lezel v zaloze jen 1x, ale kazdy den byl jakykoliv virtual vzdy jinym souborem i kdyz mel nekolik stovek giga a zmenil se v tom jen bajtik, takze v takovem pripade samozrejme zadna deduplikace neprichazela v uvahu zatimco s borgbackup je to dokonale a na urovni bloku) a delalo se to pomoci hardlinku a ty jsem nedokazal presouvat ze serveru na server a nenasel jsem v tomto smeru zpusob jak se to naucit. Nebo ruzne deduplikacni fs vyzadovaly ohromne vykony, nebo zase ohromne mnozstvi ramky (borgbackup nema naroky temer zadne!) a stavalo se mi, ze obcas jsem nekde neco neohlidal a cely fs se rozbil - to se mi s borgbackupem nedeje a doufam, ze jsem to nezakriknul, ale provozuju to takhle uz nejakou tu dobu a obsluhuje to spousty terabajtu.
Dalsi zasadne dulezitou veci je, ze data se mohou ukladat a kdyz se cokoliv nepovede, tak data na zalohovaci sice pro ucely deduplikace zustanou k dispozici, ale borgbackup takovou zalohu nepovazuje za provedenou - treba nevyjde kontrolni soucet, nebo cokoliv - ne ze by se to stavalo. Ale chci tim rict to, ze kdyz uz dokazu vylistovat (tedy na report serveru overit konkretni zalohu ke konkretnimu datumu, nebo jejich pocet k tomuto datumu), tak mam absolutni jistotu, ze to jsou zalohy uplne a v poradku! Kdyz zaznam o zaloze eistuje, tak to je zazalohovane spravne a spolehlive! Takze se na ten udaj muzu spolehnout. Minimalne je to se spolehlivosti o nekolik radu jinde, nez tomu bylo v predchozich zpusobech zalohovani (musi se take zohlednit i ty pripady, kdy pred samotnou zalohou se musi spoustet nejake pripravne scripty - treba dump databaze), protoze jeden z resenych ukolu je spolehlivost a zarucitelnost zalohy i v pripade, ze se na to nemuzu nejak podrobne divat v tom mnozstvi zalohovanych serveru napric ruznymi lokacemi. Takze ted jsem z daleka nejbliz k tomu, ze kdyz se zaloha nepovede - jakkoliv dulezita, nebo nedulezita, tak s absolutnim minimem pozornosti na danou vec (a s minimem casu, ktery bych tomu musel venovat) se to opravdu vcas dozvim a nestane se, ze by mi nejaky zapadly server nekde v zapadle galaxii bezel treba tejden bez zaloh jen proto, ze jsem se na nej celej tejden nepodival.
Neco ukousnout na system (davam obvykle 8 GB) a zbytek uz bude jen prostor pro LVM svazky.Osobně dávám systém též na LVM, minimálně v Debianu je to již mnoho let plně automatické a bezproblémové. Když dělám nějakou zásadnější změnu (typicky přechod na novou major verzi distribuce), tak udělám snapshot, a když se něco podělá (což se naštěstí stává málokdy), tak to bez stresu vrátím a můžu problém vyřešit. (protip (Debian): dělejte to v pořadí změna sources.list, apt-get update, apt-get -dy dist-upgrade, snapshot, apt-get dist-upgrade. Díky tomu nebudete mít ve snapshotu zbytečně všechny stažené balíčky, což trochu pomůže rychlosti třeba na pomalém rotačním RAID6)
Po siti se pak prenasi vzdy jen incrementy a ty jsou v zaloze vzdy sestavene do celku a vzdy tvori fullbackup. Priklad: mam 300GB velky LV patrici nejake virtualce. Od posledni zalohy se zmenilo treba jen 5MB. Po siti tedy odjede jen 5MB.Počkej, tohle mi nefunguje (nepoužívám tedy Borg, ale již zmíněný skriptík v Pythonu, který by měl ale dělat v zásadě totéž, jen bez hezkých věcí okolo). Teda jestli to chápu dobře, ty bereš diffy toho blokového zařízení. A mně to na ext4 vždycky přenese minimálně 150-300 MB (víceméně podle velikosti filesystému), i když se skoro nic nezměnilo. Podezřívám, že za to může žurnál, který se furt přepisuje jako kruhový log.
Osobně dávám systém též na LVM, minimálně v Debianu ... Když dělám nějakou zásadnější změnu ..., tak udělám snapshot,To dělám taky.
(protip (Debian): dělejte to v pořadí změna sources.list, apt-get update, apt-get -dy dist-upgrade, snapshot, apt-get dist-upgrade.Z toho tak nějak chápu, že ten snapshot děláš za běhu. Je to tak? To ale nemůže být konzistentní, ne? Já ho v takovém případě vytvářím při rebootu, před namontováním root volume.
Z toho tak nějak chápu, že ten snapshot děláš za běhu. Je to tak? To ale nemůže být konzistentní, ne?Je to ve stejném stavu jako kdyby se ten systém natvrdo vypnul, a to se prostě děje a musí to vydržet.
Je nemyslitelné, aby každá záloha obnášela reboot.Tak ještě se dá použít
fsfreeze halts any new access to the filesystem and creates a stable image on disk. fsfreeze is intended to be used with hardware RAID devices that support the creation of snapshots.Akorát když si člověk nedá pozor, snadno se dostane do stavu, kdy už nejde unfreeze
Tiskni
Sdílej: