Homebridge pro integraci chytrých domácích zařízení byl vydán ve verzi 2.0.0. Nově vedle protokolu HomeKit Accessory Protocol (HAP) podporuje standard chytré domácnosti Matter.
Omarchy je linuxová distribuce s dlaždicovým správcem oken Hyprland. Založena je na Arch Linuxu. Vydána byla v nové verzi 3.7.0 - The Gaming Edition. Z novinek lze vypíchnout příkaz omarchy a celou řadu herních možností.
CyberChef byl vydán v nové major verzi 11. Přehled novinek v Changelogu. CyberChef je webová aplikace pro analýzu dat a jejich kódování a dekódování, šifrování a dešifrování, kompresi a dekompresi, atd. Často je využívaná při kybernetických cvičeních a CTF (Capture the Flag).
Byla vydána nová verze 2.4.67 svobodného multiplatformního webového serveru Apache (httpd). Řešeno je mimo jiné 11 zranitelností.
Brush (Bo(u)rn(e) RUsty SHell) je v Rustu napsaný shell kompatibilní s Bash (Bourne Again SHell). Vydána byla verze 0.4.0.
Google zveřejnil seznam 1 141 projektů (vývojářů) od 184 organizací přijatých do letošního, již dvaadvacátého, Google Summer of Code. Přihlášeno bylo celkově 23 371 projektů od 15 245 vývojářů ze 131 zemí.
Na čem pracovali vývojáři GNOME a KDE Plasma minulý týden? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Open source počítačová hra na hrdiny NetHack (Wikipedie, GitHub) byla vydána v nové verzi 5.0.0. První verze této hry byla vydána v roce 1987.
Evropská komise naléhavě vyzvala členské státy EU, aby kvůli ochraně nezletilých na internetu urychlily zavádění unijní aplikace pro ověřování věku a zajistily její dostupnost do konce roku. Členské státy mohou zavést aplikaci EU pro ověřování věku jako samostatnou aplikaci nebo ji integrovat do takzvané evropské peněženky digitální identity.
Richard Biener oznámil vydání verze 16.1 (16.1.0) kolekce kompilátorů pro různé programovací jazyky GCC (GNU Compiler Collection). Jedná se o první stabilní verzi řady 16. Přehled změn, nových vlastností a oprav a aktualizovaná dokumentace na stránkách projektu. Některé zdrojové kódy, které bylo možné přeložit s předchozími verzemi GCC, bude nutné upravit.
Pořídil jsem si SSD disk 120GB a mám starý HD 500 GB. Chtěl bych přeinstalovat svůj domácí systém - Ubuntu 14.04.3.
Můj nápad je takovýto:
Co myslíte, je to takhle dobrý nápad, nebo mám něco změnit?
Není dobré si dát na něco pozor? Nebo se už postará systém o všechno další sám?
Dělení disku je přežitek z minulého desetiletí. Doporučuji Btrfs a subvolumes. Neexistuje důvod dělit datové oddíly předem a omezovat tak flexibilitu.
Swap na SSD není dobrý nápad. RAM je dnes levná záležitost a má-li ten systém podporovat uspání na disk (hibernaci), možná je lepší dát příslušný swapovací oddíl na disk, aby nezabíral mnohem dražší SSD kapacitu. Oddíl pro hibernaci (má-li hibernace spolehlivě fungovat) by měl být aspoň stejně velký jako RAM a u malého SSD je škoda zabrat třeba 32 GB na swapovací/hibernační oddíl.
Samozřejmě, že swap může být bez problémů na disku, kde není systém. Dokonce může být na obou discích zároveň nebo v různých jiných konfiguracích.
Názor, že to nejde, je oxymoron. Zda něco jde nebo ne, není věc názoru. 
Problém by mohl nastat v případě, že by disk se swapovacím oddílem byl na řadiči vyžadujícím kernelové moduly, které by nebyly v initramdisku nebo přímo v kernelu. Pak by kernel při probouzení systému z hibernace příslušný swapovací oddíl nemohl vidět a místo probuzení a obnovení původního stavu systému ze swapu by buď dál normálně bootoval nebo selhal. Triviálním řešením tohoto problému je mít všechny potřebné moduly (a) v initramdisku nebo (b) přímo v kernelu.
Řekl bych ovšem, že tento^^^ problém je příliš exotický konstrukt na to, aby na něj člověk narazil u běžného desktopového hardwaru.
btrfs quota enable /Pak vytvořím plánovaný subvol:
btrfs subvol create /cesta/a nastavím pro něj quotu:
btrfs qgroup limit velikost /cesta/Podrobnosti jsou zde.
Proč mít swap o velikosti 2x RAM? Mám-li například 128 GB RAM, měl bych snad mít 256 GB swapu? Vždyť to je naprostý nesmysl. Když chci 2x RAM, koupím si 2x RAM, ne? A je vymalováno. Swap o velikosti srovnatelnou s dnešní RAM se beztak nedá nijak efektivně využít pro provoz systému, protože zapisovat takové množství dat tam a zpět se prostě za uherský rok nestíhá.
Dělení disků na partitiony se používalo v dobách, kdy neexistoval ZFS nebo Btrfs a kdy mělo smysl používat několik různých filesystémů. Mělo to naprosto zásadní nevýhodu v podobě dělení kapacity předem, bez možnosti ji pak nějakým způsobem realokovat. Tomu trochu pomohlo LVM, kde existuje možnost automaticky jedním příkazem změnit velikost LV a zároveň i filesystému, který na tom oddíle existuje, pokud to ovšem daný filesystém podporuje. Ve srovnání s výhodami Btrfs (vestavěný RAID, checksumy, replikace dat i metadat, atomické snapshoty, …) to ovšem bylo pořád ještě hooodně slabé, z dnešní perspektivy. Dnes má smysl mít pouze nešifrovaný /boot a šifrovaný /, u systému bez šifrování disku pak pouze /.
Tak mě to učili na vysoký…
Opravdu? Vysoká by měla učit obecné principy, nikoliv technické podrobnosti, které za pět let přestanou platit.
Docela by mě zajímalo, jak pohodlné jsou s ext4 atomické snapshoty, RAID na úrovni filesystému nebo checksumy dat, když je někde kvůli pohodlí. 
Na courání po historii a větvích zdrojáků mám Git.
Když je nějaký oddíl zaplněný ze 40%, znamená to, že 60% je nevyužitých a ostatní oddíly se k těm 60% nedostanou. To skvěle ilustruje, proč jsou oddíly v mnoha směrech špatně.
Tiskni
Sdílej: