Je třetí sobota v září a proto vše nejlepší k dnešnímu Software Freedom Day (SFD, Wikipedie).
Bogdan Ionescu rozběhl webový server na jednorázové elektronické cigaretě.
Byla vydána beta verze Ubuntu 25.10 s kódovým názvem Questing Quokka. Přehled novinek v poznámkách k vydání. Dle plánu by Ubuntu 25.10 mělo vyjít 9. října 2025.
Bola vydaná nová verzia 4.13 security platformy Wazuh. Prináša nový IT hygiene dashboard, hot reload dekodérov a pravidiel. Podrobnosti v poznámkách k vydaniu.
Americký výrobce čipů Nvidia investuje pět miliard dolarů (přes 100 miliard Kč) do konkurenta Intel, který se v poslední době potýká s vážnými problémy. Firmy to včera oznámily ve společné tiskové zprávě. Dohoda o investici zahrnuje spolupráci při vývoji čipů pro osobní počítače a datová centra. Akcie společnosti Intel na zprávu reagovaly výrazným růstem.
Dlouholetý balíčkář KDE Jonathan Riddell končí. Jeho práci na KDE neon financovala firma Blue Systems, která ale končí (Clemens Tönnies, Jr., dědic jatek Tönnies Holding, ji už nebude sponzorovat), někteří vývojáři KDE se přesunuli k nově založené firmě Techpaladin. Pro Riddella se již nenašlo místo. Následovala debata o organizaci těchto firem, které zahraniční vývojáře nezaměstnávají, nýbrž najímají jako kontraktory (s příslušnými důsledky z pohledu pracovního práva).
V Amsterdamu probíhá Blender Conference 2025. Videozáznamy přednášek lze zhlédnout na YouTube. V úvodní keynote Ton Roosendaal oznámil, že k 1. lednu 2026 skončí jako chairman a CEO Blender Foundation. Tyto role převezme současný COO Blender Foundation Francesco Siddi.
The Document Foundation, organizace zastřešující projekt LibreOffice a další aktivity, zveřejnila výroční zprávu za rok 2024.
Byla vydána nová stabilní verze 7.6 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 140. Přehled novinek i s náhledy v příspěvku na blogu.
Byla vydána verze 1.90.0 programovacího jazyka Rust (Wikipedie). Podrobnosti v poznámkách k vydání. Vyzkoušet Rust lze například na stránce Rust by Example.
Už několikátý den rošáduji s disky, a tak si říkám, že by možná neuškodilo podělit se s oním martyriem, aby si i ti co dosud objem dat na disku počítají na gigabajty, mohli představit, že to je většinou především hrozná otrava a čekání.
Na samém počátku byl proces scelování dat rozházených po všech čertech a discích. Když jsem se dohrabal k utěšeným 1,8TB tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel a tak jsem pořídil 2x1TB Seagate, vytvořil na něm linuxový sw raid 1, a LVM logický oddíl naformátoval na btrfs. Postupně jsem pak do něj začal všechna data přesypávat. Z rachoty jsem si půjčil 1TB disk, odsypal na něj zbylá data a z uvolněných disků poskládal další pole, přes které se pak ten logický disk roztáhnul.
Začal jsem sice klidněji spát, nicméně cca 200GB volného místa není nic moc. Proto jsem začal pokukovat po větších discích. Jenže koupit najednou 2x2TB se SATA III, byla přeci jenom pálka. A proč kupovat disky se SATA II, když deska i řadiče podporují rychlejší přístup, že? A tak jsem pokukoval jak ceny zvolna padají.
Aby však byla přeci jenom nějaká rezerva, půjčil jsem si dva rezervní 2TB disky ze sady pro plánované úložiště - jak se ukázalo, zahoření nebylo od věci, protože jeden ze sady těcho disků se záhy ukázal zralý na reklamaci - mimochodem zatím druhý Seagate v mém životě, na kterém se objevily nějaké chyby. (První byl 750GB SATA II).
Jenže pak to vypláchlo fabriky v Thajsku a ceny vyletěly vzhůru jak poplašený vrabec. Takže jsem s koupí musel počkat. Nicméně přišel čas, kdy už to nešlo déle odkládat. Disky, které jsem zatím využíval budou potřeba jinde, disky s kapacitou větší jak 3TB jsou zatím v nedohlednu a tak jsem se odhodlal ke koupi 4x2TB se SATA III s cílem sestavit z nich linuxové sw raid 6 pole a všechny pomalejší disky vyházet - přesněji řečeno použít tam, kde se uplatní.
Volba raid6 není náhodná. Čas od času se stane, že se uvolní v kompu nějaký konektor a pokud běží nad tím polem LVM skupina, tak by bylo velmi nemilé, kdyby jí najednou upadly dva disky - jak na potvoru - ze stejného pole. To už mi tedy přijde rozumnější obětovat část prostoru pro uložení dalších metadat.
Problém byl, že jsem nemohl koupit všechny čtyři disky najednou. Přeci jenom - 3,5 tis. za jeden disk je pořád pálka. V první várce jsem tedy koupil 2x2TB (á 3,5 tis.) + 1x60GB SSD (2,7 tis), s cílem na SSD umístit systém a uživatelské adresáře - v těch totiž nic důležitého není. Podstatné adresáře jsou nabindované z úložiště.
Protože jsem ale nechtěl riskovat případnou ztrátu, tak jsem ty dva disky zatím nepoužil na sestavení degradovaného pole s raid 6 ale vytvořil opět raid 1. Na ten jsem v rychlosti přešoupnul všechny data z disků, které bylo potřeba vrátit.
O týden později jsem koupil stejný typ 2xTB, ovšem od jiné firmy, takže mě vyšly ještě s nějakými konektory "jen" 7,5 tis. Při jejich testu se ukázalo že mají novější firmware, než ty co jsem koupil dříve, takže jsem je přemlasknul na CC4C (z CC47), doma opět vytvořil raid 1 a s jeho pomocí pak scelil 2TB fragmentovaného LVM logického oddílu. K té fragmentaci došlo především kvůli tomu, že jsem se při předchozí operaci nechtěl zdržovat. Krom se mi nechtělo riskovat upgrade firmware na discích s nezálohovanými daty.
Aktualizoval jsem tedy i tyto dva disky - tentokrát z verze CC46 na CC4C a konečně mohl přistoupit k vytvoření kýženého raid6 pole. Na pomoc při kopírování jsem si zapůjčil opět 2x2TB z práce a šel na věc.
No jo, jenže jaké zvolit pro raid6 optimální nastavení? Z nejrůznějších testů na internetu někomu vycházely lepší testy při chunku 64, jinému při 256, no zkrátka - chaos. Navíc nikdo se nezaobíral specifiky pole typu raid6 na tak velkých discích. Zkusil jsem tedy vytvořit ze 3 disků degradované pole typu raid6 s velikostí chunku 64. Přesun 2TB extentů z pole raid 1 na tento degradovaný raid 6 (3 disky) trval téměř 24hodin. Po přesunu se však ukázalo, že se všechny extenty při téhle velikosti chunku nevejdou. Chunků o velikosti 64 je prostě moc a příslušná metadata zaberou více místa.
Rozhodnul jsem se tedy vytvořit z uvolněných disků nové pole s velikostí chunku 2048. Nad ním pak novou LVM skupinu a logický disk s aktuální verzí btrfs. A pak data přesunout na úrovni souborového systému. Nové pole však muselo zůstat degradované na pouhé 2 disky. Ne že bych neměl ještě jeden 2TB disk v záloze, ale už zkrátka nebylo kam ho připojit.
Teprve dodatečně jsem narazil na blogpost, který se vlivem velikosti chunku na výkon raidu rovněž zaobíral. Podle jeho testů se zdá, že čím větší velikost chunku, tím větší je rozdíl mezi rychlostí čtení a zápisu. Chunk o velikosti 64 je tedy optimální pro toho, kdo potřebuje minimální disproporci mezi rychlostí čtení a zápisu.
Moje úložiště však je víceméně statický archiv, takže chunky o velikosti 2048 nebyly zase tak úplně špatná volba. I když defaultní velikost chunku (512) by zřejmě vyhovovala lépe. Aktuální rychlost zápisu 28MB/s u btrfs, které pro všechny datové bloky dělá kontrolní součty a také je komprimuje, mi nepřijde zase tak úplně děsná. A jak se zdá, měla by být vykompenzována rychlejším načítáním obsahu.
Jak známo - čím větší diskový prostor k dispozici, tím rychleji se zaplní. Musím však říct, že v poslední době už množství dat které skladuji moc neroste. Je to dáno tím, že už jsou všechna data na jedné hromadě a je tak mnohem snazší v nich dělat pořádek. V minulosti se mi nastřádalo v nejrůznějších zálohách mraky duplicitních souborů. Ty postupně odstraňuji. Nové soubory se tak ukládají místo nich.
Jak se zdá, chvíli potrvá, než se objeví disky s kapacitou nad 3TB, a z hlediska bezpečnosti uložení dat mi přijde řešení které jsem zvolil, nejoptimálnější. Je sice pravda, že SSD disky pravděpodobně cenově rotační disky zanedlouho doženou, ovšem od stávající ceny 80 litrů za 1TB je k tomu ještě docela daleko. A nasadit SSD disk bez raidu bych si tuplem nelajznul.
Takže pokud rovněž plánujete vytvořit podobné úložiště, pokusím se zmínit o chybách, kterými jsem zbytečně ztratil čas:
Jak se zdá, martyrium je konečně u konce, takže mohu dodat i nějaká orientační data.
Pole je složeno ze 4x2TB SATA III disků Seagate ST2000DM001-9YN164 s firmware aktualizovaným na CC4C. Co si poněkud nedokážu vysvětlit, jsou rychlosti zápisu které udává hdparm. U disků koupených z Alzy je to cca 170MB/s a u disků z lan-shop.cz je to kolem 140MB/s. Přitom typ i firmware disků je stejný. Zkoušel jsem pro zajímavost přehodit i porty na řadiči. Výsledek je stejný.
Velikost raid 6 pole s chunky o velikosti 64 byla 3,2TB. Pole s chunky o velikosti 2048 má 3,7TB. Obsazeno daty je celkem 2,9TB.
Rychlost synchronizace zmiňuji na naší manuálové stránce k RAID zařízením, pro ty co to tam nechtějí hledat jenom uvedu že, počáteční synchronizace ze dvou disků na tři trvala 13 hodin. A ze tří na čtyři pak dalších 17 hodin. To jsem měl ovšem v tom raidu i jeden disk SATA II. Po jeho nahrazení trvala stejná operace pouze 6 hodin. Podotýkám, že mám všechna disková zařízení připojená přes SATA III.
Rychlosti čtení a zápisu výsledného pole odpovídají - z hlediska poměru - údajům naměřeným v referenčním testu. V konkrétních číslech: Zápis probíhá průměrně rychlostí 46MB/s a rychlost čtení kolísá od 130 do 150 MB/s. Souborový systém pole je Btrfs. Zkusmo jsem kopíroval virtuální disk o velikosti cca 9GB. Druhý disk je SSD formátovaný na ext4. Ta neprovádí kompresi, takže se dá říct že rychlost čtení (i zápisu) odpovídá reálnému toku dat. Relativně nízká hodnota pro zápis je u btrfs zkreslena tím, že na rozdíl od ext4 btrfs na pozadí data komprimuje a provádí automatickou defragmentaci.
Tiskni
Sdílej:
tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel...
a LVM logický oddíl naformátoval na btrfsEhm...
Mě na tom více zaujalo to BTRFS nad LVM. Btrfs má vlastní multi device manager.
I když z tohoto:
tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel
asi plyne, že Aleš ta data nezálohuje. Asi je nepotřebuje.
Docela by mě zajímalo jak by sis představoval zálohování takového kvanta dat.
Já mám v kompech dohromady asi 5TB diskového prostoru, kde je asi 3.5TB dat, a protože o ta data opravdu nechci přijít, tak k tomu asi 4.5 TB externích disků pro zálohy. Zálohování však nemám automatizované. Zkrátka kdykoliv mám pocit, že jsem od minulé zálohy udělal nějakou důležitou změnu (jednou, dvakrát do měsíce), tak to nasypu na externí disky. V případě, že komp lehne popelem, tak nepřijdu o všechno. Mít všechny disky neustále online, to bych byl hodně nervozní.
nechat si sjet obsah disku pomocí md5sum do (mega)souboru (a mít pak možnost si ověřit, že se nic neztratilo/nepoškodilo - máloco naštve víc, než když člověk zjistí, že má soubor zálohovaný na deseti místech, ale všude už je verze s chybou)
Možná by bylo lepší nechat md5 konečně v klidu umřít. Používám SHA512.
nacpat to do databáze kde jako jeden z indexů bude ten hash. Kromě jiných skopičin bude snadné u nového souboru spočíst md5 a vyhledat v databázi, zda ho už nemám
Já jsem dřív přemýšlel (potom jsem objevil squashfs a ještě potom btrfs) o ukládání dat (nejenom nějakého seznamu) do DB a jejich deduplikaci (dle bloků, nikoliv celých souborů). Ale než se z myšlenky stal návrh, tak už tu jsou FS, které to umí / budou umět.
tento soubor seřadit dle hashe a najít tak snadno duplicity obsahu (nikoli jména) - například pic12345.jpg = pic12345-rybnik.2011.zari.jpg = 2011.09.dovolena.rybnik.jpg
fdupes; hardlink
Navíc ne vždy to jde jen bezhlavě smazat či nahradit hardlinkem - některé vývojové větve i nesouvisejících projektů ptřeba občas obsahují dočasně stejný kód, který se rozdělí až později (typicky u mě různé konfiguráky) - smazání znefunkční větev, hardlink rozhodí druhou/třetí/další větev při změně.
Jo jo. Na tohle se lépe než hardlinky hodí reflinky.