Byla vydána beta verze openSUSE Leap 16. Ve výchozím nastavení s novým instalátorem Agama.
Devadesátková hra Brány Skeldalu prošla portací a je dostupná na platformě Steam. Vyšel i parádní blog autora o portaci na moderní systémy a platformy včetně Linuxu.
Lidi dělají divné věci. Například spouští Linux v Excelu. Využít je emulátor RISC-V mini-rv32ima sestavený jako knihovna DLL, která je volaná z makra VBA (Visual Basic for Applications).
Revolut nabídne neomezený mobilní tarif za 12,50 eur (312 Kč). Aktuálně startuje ve Velké Británii a Německu.
Společnost Amazon miliardáře Jeffa Bezose vypustila na oběžnou dráhu první várku družic svého projektu Kuiper, který má z vesmíru poskytovat vysokorychlostní internetové připojení po celém světě a snažit se konkurovat nyní dominantnímu Starlinku nejbohatšího muže planety Elona Muska.
Poslední aktualizací začal model GPT-4o uživatelům příliš podlézat. OpenAI jej tak vrátila k předchozí verzi.
Google Chrome 136 byl prohlášen za stabilní. Nejnovější stabilní verze 136.0.7103.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 8 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Už několikátý den rošáduji s disky, a tak si říkám, že by možná neuškodilo podělit se s oním martyriem, aby si i ti co dosud objem dat na disku počítají na gigabajty, mohli představit, že to je většinou především hrozná otrava a čekání.
Na samém počátku byl proces scelování dat rozházených po všech čertech a discích. Když jsem se dohrabal k utěšeným 1,8TB tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel a tak jsem pořídil 2x1TB Seagate, vytvořil na něm linuxový sw raid 1, a LVM logický oddíl naformátoval na btrfs. Postupně jsem pak do něj začal všechna data přesypávat. Z rachoty jsem si půjčil 1TB disk, odsypal na něj zbylá data a z uvolněných disků poskládal další pole, přes které se pak ten logický disk roztáhnul.
Začal jsem sice klidněji spát, nicméně cca 200GB volného místa není nic moc. Proto jsem začal pokukovat po větších discích. Jenže koupit najednou 2x2TB se SATA III, byla přeci jenom pálka. A proč kupovat disky se SATA II, když deska i řadiče podporují rychlejší přístup, že? A tak jsem pokukoval jak ceny zvolna padají.
Aby však byla přeci jenom nějaká rezerva, půjčil jsem si dva rezervní 2TB disky ze sady pro plánované úložiště - jak se ukázalo, zahoření nebylo od věci, protože jeden ze sady těcho disků se záhy ukázal zralý na reklamaci - mimochodem zatím druhý Seagate v mém životě, na kterém se objevily nějaké chyby. (První byl 750GB SATA II).
Jenže pak to vypláchlo fabriky v Thajsku a ceny vyletěly vzhůru jak poplašený vrabec. Takže jsem s koupí musel počkat. Nicméně přišel čas, kdy už to nešlo déle odkládat. Disky, které jsem zatím využíval budou potřeba jinde, disky s kapacitou větší jak 3TB jsou zatím v nedohlednu a tak jsem se odhodlal ke koupi 4x2TB se SATA III s cílem sestavit z nich linuxové sw raid 6 pole a všechny pomalejší disky vyházet - přesněji řečeno použít tam, kde se uplatní.
Volba raid6 není náhodná. Čas od času se stane, že se uvolní v kompu nějaký konektor a pokud běží nad tím polem LVM skupina, tak by bylo velmi nemilé, kdyby jí najednou upadly dva disky - jak na potvoru - ze stejného pole. To už mi tedy přijde rozumnější obětovat část prostoru pro uložení dalších metadat.
Problém byl, že jsem nemohl koupit všechny čtyři disky najednou. Přeci jenom - 3,5 tis. za jeden disk je pořád pálka. V první várce jsem tedy koupil 2x2TB (á 3,5 tis.) + 1x60GB SSD (2,7 tis), s cílem na SSD umístit systém a uživatelské adresáře - v těch totiž nic důležitého není. Podstatné adresáře jsou nabindované z úložiště.
Protože jsem ale nechtěl riskovat případnou ztrátu, tak jsem ty dva disky zatím nepoužil na sestavení degradovaného pole s raid 6 ale vytvořil opět raid 1. Na ten jsem v rychlosti přešoupnul všechny data z disků, které bylo potřeba vrátit.
O týden později jsem koupil stejný typ 2xTB, ovšem od jiné firmy, takže mě vyšly ještě s nějakými konektory "jen" 7,5 tis. Při jejich testu se ukázalo že mají novější firmware, než ty co jsem koupil dříve, takže jsem je přemlasknul na CC4C (z CC47), doma opět vytvořil raid 1 a s jeho pomocí pak scelil 2TB fragmentovaného LVM logického oddílu. K té fragmentaci došlo především kvůli tomu, že jsem se při předchozí operaci nechtěl zdržovat. Krom se mi nechtělo riskovat upgrade firmware na discích s nezálohovanými daty.
Aktualizoval jsem tedy i tyto dva disky - tentokrát z verze CC46 na CC4C a konečně mohl přistoupit k vytvoření kýženého raid6 pole. Na pomoc při kopírování jsem si zapůjčil opět 2x2TB z práce a šel na věc.
No jo, jenže jaké zvolit pro raid6 optimální nastavení? Z nejrůznějších testů na internetu někomu vycházely lepší testy při chunku 64, jinému při 256, no zkrátka - chaos. Navíc nikdo se nezaobíral specifiky pole typu raid6 na tak velkých discích. Zkusil jsem tedy vytvořit ze 3 disků degradované pole typu raid6 s velikostí chunku 64. Přesun 2TB extentů z pole raid 1 na tento degradovaný raid 6 (3 disky) trval téměř 24hodin. Po přesunu se však ukázalo, že se všechny extenty při téhle velikosti chunku nevejdou. Chunků o velikosti 64 je prostě moc a příslušná metadata zaberou více místa.
Rozhodnul jsem se tedy vytvořit z uvolněných disků nové pole s velikostí chunku 2048. Nad ním pak novou LVM skupinu a logický disk s aktuální verzí btrfs. A pak data přesunout na úrovni souborového systému. Nové pole však muselo zůstat degradované na pouhé 2 disky. Ne že bych neměl ještě jeden 2TB disk v záloze, ale už zkrátka nebylo kam ho připojit.
Teprve dodatečně jsem narazil na blogpost, který se vlivem velikosti chunku na výkon raidu rovněž zaobíral. Podle jeho testů se zdá, že čím větší velikost chunku, tím větší je rozdíl mezi rychlostí čtení a zápisu. Chunk o velikosti 64 je tedy optimální pro toho, kdo potřebuje minimální disproporci mezi rychlostí čtení a zápisu.
Moje úložiště však je víceméně statický archiv, takže chunky o velikosti 2048 nebyly zase tak úplně špatná volba. I když defaultní velikost chunku (512) by zřejmě vyhovovala lépe. Aktuální rychlost zápisu 28MB/s u btrfs, které pro všechny datové bloky dělá kontrolní součty a také je komprimuje, mi nepřijde zase tak úplně děsná. A jak se zdá, měla by být vykompenzována rychlejším načítáním obsahu.
Jak známo - čím větší diskový prostor k dispozici, tím rychleji se zaplní. Musím však říct, že v poslední době už množství dat které skladuji moc neroste. Je to dáno tím, že už jsou všechna data na jedné hromadě a je tak mnohem snazší v nich dělat pořádek. V minulosti se mi nastřádalo v nejrůznějších zálohách mraky duplicitních souborů. Ty postupně odstraňuji. Nové soubory se tak ukládají místo nich.
Jak se zdá, chvíli potrvá, než se objeví disky s kapacitou nad 3TB, a z hlediska bezpečnosti uložení dat mi přijde řešení které jsem zvolil, nejoptimálnější. Je sice pravda, že SSD disky pravděpodobně cenově rotační disky zanedlouho doženou, ovšem od stávající ceny 80 litrů za 1TB je k tomu ještě docela daleko. A nasadit SSD disk bez raidu bych si tuplem nelajznul.
Takže pokud rovněž plánujete vytvořit podobné úložiště, pokusím se zmínit o chybách, kterými jsem zbytečně ztratil čas:
Jak se zdá, martyrium je konečně u konce, takže mohu dodat i nějaká orientační data.
Pole je složeno ze 4x2TB SATA III disků Seagate ST2000DM001-9YN164 s firmware aktualizovaným na CC4C. Co si poněkud nedokážu vysvětlit, jsou rychlosti zápisu které udává hdparm. U disků koupených z Alzy je to cca 170MB/s a u disků z lan-shop.cz je to kolem 140MB/s. Přitom typ i firmware disků je stejný. Zkoušel jsem pro zajímavost přehodit i porty na řadiči. Výsledek je stejný.
Velikost raid 6 pole s chunky o velikosti 64 byla 3,2TB. Pole s chunky o velikosti 2048 má 3,7TB. Obsazeno daty je celkem 2,9TB.
Rychlost synchronizace zmiňuji na naší manuálové stránce k RAID zařízením, pro ty co to tam nechtějí hledat jenom uvedu že, počáteční synchronizace ze dvou disků na tři trvala 13 hodin. A ze tří na čtyři pak dalších 17 hodin. To jsem měl ovšem v tom raidu i jeden disk SATA II. Po jeho nahrazení trvala stejná operace pouze 6 hodin. Podotýkám, že mám všechna disková zařízení připojená přes SATA III.
Rychlosti čtení a zápisu výsledného pole odpovídají - z hlediska poměru - údajům naměřeným v referenčním testu. V konkrétních číslech: Zápis probíhá průměrně rychlostí 46MB/s a rychlost čtení kolísá od 130 do 150 MB/s. Souborový systém pole je Btrfs. Zkusmo jsem kopíroval virtuální disk o velikosti cca 9GB. Druhý disk je SSD formátovaný na ext4. Ta neprovádí kompresi, takže se dá říct že rychlost čtení (i zápisu) odpovídá reálnému toku dat. Relativně nízká hodnota pro zápis je u btrfs zkreslena tím, že na rozdíl od ext4 btrfs na pozadí data komprimuje a provádí automatickou defragmentaci.
Tiskni
Sdílej:
tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel...
a LVM logický oddíl naformátoval na btrfsEhm...
Mě na tom více zaujalo to BTRFS nad LVM. Btrfs má vlastní multi device manager.
I když z tohoto:
tak jsem si řekl že to už by mě opravdu sakra mrzelo, kdybych o ta data přišel
asi plyne, že Aleš ta data nezálohuje. Asi je nepotřebuje.
Docela by mě zajímalo jak by sis představoval zálohování takového kvanta dat.
Já mám v kompech dohromady asi 5TB diskového prostoru, kde je asi 3.5TB dat, a protože o ta data opravdu nechci přijít, tak k tomu asi 4.5 TB externích disků pro zálohy. Zálohování však nemám automatizované. Zkrátka kdykoliv mám pocit, že jsem od minulé zálohy udělal nějakou důležitou změnu (jednou, dvakrát do měsíce), tak to nasypu na externí disky. V případě, že komp lehne popelem, tak nepřijdu o všechno. Mít všechny disky neustále online, to bych byl hodně nervozní.
nechat si sjet obsah disku pomocí md5sum do (mega)souboru (a mít pak možnost si ověřit, že se nic neztratilo/nepoškodilo - máloco naštve víc, než když člověk zjistí, že má soubor zálohovaný na deseti místech, ale všude už je verze s chybou)
Možná by bylo lepší nechat md5 konečně v klidu umřít. Používám SHA512.
nacpat to do databáze kde jako jeden z indexů bude ten hash. Kromě jiných skopičin bude snadné u nového souboru spočíst md5 a vyhledat v databázi, zda ho už nemám
Já jsem dřív přemýšlel (potom jsem objevil squashfs a ještě potom btrfs) o ukládání dat (nejenom nějakého seznamu) do DB a jejich deduplikaci (dle bloků, nikoliv celých souborů). Ale než se z myšlenky stal návrh, tak už tu jsou FS, které to umí / budou umět.
tento soubor seřadit dle hashe a najít tak snadno duplicity obsahu (nikoli jména) - například pic12345.jpg = pic12345-rybnik.2011.zari.jpg = 2011.09.dovolena.rybnik.jpg
fdupes; hardlink
Navíc ne vždy to jde jen bezhlavě smazat či nahradit hardlinkem - některé vývojové větve i nesouvisejících projektů ptřeba občas obsahují dočasně stejný kód, který se rozdělí až později (typicky u mě různé konfiguráky) - smazání znefunkční větev, hardlink rozhodí druhou/třetí/další větev při změně.
Jo jo. Na tohle se lépe než hardlinky hodí reflinky.