Tuto sobotu 24. května se koná historicky první komunitní den projektu Home Assistant. Zváni jsou všichni příznivci, nadšenci a uživatelé tohoto projektu. Pro účast je potřebná registrace. Odkazy na akce v Praze a v Bratislavě.
Troy Hunt představil Have I Been Pwned 2.0, tj. nový vylepšený web služby, kde si uživatelé mohou zkontrolovat, zda se jejich hesla a osobní údaje neobjevili v únicích dat a případně se nechat na další úniky upozorňovat.
Microsoft představil open source textový editor Edit bežící v terminálu. Zdrojové kódy jsou k dispozici na GitHubu pod licencí MIT.
V Seattlu a také online probíhá konference Microsoft Build 2025. Microsoft představuje své novinky. Windows Subsystem for Linux je nově open source. Zdrojové kódy jsou k dispozici na GitHubu pod licencí MIT.
Z příspěvku Turris Sentinel – co přinesl rok 2024 na blogu CZ.NIC: "Za poslední rok (únor 2024 – únor 2025) jsme zachytili 8,3 miliardy incidentů a to z 232 zemí a z jejich závislých území. Tyto útoky přišly od 6,2 milionu útočníků (respektive unikátních adres). SMTP minipot je stále nejlákavější pastí, zhruba 79 % útoků bylo směřováno na tento minipot, 16 % útoků směřovalo na minipot Telnet, 3 % útoků směřovaly na minipot HTTP a 2 % na minipot FTP. Dále jsme zaznamenali 3,2 milionu unikátních hesel a 318 tisíc unikátních loginů, které útočníci zkoušeli."
Byla vydána (Mastodon, 𝕏) nová verze 3.0.4 svobodné aplikace pro úpravu a vytváření rastrové grafiky GIMP (GNU Image Manipulation Program). Přehled novinek v oznámení o vydání a v souboru NEWS na GitLabu. Nový GIMP je již k dispozici také na Flathubu.
Byla vydána nová stabilní verze 7.4 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 136. Přehled novinek i s náhledy v příspěvku na blogu.
Spolek vpsFree.cz vydal statistiky týkající se distribucí nasazených na serverech členů. V dlouhodobém pohledu je zřejmé, že většina uživatelů z původního CentOS přechází na Rocky Linux. Pozoruhodný je také nárůst obliby distribuce NixOS, která dnes zaujímá třetí místo po Debianu a Ubuntu.
Google minulý týden představil Material 3 Expressive, tj. novou verzi svého designového jazyka Material Design pro Android 16 a Wear OS 6.
Byl vydán Debian 12.11, tj. jedenáctá opravná verze Debianu 12 s kódovým názvem Bookworm. Řešeny jsou především bezpečnostní problémy, ale také několik vážných chyb. Instalační média Debianu 12 lze samozřejmě nadále k instalaci používat. Po instalaci stačí systém aktualizovat.
Řešení dotazu:
Mně dokázalo btrfs rozbít i jen upgrade jádra na novější..Napsal jsi o tom blogový zápisek nebo dotaz do poradny, abychom si mohli přečíst detaily?
rsync / /backups/ble
spadne na permission denied že nemůže zapsat do destinace a pomůže rm toho souboru v destinaci. To je vlastně dobrý nápad se na to podívat, změnil jsem si crontab a uvidíme jestli v noci přijde mail.je rozbalancovaný, ale balance okamžitě spadne na ENOSPC i když jsem teď smazal 300 GB dat (z 1.2TB disku). Běží fsck, pak zkusíme https://www.suse.com/support/kb/doc/?id=000019789fsck žádnou chybu nenašel a po opětovném přimountování už to najednou fungovalo.
Takže ke globální ztrátě dat celého fs došlo jenom tenkrát v roce 2015?A navíc data šlo před spuštěním fsck odlít ven (až na ten jeden adresář což bylo něco nedůležitého v /var/tmp).
A ty další případy byly méně závažné?Pořád je to minimálně opruz a downtime, protože to vyžaduje vyrobit FS znova a nalít tam zálohu. Oproti tomu když se mi nakoplo ext4 - to se samozřejmě taky občas stává - tak to fsck vždycky snadno dostal do konzistentního stavu a nebylo potřeba rsyncovat terabajt tam a zpět.
Tím fsck máš asi na mysli btrfs check?Jo.
Pořád je to minimálně opruz a downtime, protože to vyžaduje vyrobit FS znova a nalít tam zálohu.Předpokládám, že vyrobit "FS znova" jsi musel pouze u toho selhání z roku 2015, protože u 2. odrážky píšeš, že "ten FS stále používáme". U 3. odrážky (rsync) píšeš, že se na to podíváš a u 4. odrážky jsi napsal, že "po opětovném přimountování už to najednou fungovalo.".
protože u 2. odrážky píšeš, že "ten FS stále používáme"Používáme s chybama :/
Nedávno jsem měl případ, kdy se btrfs rozbil, nejprv to vypadalo OK, ale pak se to začalo rozbíjet víc a víc a pokaždé to s sebou vzalo (stará!) data. Naštěstí to pokaždé BTRFS vzdal a remountnul do r/o. Jenže pokaždé než to vzdal zařvalo pár dat.Napsal jsi o tom blogový zápisek nebo dotaz do poradny, abychom si mohli přečíst detaily?
V dnešní době to ale už moc nechápu.Tak třeba jedna naprosto objektivní věc: jejich fsck má v manuálu velké varování že se nemá používat v ne-read-only režimu.
Do not use --repair unless you are advised to do so by a developer or an experienced user, and then only after having accepted that no fsck successfully repair all types of filesystem corruption. Eg. some other software or hardware bugs can fatally damage a volume.Ty jsi zkušený uživatel, takže to používat můžeš. Je otázka jestli by tohle varování nemělo být u fsck všech FS. Mám dojem, že i ty sám jsi v nějakém komentu potvrdil, že fsck u ext4 ti může zahodit poškozená data.
U btrfs je reálné riziko, že jej ještě víc rozmrdá (bohužel, hovořím ze zkušenosti)Napsal jsi o tvé zkušenosti blogový zápisek nebo dotaz do poradny, abychom si mohli přečíst detaily?
Zrovna jsem upgradoval resp. přeinstaloval systém a dal jsem tam:
/boot ext4 /boot/efi vfat / xfs /mnt/data btrfs
Snapshoty jsou pro mne dost důležité, pokud jde o datový disk. Proto Btrfs. Jinak jinak ho používám úplně jednoduše -- nad jedním blokovým zařízením, žádný Btrfs RAID. V tomhle jsem konzervativní -- RAID dělám přes mdadm
a oddíly spravuji přes LVM. Mezi tím je ještě LUKS tzn. klasický vrstvený přístup, kdy každá vrstva dělá tu svoji jednu věc. Od FS nad tím tedy moc nechci -- v podstatě jen ty snapshoty, cp --reflink
, kontrolní součty a ACL+XATTR (ale to mají dnes prakticky všichni).
Btrfs používám už řadu let, byť poměrně nenáročným způsobem. Zatím se mi to nikde nerozsypalo. Jednou mi btrfs scrub
našel chyby u pár souborů, ale to považuji spíš za pozitivum (zřejmě tam něco uhnilo na HDD).
V tomhle jsem konzervativní -- RAID dělám přes mdadm a oddíly spravuji přes LVM. Mezi tím je ještě LUKS tzn. klasický vrstvený přístup, kdy každá vrstva dělá tu svoji jednu věc. Od FS nad tím tedy moc nechci -- v podstatě jen ty snapshoty, cp --reflink, kontrolní součty a ACL+XATTR (ale to mají dnes prakticky všichni).
Míval jsem to kdysi podobně. A přechod na multidevice Btrfs byl ten nejlepší krok, co jsem udělal. Od té doby se ve službě tomuto FS vystřídalo už několik různě velkých disků. Píšu o tom hned o kousek níže. Tou nejpodstatnější výhodou pro mne je to, že drobný HW problém jako je např. to že zavadíš při výměně disku o kabel nevede v případě Btrfs k rozesrání a následně několikahodinové synchonizaci dat. To u MD raidu jsem se 9 hodin modlil, aby nevypadl proud. A to byly pěkně prosím jenom 2TB disky. Pole ve kterém jsou 8TB disky, bez jištěného napájení stroje, už jedině s Btrfs v raid1 módu a ideálně se dvěma replikama – to je budoucnost co mne čeká, až ten objem dat co na něm mám překročí těch 8TB.
Plánuji to spojit s upgrade počítače. Výhledově to znamená systém na 2x M.2 discích a data na 8x 8TB discích. Momentálně by to obnášelo investici cca 40 tisíc, kterou dám teď radši do zubů.
Já s tím mám jednak ten „psychický“ problém (ve většině hororových příběhů o Btrfs figurovalo více disků tzn. nějaká forma RAIDu na úrovni Btrfs), takže to používám spíš tím opatrnějším jednodušším způsobem (podobně jsem nikdy nezačal používat RAID v LVM a radši jsem pod to dal MDRAID).
A jednak jde o to, že ty disky chci mít šifrované a pokud bych měl Btrfs (nebo jinému FS) dát dvě bloková zařízení, ať si nad nimi dělá RAID sám, tak by buď musel umět i šifrovat nebo by se všechna zapisovaná data musela šifrovat dvakrát – pro každý disk.
Takže jsem někde na půli cesty mezi nadšenými příznivci Btrfs a lidmi, kterým „tenhle FS nesmí na disk“. Nicméně netvrdím, že je to ideální – i když jsem obecně příznivcem spíš toho vrstveného přístupu, tak pokud by vše řešil FS, má to taky nějaké výhody. Např. pokud by mu neseděl kontrolní součet, tak by mohl zkoušet číst z obou (všech) diskům, jestli najde data, pro která ten kontrolní součet bude sedět. Nebo může synchronizovat jen části pole, na kterém jsou data. Případně je i šifrovat selektivně (ale kvůli bezpečnosti většinou budeme chtít šifrovat i volné místo). Nebo pokud jde rozumně vypínat CoW (chattr +C
), tak FS může zastoupit roli LVM a efektivně sdílet volné místo mezi souborovým systémem a LV (protože LV jsou pak zase jen soubory).
Já s tím mám jednak ten „psychický“ problém (ve většině hororových příběhů o Btrfs figurovalo více disků tzn. nějaká forma RAIDu na úrovni Btrfs)…Měl by sis víc všímat, kdo ty „hororové” příběhy vypráví.
Souborový systém Btrfs se ukázal jako nejstabilnější komerční využití, ale byly vzneseny obavy z toho, že Btrfs RAID obsahuje chyby výpočtu parity, což vede k neobnovitelné ztrátě dat.Takže tie chyby tám na 100 percent sú? Ako potom môžu dovoliť vývojári BTRFS používať tento FS na produkčných strojoch v RAID režime?
Autor je blbeček, protože důsledek vydává za příčinu. Čert ví co se u něj stalo. Fakt jsem neslyšel o tom, že by vyhořelá žárovka vyhodila jistič. Spíš bych to viděl na proudový náraz který toho mohl sebrat mnohem víc. SSD není rotační disk.To co jsi napsal svědčí spíš o jisté znalostní zanedbanosti u tebe. Takže šup zpátky na základku do hodin fyziky a prostudovat jak funguje žárovka a jistič.
než se BTRFS totálně pomátne (rozpadne se mu stromová struktura) a začne náhodně zapisovat na místa, kde už jsou starší dataNapsal jsi o rozpadnutí stromové struktury a o náhodném zapisování blogový zápisek nebo dotaz do poradny, abychom si mohli přečíst detaily?
Obcas to skonci inak: po zapnuti svetla zablesk, rana,...Až tak nebezpečné jsou moderní LED žárovky? Já mám pořád ještě klasické staré žárovky kde nemá co vybuchnout.
které se už nemohou prodávatfakt, kde to zijes?
Hlavně když praskne žárovka a vyhodí jsitič tak pc má jet dál protože světelný a zásuvkový okruh musí mít každý vlastní jištění.
root@Uloziste:/# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] md0 : active (auto-read-only) raid5 sdc1[1] sdd1[2] sdb1[0] 3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] bitmap: 0/15 pages [0KB], 65536KB chunk
Co jej může poškodit, to je firmware ssd disku, kdy consumer ssd disky nemají ochranu dat v případě výpadku proudu.Můžeš to trošku rozvést nebo dát odkaz na nějaký článek? Které konkrétní SSD ti odešly do nebe po výpadku proudu? Rád bych se takovým SSD vyhnul.
Jinak to, co cituješ, nesouvisí s odchodem disku do věčných lovišť. Souvisí to jen s konzistencí dat. Problém může být patrný v případě, kdy k výpadku dojde při větším zápisu. Ochrana proti tomuto se nazývá "Power-loss data protection".Takže tohle je ten méně závažný problém kdy "pouze" dojde vlivem ztráty napájení ke ztrátě dat v bufferu SSD. Předpokládám, že s tím by si měly fsck ext4 i btrfs poradit. Btrfs asi bude více řvat (obtěžovat uživatele hláškami). Ext4 si to opraví tím způsobem, že uživatel většinou ani nepostřehne, že o data přišel. Chápu to správně?
Byly tím proslulé Crucial M4. Byly to vyhlášené disky jako držáky s výborným výkonem. Později se přišlo na to, že disk odejde při určité konstelaci po výpadku proudu. Jinak kromě toho, že jsem o tom slyšel, se to i kolegovy stalo.A jestli správně chápu, tak tohle je jiný závažnější problém kdy se po ztrátě napájení může ztratit celý disk. Následně se musí provést resuscitace SSD způsobem, který je popsán např. zde:
Crucial recommends that M4 owners whose drives suddenly vanish simply let the drive sit for some 40-60 minutes with the SATA connector disconnected, but the power cable still connected....
To, že disk zmizí a nejde připojit, beru jako poškození. Když za to může zjevně firmware, beru to jako poškození vlivem firmware.Souhlas.
Pokud jde o ztrátu dat, které byly potvrzeny, ale nebyly zapsány, tak záleží, o jaká data jde. Osobně neznám žádnou ukrutně velkou náhodu v takové konstelaci, že by to totálně rozsypalo FSAndrej popisoval rozsypání FS, cituji:
Před lety jsem měl SSD s firmwarem nekompatibilním s Linuxem, který dělal cosi neobvyklého při uspání. Systém následně vypadal jako hrad Trosky. Po cca 20+ násilných restartech z nevysvětlitelného stavu systému se tohle stalo — v nějakém adresáři bylo pár položek se stejným názvem.Zdá se tedy, že firmware SSD dokáže více či méně rozbít FS. Dobré vědět. V tomto směru se dá pochopit, že btrfs bude mít mezi domácími uživateli více hejterů než ext4, protože dostat do konzistentního stavu komplexnější FS jako je btrfs bude pro domácího uživatele složitější. Domácí uživatel ocení hlavně to, že počítač nějak nabootoval a když po čase zjistí, že něco nefunguje, tak to možná ani nedá do souvislosti se ztrátou dat, ale bude si myslet, že mu to rozbila nějaká aktualizace.
No dělal jsem už všelijaké kejkle, ale nic podobného nezažil.
Naposledy teď o víkendu. Na domácím úložišti (obsazeno cca 7TB) byl Btrfs raid1 nad 10x 2TB rotačními disky (2x 3,5” Seagate + 1x 2,5” Samsung + 2x 2,5” Seagate + 5x 2,5” Toshiba). Protože můj postarší matherboard má jen 6 SATA portů, byly potřeba ještě dva starší řadiče. Celkem tedy bylo k dispozici 14 SATA pozic. Tak vysoký počet konektorů a SATA kabelů však sebou přináší riziko chyb, co vznikají třebas jenom tím, že se některý z konektorů časem uvolní. Logicky se tedy můžete ptát: „Proč tolik disků?
Pro vysvětlení je třeba jít do minulosti. Součástí původní konfigurace stroje byly 4x 2TB 3,5” Seagate (dva z těch disků jedou bez sebemenší chyby dodnes). Ale když jsem se s daty dostal na 3TB, nebyly chladiče HDD které používám k sehnání.
Zkrátka, původní plán byl, že koupím box na 12x 2,5”, 16 portový řadič a přejdu komplet na 2,5” disky. Jenže začala divná doba. Objevily se první SSD a SHDD disky. Začaly mizet 2,5” disky se 7200 otáčkami a maximální kapacita klasických rotačních disků, bez ohledu na velikost, byla 2TB. Rozhodl jsem se tedy vyčkat.
Příznivá konstelace nastala nyní. V duchu původního plánu jsem se rozhodl časem nahradit rotační disky za SSD, proto mi přišlo zbytečné kupovat další 2,5” rotační disky a raději jsem zvolil 2x 3,5” 8TB Seagate, abych mohl vyhodit z pole dvě Toshiby, které začaly ve smartu vykazovat chyby. Koupil jsem tedy (konečně) i ten řadič. Byl jetý, ale to ty dva starší také takže jsem nějakou zradu neočekával.
Vše jsem zkompletoval, přidal nové disky do pole a začal přesouvat data z problémových disků. Jenže ouha! Asi po dvou hodinách přestal jeden z těch disků komunikovat. Proto jsem přesun přerušil a pro jistotu stroj vypnul. Jenže při novém startu už řadič neviděl žádný disk. Vrátil jsem se tedy pokorně k původní konstelaci. Bylo to na fous, protože bylo nutné využít komplet všechny SATA porty. Ukázalo se, že ten 8TB disk je ok. A veškeré operace se podařilo bezchybně dokončit.
Jinak k tomu co píše Pepa-dtm: Asi 2x sice PC naběhl, ale s ohromnou spoustou chyb a nabíhal dlouhou dobu.. To je u Btrfs v raid1, které se ustřelí vypínačem normální. Vypisuje ty chyby, ale zároveň je řeší. A systém nenajede, dokud není FS OK. Většinou jde o to, že nahrazuje chybějící chunky, které se díly náhlému přerušení proudu nestihly uložit.
Také jsem nepostřehnul jakou kombinaci disků Pepa-dtm použil.
Asi je BTRFS citlivější než ext4 na tyto případy…
Houby s octem. Btrfs ti akorát na rozdíl od ext4 řekne, že našlo problém, který bylo potřeba vyřešit.
Jinak kvalitní zdroj je základ počítače. Kdo na něm škudlí je vůl co si zadělává na problémy.
Tiskni
Sdílej: