Bezpečnostní specialista Graham Helton z Low Orbit Security si všímá podezřelých anomálií v BGP, zaznamenaných krátce před vstupem ozbrojených sil USA na území Venezuely, které tam během bleskové speciální vojenské operace úspěšně zatkly venezuelského diktátora Madura za narkoterorismus. BGP (Border Gateway Protocol) je 'dynamický směrovací protokol, který umožňuje routerům automaticky reagovat na změny topologie počítačové sítě' a je v bezpečnostních kruzích znám jako 'notoricky nezabezpečený'.
Společnost Valve aktualizovala přehled o hardwarovém a softwarovém vybavení uživatelů služby Steam. Podíl uživatelů Linuxu dosáhl 3,58 %. Nejčastěji používané linuxové distribuce jsou Arch Linux, Linux Mint a Ubuntu. Při výběru jenom Linuxu vede SteamOS Holo s 26,32 %. Procesor AMD používá 67,43 % hráčů na Linuxu.
V Las Vegas probíhá veletrh CES (Consumer Electronics Show, Wikipedie). Firmy představují své novinky. Například LEGO představilo systém LEGO SMART Play: chytré kostky SMART Brick, dlaždičky SMART Tagy a SMART minifigurky. Kostka SMART Brick dokáže rozpoznat přítomnost SMART Tagů a SMART minifigurek, které se nacházejí v její blízkosti. Ty kostku SMART Brick aktivují a určí, co má dělat.
Vládní CERT (GovCERT.CZ) upozorňuje (𝕏) na kritickou zranitelnost v jsPDF, CVE-2025-68428. Tato zranitelnost umožňuje neautentizovaným vzdáleným útočníkům číst libovolné soubory z lokálního souborového systému serveru při použití jsPDF v prostředí Node.js. Problém vzniká kvůli nedostatečné validaci vstupu u cest k souborům předávaných několika metodám jsPDF. Útočník může zneužít tuto chybu k exfiltraci citlivých
… více »V úterý 13. ledna 2025 se v pražské kanceláři SUSE v Karlíně uskuteční 5. Mobile Hackday, komunitní setkání zaměřené na Linux na mobilních zařízeních, kernelový vývoj a související infrastrukturu. Akci pořádá David Heidelberg.
… více »Už je 14 dní zbývá do začátku osmého ročníku komunitního setkání nejen českých a slovenských správců sítí CSNOG 2026. Registrace na akci je stále otevřená, ale termín uzávěrky se blíží. I proto organizátoři doporučují, aby se zájemci přihlásili brzy, nejlépe ještě tento týden.
… více »Rok 2026 sotva začal, ale už v prvním týdnu se nashromáždilo nezvykle mnoho zajímavostí, událostí a zpráv. Jedno je ale jisté - už ve středu se koná Virtuální Bastlírna - online setkání techniků, bastlířů a ajťáků, kam rozhodně doražte, ideálně s mikrofonem a kamerou a zapojte se do diskuze o zajímavých technických tématech.
Dějí se i ne zcela šťastné věci – zdražování a nedostupnost RAM a SSD, nedostatek waferů, 3€ clo na každou položku z Číny … více »Vývojáři GNOME a Firefoxu zvažují ve výchozím nastavení vypnutí funkce vkládání prostředním tlačítkem myši. Zdůvodnění: "U většiny uživatelů tento X11ism způsobuje neočekávané chování".
Nástroj pro obnovu dat GNU ddrescue (Wikipedie) byl vydán v nové verzi 1.30. Vylepšena byla automatická obnova z disků s poškozenou čtecí hlavou.
Protokol IPv6 má již 30 let. První návrh specifikace RFC 1883 je z prosince 1995.
mdadm --create /dev/md1 --level=0 --raid-devices=2 /dev/sda /dev/sdbDisky SDC a SDD spojím do RAIDU 0, čímž vytvořím zařízení/disk "md2" o velikosti 500GB:
mdadm --create /dev/md2 --level=0 --raid-devices=2 /dev/sdc /dev/sddVYTVÁŘENÍ "RAID 1" - zařízení/disk "md0"
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/md1 /dev/md2V tuto chvíli bych tedy měl mít RAID 0+1, dle zadání. Otázka zní, mám-li to dobře, nebo jestli je ještě potřeba udělat něco jiného. Musím potom pole ještě "nějak" inicializovat ? Můj
/etc/mdadm.conf DEVICES /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/md1 /dev/md2 ARRAY /dev/md1 uuid=965f1a15:ae6f4946:1f1e6ffd:32f4b97a ARRAY /dev/md2 uuid=5415c266:4f7b079b:f5151c5c:93ab1f9b ARRAY /dev/md0 uuid=c25d0e8f:210ad27d:f59d369b:28f5e575...kde UUID jsem si zjistil pomocí:
mdadm --detail --scana poté:
mdadm --assemble --scanStačí pak udělat...
mkreiserfs /dev/md0 mount -t reiserfs /dev/md0 /home/storageCo si o tom myslíte ?
Podle mne by to takhle mělo fungovat. Jen by asi bylo jednodušší použít
mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd{a,b,c,d}
(a případně zvážit, zda místo 1+0 nepoužít RAID 5 nebo 6).
(Píšu to z hlavy, takže možná něco spletu.)
Raid 1+0 bude mít velikost dvojnásobku velikosti disku, odolnost při výpadku určitě jednoho disku (za příznivých okolností i dvou), rychlost čtení (teoreticky) čtyřnásobná, zápisu dvojnásobná.
Raid 5 ze tří disků bude mít dvojnásobnou velikost, odolnost proti výpadku jednoho disku, rychlost čtení trojnásobná, zápisu 1.5-násobná. Výhodou oproti ostatním variantám je, že vám zbyde jeden disk jako spare, takže při výpadku lze okamžitě nahradit mrtvolu a rebuildnout pole a výměnu nechat na později. (viz poznámka 3)
Raid 5 ze čtyř disků bude mít trojnásobnou velikost, odolnost proti výpadku jednoho disku, rychlost čtení čtyřnásobná, rychlost zápisu dvojnásobná.
Raid 6 bude mít dvojnásobnou velikost, odolnost proti výpadku dvou disků (jakýchkoli), rychlost čtení čtyřnásobná, rychlost zápisu 1.33-násobná.
Poznámka 1: hodnoty rychlosti čtení a zápisu jsou teoretické hodnoty při čtení/zápisu dlouhého souvislého bloku za předpokladu, že procesor je dostatečně rychlý, s disky lze komunikovat paralelně a není tam nějaké úzké hrdlo (např. sběrnice).
Poznámka 2: co se týká RAID 5 a RAID 6, jsou náročnější na procesor (RAID 6 víc), ale pokud na systému neběží něco, co by procesor vytěžovalo na doraz, není to tak hrozné. Někdy v roce 1999 jsem dělal SW RAID 5 ze tří disků o rychlosti nějakých 15 MB/s na počítači, o který by se dneska člověk styděl opřít koloběžku, a rychlost čtení byla asi 28 MB/s (a to ještě byla na vině sběrnice a ne procesor).
Poznámka 3: poučky o odolnosti vůči výpadku disku platí jen v případě, že disk odejde civilizovaným způsobem. Podle zákona schválnosti se ale výpadky disků v poli mohou projevovat velmi svérázně: např. nedávno jsem zažil, že disk v mirroru vždy po startu hodinu zcela hladce fungoval a pak způsobil zatuhnutí systému. V takovém případě samozřejmě všechny teoretické poučky přijdou vniveč…
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 0,00 0,00 0,00 0 0 sdb 243,56 31427,72 0,00 31742 0 sdc 0,00 0,00 0,00 0 0 sdd 0,00 0,00 0,00 0 0 sde 0,00 0,00 0,00 0 0 sdf 0,00 0,00 0,00 0 0 sdg 0,00 0,00 0,00 0 0 sdh 0,00 0,00 0,00 0 0 md1 0,00 0,00 0,00 0 0 md0 15461,39 30922,77 0,00 31232 0takze evidentne se rozklad zateze nekona
Hm, tak můj mirror v serveru se chová podobně (SuSE 9.3, dva SATA disky, jeden 58 MB/s, druhý 50 MB/s, pole 55 MB/s). Že by chyba v driveru? Zdá se mi neuvěřitelné, že by si toho nikdo nevšiml…
Příští týden mám shodou okolností v plánu provádět upgrade toho stroje, tak při té příležitosti zkusím i nějaké úplně čerstvé jádro.
Tak jsem se ještě zběžně zkusil podívat do zdrojáků (drivers/md/raid1.c) a zdá se, že na vině je funkce read_balance(), viz komentář:
This routine returns the disk from which the requested read should be done. There is a per-array 'next expected sequential IO' sector number - if this matches on the next IO then we use the last disk. There is also a per-disk 'last know head position' sector that is maintained from IRQ contexts, both the normal and the resync IO completion handlers update this position correctly. If there is no perfect sequential match then we pick the disk whose head is closest.
Jestli jsem tu logiku dobře pochopil, tak by sice měla dávat lepší přístupovou dobu, ale u delšího souvislého bloku nutně povede k tomu, že se celý načte z jednoho disku.
Tiskni
Sdílej: