Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
Eugen Rochko, zakladatel Mastodonu, tj. sociální sítě, která není na prodej, oznámil, že po téměř 10 letech odstupuje z pozice CEO a převádí vlastnictví ochranné známky a dalších aktiv na neziskovou organizaci Mastodon.
Byla vydána nová major verze 5.0 svobodného 3D softwaru Blender. Přehled novinek i s náhledy a videi v obsáhlých poznámkách k vydání. Videopředstavení na YouTube.
.
Kde nebudu chtít COW, tak XFS.xfs ma v podstate CoW, viz zde.
-m reflink=1.
This feature enables the creation of per-file snapshots and deduplication.tzn pro
cp --reflink=always.
Jak se vytvoří snapshot celého fs?
Zkrátka, je nesmysl se omezovat pouze na jednu technologii. Nic jako nejlepší FS neexistuje. Vždy záleží na použití a na posouzení výhod a nevýhod. V linuxu máme možnost použít hromadu různých FS, takže pro konkrétní nasazení je vždy možné zvolit ten nejlepší.+10^10
Já bych řekl, že jde tak trochu o zavádějící informaci, kterou si lze vyložit spíš tak, že Red Hat u Enterprise verze opouští svět, kde server i úložiště bylo na jednom strojiJa bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.
– to je oblast kde je Btrfs nejefektivnější.Jak kdy. Pokud chcete mit treba vysoky prutok dat, i na jednom stroji, bude CPU bottleneck a nektere veci jako treba CRC ci sifrovani je lepsi offloadovat na speializovany HW. Potom je vrstveny modularni pristup lepsi.
Ja bych spise rekl, ze Red Hat nevstupuje to sveta, kde je vsechno monoliticky splacane do jednoho blobu a preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat. Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text. Můžeme mít vrstvu rozdělení (LVM), která třeba může řešit distribuci volného místa pomocí thinprovisioningu (a to, jak to "řeší" LVM považuji za špatný vtip). To znamená, že si opět bude držet tabulku bloků přidělených jednotlivým LV a tabulku volného místa. Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné. Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednou, sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře. Nehledě teda na to, že jediný argument pro rozdělení do vrstev raid, rozdělení, fs nad blokových device je asi tak na úrovni: prostě se to tak dělá.
To je sice hezké, ale ještě nikdo neukázal, jak tohle efektivně na více vrstvách implementovat.V Linuxu nikdo neukázal ani to, jak to efektivně implementovat na jedné vrstvě. Myslím funkční, takže btrfs se nepočítá.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše. Může mít tabulku použitých bloků, jenže tato se bude dublovat, viz další text.Zrovna u tabulky použitých bloků pořád nevidím principiální problém v tom, aby si tuhle tabulku buď a) udržovalo blokové zařízení, kterého by se vrstvy nad ním mohly ptát b) udržoval filesystém, kterého by se vrstvy pod ním mohly ptát
Od roku 2009, kdy BTRFS tohle vše spojil dohromady a vyřešit tak x věcí najednouTo moc nevyřešil - jak se diskutuje vedle, implementace RAIDu 5/6 je nefunkční a RAID 1 má, řekněme, významné nevýhody.
sice kde kdo hovoří o tom, jak je to koncepčně špatně, ale ještě nikdo nepřišel s tím, jak to udělat rozdělené do x vrstev a dobře.Taky se nikdo nesnažil. Postupná evoluce není tak dobrá reklama jako nový a revoluční filesystém.
Ano, máme vrstvu redundance (MD), ale ta nemá páru o tom, které bloky jsou nebo nejsou používané, takže při výměně disku typicky syncuje vše.To mi v praxi nepřijde zas takový problém:
Na tím můžeme mít "klasický" fs, který si opět vede tabulku zabraných bloků a dolů posílá info o tom, které bloky jsou uvolněné.I tohle se AFAIK v principu umí (FS ti to řekne třeba když děláš trim), akorát to nikdo neimplementoval do MD.
Nebo jinak, používáte někdo někde ten LVM thin provisioning?Ne, funguje to pěkně blbě. Teda možná to byla MŽK chyba, ale když jsem to zkoušel, tak jsem se dopracoval k tomuhle: V Debianu Jessie i Stretch není možné uvolnit místo v thin pool zmenšením LV. Po zmenšení LV zůstává podle lvs -a obsazené místo na thin pool stejné. Jediný způsob, jak místo skutečně uvolnit, je LV zcela smazat.
preferuje flexibilni vrstvenou architekturu, kde ma administrator kontrolu nad jednotlivymi vrstvami a bloky, a muze si vybirat jejich implementaci.Jj, třeba když si chce vybrat z implementace raidu, tak má na výběr z MD raid. Nebo snapshoty a svazky, tam je na výběr z device mapperu. Ne že bych tady zrovna chtěl obhajovat btrfs a jejich přístup "blbě reimplementujeme všechno, co v kernelu už je", ale těch implementací na výběr opravdu moc není.
Ostatně proto se také (pokud vím) používá u malých domácích NAS zařízení co dělá Synology.Zrovna Synology zpřístupnili btrfs docela pozdě, cca před dvěma roky, a to jen pro výkonnější systémy. A výchozí je pořád ext4, btrfs je rozšířená funkce pro znalce.
CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
Pámbů s námi a zlý pryč! Red Hell - nomen omen.CoreOS s btrfs a je to bídaCoreOS od btrfs presel kvuli neustalym problemum zakazniku k EXT4 + OverlayFS.
A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
U toho jsem také přišel nepěkným způsobem o data.. Naštěstí to bylo ještě v testovacím režimu, takže jsem to šupem přehodil na Btrfs a od té doby byl klid a mír.A fatálně rozbitou ext4 jsem zažil několikrát – na rozdíl od Btrfs.Ja mam spise opacnou zkusenost, i kdyz nevidim zadny duvod pouzivat ext4 s ohledem na existenci xfs.
V praci mame xfs na diskovych polich v kapacite asi 1000TB,…V tom bych řekl že vězí i ten problém s Btrfs. O tom jaký se má použít FS na tak velkých systémech rozhodují konzervativci, co mají s Btrfs jen velmi malé zkušenosti. Logicky si tedy kryjou zadek tím, že použijí to, za co se jim zaručí poskytovatel distribuce. Osobně bych si chtěl přinejmenším zkusit postavit cloudový systém na stejně výkoném HW, ale s jinými technologiemi, než se standardně používají. Pak by teprve bylo možné něco srovnávat. Jenže takovou možnost nemám. Zkoušel jsem to alespoň s tím co je, jenže v takovém prostředí, jaké jsem dostal k dispozici to bohužel bez totální přestavby nejde. Klíčový problém způsobovalo NFS, kterými jsou ty stroje vzájemně propojené. Dokud všechno jelo, ok. Jenže stačil jeden nedostupný stroj a to NFS zablokovalo IO operace na polovině nodů a to se pochopitelně někde musí negativně odrazit.
s provedete sync, pak disky odpojíte (u) a restartujete (b).
klávesnici přehodil do PS/2, což je zpracování na úrovni HW interuptu
A je?
Pokud vím, tak už řádově 10 let to takhle nefunguje.
Sem myslel, že to neumí zatím bootovat, ale je pravda, že jsem to zas tak moc neštudoval. Jako varování stačilo https://eclecticlight.co/2017/04/06/apfs-is-currently-unusable-with-most-non-english-languages/ 
XFS všude, kde můžu. Z mé zkušenosti má relativně dobrý výkon a zároveň je to nejrobustnější FS, jaký znám. Veškeré poruchy disků a jiné problémy přežil vždy lépe než ostatní FS.+1 Postupne jsem premigroval vse na xfs. David Chinner a jeho team odvedli dobrou praci.
Tiskni
Sdílej: