Portál AbcLinuxu, 1. května 2025 20:51
Ovládání hlasem v Linuxu ano? Jak? Kde?
Respektive, Jak a kde aby to dalo na 4/6 bodů, mé pokusy byly zatím spíše nezdárné
Já musím uznat že jsem se unáhlil, naposled jsem to používal před několika lety a nyní je to už opravdu na úrovni, Není problém si nechat cokoli předčítat a hodně i složitějších operací dělat jen hlasem. Pravda, musel jsem toho hodně dopsat, ale použitelné to je. Situaci u MS WIndows neznám, nemůžu posoudit.
To už je ale od ovládání hlasem dost daleko ne?
Počítač vás poslechne na slovo. A to doslova
Nekřičte na Windows Vista
Jedním z velkých lákadel operačního systému Windows Vista mělo být i hlasové ovládání počítače, integrované přímo v operačním systému....
Jinak podpora RAIDu ve windows je myslím od
NT
LVM asi ne
Jmenuje se to dynamický disk a ano, je to tam.
Pripominky bych mel akorat k tomu powershellu. Powershell ISE uz jakztakz je ovladatelny, ale powershell terminal neumi copy and paste prikazu takze je to hodne k nicemu. Copy a paste umi cmd.exe uz od prvopocatku.
Dnes je HW tak vykonny a levny ze neni problem provozovat L i W soucasne, Jeden jako hostitel a druhy jako host.
Ono se nelze divit ze prakticky kazda sw firma vytvari svoje produkty jen pro win neb ty jsou snad 10 let prakticky porad stejny a maji s tim potom mene prace. Kdezto u OSS je pomerne bourlivy vyvoj a tezko se bude komercni firma prizpusobovat. K tomu by potrebovaly dalsi lidi.
Podpora OS tvůrcem ANO 4 Podpora tu je, maximálně ovšem 5 letá.RHEL má podporu 7 let s možností prodloužení. Není to sice zadarmo, ale jde to. A CentOS kopíruje životní cyklus RHEL včetně těch 7 let podpory.
Aniž bych chtěl nějak obhajovat Windows, tak přece jen buďme spravedliví.
Ke grafice se vyjadřovat nebudu, je to subjektivní, navíc na serverech XServer opravdu nemám.
Logování -- Co bys chtěl víc? Podle výpisu logu jsem zatím vyřešil vše.
Přenositelnost systému -- Přenést Windows na jiný disk je hračka, dělal jsem to naposledy při výměně HDD za SSD. Full image systému (je tam na to zálohovací program), potom obnova tohoto image na jiný disk. Práce na několik kliknutí. Přenos na zcela jiný HW je horší (už třeba proto, že nemáš většinou licenci).
Zálohování a obnova -- Ten Windows backup umí full a umí inkrementy. Umí obnovit soubor ze kterého data zálohy chceš. Co se ti nelíbí?
Přenositelnost uživatelského prostředí -- Je tam na to program, někde u Windows Backup. Zazálohuje uživatelské registry a home adresář a na cílovém počítači zobrazí seznam programů, které je potřeba doinstalovat. Potom to funguje. Přenášel jsem si takto uživatelský účet Vista -> W7
Odolnost vůči virům -- to je věc uživatele a administrátora. Moji uživatelé (už jich pár desítek bude) s právy skupiny Users nikdy vira neměli (od Windows 2000).
ACL -- Linux na velmi dobré úrovni? Sorry, Windows mají ACL od NT a nejen na systém souborů, ale je to prorostlé všude. Kolik znáš linuxových FS, které umí ACL nativně? Tady jsi linuxu hodně nadržoval.
FS -- jasně, uznávám, že je dobré umět podporovat více FS. Ale ani nevíš jak rád bych si na Linuxu přál jeden pořádný FS, který umí úplně vše (alespoň to co NTFS). On ten jeden na Widlích prostě stačí.
RAID -- Windows umí stripe set a mirror už od NT 4.0. R5 pak na serverových edicích. Stejně je lepší použít HW řadič.
LVM -- Na Windows se to jmenuje dynamické disky. Není to plné LVM, ale na 0 bodů to rozhodně není.
Virtualizace -- HyperV. Záleží pak na Guestu, jestli pro to má drivery. RHEL třeba má.
K té aktualizaci obecně -- Já si velmi rád restartnu i ten server. Potom mám jistotu, že všechno po bootu najede tak jak má a případné drobnosti opravím hned. Není nic horšího, než chodit po špičkách kolem stroje, co má 900dnů uptime a nikdo si ani nepamatuje partu, co to naposledy bootovala. Pokud do Linuxu nainstaluješ aplikaci třetí strany, bez repositáře, nebo nedej bože vlastní kompilát, tak se to to musí starat ručně stejně jako na těch Windech.
Podpora OS tvůrcem -- U linuxu 7 až 10 let - RHEL/CentOS.
Jinak tato tabulka vznikala průběžně. Nepsal jsem jí z voleje a radil jsem se i s jedním známým, aby mohla mít trochu objektivnější hodnocení.
Příště napiš mě
Slackware - notebook, desktop Debian - servery RHEL/CentOS - servery SUSE - jeden server Arch - testovani prod virtualnim strojem Slax - Live ...A zadna z nich nema potrebu restart systemu pokud se neupdatuje kernel. A i tak neni restart potreba hned.
Některé 3D aplikace (převážně hry) se chovají velmi špatně při zapnutých efektech, občas je problém s výkonemUž jsem psal jinde, že spouštět v jednom GL (což nepochybně Composite je) okně druhé GL okno (které ještě z většiny případů je ve Full-screnu) je kravina. Mělo by se to dělat jinak. Bohužel co se BFUčkům nenacpe přímo pod nos (respektive by default do spouštěče), to jako by ani neexistovalo.
Podpora hardware přímo v systému – Podpora je parádní. Většina věcí šlape hned. Jen málo věcí se musí doinstalovávat od výrobců HW.Zkušenost přesně opačná. Ale třeba to bude jen nešťastnou kombinací HW.
Instalace nových programů v offline režimu – Jde to, ale velmi těžce díky složitým závislostemJeden, max. dva příkazy.
Windows – Windows je plně komerční produkt bez žádných benevolencí.No…
Bohužel nehraji a dříve, když jsem hrál, tak fungovalo OGL jen v jednom ze dvou spuštěných xserverů. Někdy v obou, ale dost to padalo. Pokud se situace zlepšila, tak to změním.
Windows 7 jsou na tom s podporou HW velmi dobře. Samozřejmě problémy tu jsou. Hlavně se staršími kousky HW a zaznamenal jsem i problémy s ovladači na tiskárny. Třeba u HP, kdy pod obyčejným userem mi na 64bit win7 nejde tisk. Jen pod administrátorem. Co jsem koukal na net, tak známá chyba, ale nějak se mi to nedaří znovu vygooglit (thread, kde podivné chováni tisku pod usereme s HP vysvětlují.
Instalace v režimu offline, jak na kterým distru :-/. Někde ok, někde ne.To, co je k nalezení na internetu jsou jen čistě subjektivní žvásty a žádné konstruktivní porovnávání.Gratuluju k dalšímu čistě subjektivnímu žvástu v podobě subjektivního porovnání
Velmi přehledné a objektivní hodnocení. I přesto je tu pár bodů, se kterými nesouhlasím:
Filesystémy: Na Linuxu světová špička, na Windows mizérie, tedy nanejvýš za 2, nikoliv za 6. Je tam jen jeden filesystém, který dnešnímu standardu (ZFS, Btrfs) nesahá ani po kotníky. Nemluvě o neustálém vynucování FAT na flashdiscích. Windows naschvál neumožňují naformátovat flashdisk na NTFS. Flashdisky naformátované na NTFS v Linuxu ještě Windows XP normálně četly, ale Vista už má tohle naschvál zablokované a flashdisk s NTFS prostě nevidí. (Jak je to u 7, to netuším.) OS, který nepřečte ani svůj implicitní FS, je na vyhození.
RAID, LVM: Možná by bylo přesnější takové vlastnosti, které v běžně dostupné desktopové verzi nejsou a v serverové verzi jsou tak nějak napůl, označit slovem NE.
Routování: Tak to prostě NE. Zaprvé, userspace nástroje třetích stran se ani náhodou nepočítají. Zadruhé, na běžně dostupném desktopu se o opravdovém routování u Windows mluvit nedá. Zmůžou se možná tak na ubohý IPv4 NAT a tam jejich možnosti končí. Třeba takový 6to4 router, ten mám na linuxovém notebooku nastavený za minutu, zatímco u Windows ani ve snu.
Vliv aktualizací na stabilitu: Věta o rolling updates je FUD. Rolling updates nemají negativní vliv na stabilitu. Naopak jsou mnohem lepším řešením než 32768 šifrovacích klíčů v Debianu nebo nutnost potýkat se s jedním a tímtéž otravným bugem celé měsíce, než se distribuci uráčí vydat novou „verzi“. Rolling updates dají bugy do pořádku rychle a bez zbytečného čekání.
Pokročilé možnosti oprávnění (groupy, acl apod.): To je asi vtip, že jo... Kde najdu ve Windows ekvivalent kompletních POSIX ACL a především SELinuxu? Kdepak, pokročilé možnosti oprávnění ve Windows nejsou. Je tam jen pitomé nepřehledné klikátko pro nastavení NTFS oprávnění, které se snaží tvářit „pokročile“.
Možnosti nastavení GUI: U Windows je napsané jasné NE, ale přitom 6 bodů...
A na závěr několik kategorií, které v hodnocení chybí:
Podpora různých platforem: Linux: ANO, přes 20 platforem, z toho cca 8 plně podporovaných většími distribucemi. Windows: Ubohost a výsměch.
Antifeatures: Linux: Cože? Proč? K čemu? Windows: No samozřejmě, bez nich to přece nejde! Chcete mít levnější server? Pak vám musí stačit 8 GB RAM!
Má smysl na takovýto blábol vůbec reagovat?
Je tam jen jeden filesystém, který dnešnímu standardu (ZFS, Btrfs) nesahá ani po kotníky.
FS (btrfs) ve vývoji je dnešní standard? Linux umí ZFS bez FUSE?
Nemluvě o neustálém vynucování FAT na flashdiscích. Windows naschvál neumožňují naformátovat flashdisk na NTFS. Flashdisky naformátované na NTFS v Linuxu ještě Windows XP normálně četly, ale Vista už má tohle naschvál zablokované a flashdisk s NTFS prostě nevidí. (Jak je to u 7, to netuším.) OS, který nepřečte ani svůj implicitní FS, je na vyhození.
Naformátovat USB Flash disk jako NTFS samozřejmě lze a to zcela standardním způsobem.
RAID, LVM: Možná by bylo přesnější takové vlastnosti, které v běžně dostupné desktopové verzi nejsou a v serverové verzi jsou tak nějak napůl, označit slovem NE.
Opět nemáš správné informace (nediplomaticky: lžeš). Mirror, stripe set a dynamické disky (zvětšení, zmenšení přes všechny fyzické jednotky) jsou v běžných desktopových Windows dostupné už dlouho. Snapshoty také. Mimochodem, který linuxový FS umí shrink za běhu? Žádný. Pokud vůbec, tak pouze offline.
Atd.
Mimochodem, který linuxový FS umí shrink za běhu?NFSv3, NFSv4
Pro mě je Btrfs už víc než rok standard. Žvásty o tom, že je něco „ve vývoji“, jsou fakt k popukání. Linux je ve vývoji. Windows jsou ve vývoji. A co má být?
ZFS v Linuxu bez FUSE je jen otázka času. Pointa vůbec nebyla v tom, zda Linux podporuje ZFS nebo ne. Pointa je v tom, že Windows umí jen jeden souborový systém, který spadá do kategorie podprůměrných a ničím zvláštním nevyniká. Linux nabootuje minimálně z deseti různých souborových systémů.
Ten „standardní způsob“ formátování flashdisku na NTFS je v Linuxu samozřejmost, zatímco Windows s tím mají problém. A otázka je, k čemu to vlastně bude, když Vista flashdisk s NTFS naschvál nečte.
Pokud chceš vědět, který linuxový FS umí shrink za běhu, použij Google. Btrfs jistě není jediný, který tohle umí. Mimochodem, z jakého důvodu je shrink za běhu podstatný nebo důležitý? Není to náhodou tak, že filesystémy především (ne-li výhradně) rostou?
Pokud vůbec, tak pouze offline.
Toto je poměrně sprostý FUD. Dobře víš, že to jde. Tak proč tady plácáš něco jako „pokud vůbec“? Nebo jsou dnes potíže s přístupem na Wikipedii?
Pokud jde o ty dynamické disky, nejlepší je toto: „POZNÁMKA: Dynamické disky nejsou podporovány v přenosných počítačích a v počítačích se systémem Windows XP Home Edition.“ O Windows 7 se raději Microsoft moc nezmiňuje. Ale z doby Windows Vista se hned najde několik dalších perel: „Dynamické disky jsou podporovány pouze vydáními systému Windows Vista Enterprise a Windows Vista Ultimate.“ A o kus dál: „Systémy Windows Vista Ultimate a Windows Vista Enterprise podporují rozložení a prokládání dynamických disků, ale nikoli zrcadlení. (Zrcadlení podporuje systém Windows Server 2008.)“
Když si usmyslím, že na čtyřech USB discích budu mít RAID 5 a že si z toho na svém interním disku udělám malý writable snapshot, pak mi hernajs nemá kdo co kafrat do toho, na jakém počítači budu tohle používat! Že na notebooku tohle nesmím mountovat a že musím mít aspoň verzi „Enterprise“ nebo „Ultimate“ nebo „Server“??? Tak to ať si Microsoft strčí své Windows rovnou do prdele.
A vůbec, ať už mi nikdo netvrdí, že Windows nejsou na hovno. Jsou.
V domácím prostředí se snad nesmí snapshotovat a vytvářet konzistentní zálohy? Já myslím, že ano a že je to dokonce žádoucí. Jen Microsoft má na to asi jiný názor. Kromě toho mi při dnešních cenách disků nepřipadá neobvyklé pořídit si hned tři a mít na nich RAID 5.
Operačních systémů, které umožňují za chodu zmenšovat/zvětsovat souborový systém, je hned několik. V Btrfs (Linux) i ZFS (OpenSolaris, Illumos, FreeBSD) je tohle samozřejmost. Pravda, o Btrfs ještě někteří teoretici, kteří ho nikdy nevyzkoušeli, pochybují. (Tak jen ať dál pochybují, zatímco já ho spokojeně používám...) Nicméně ZFS je vyzrálá technologie, která už má za sebou pár let produkčního nasazení. Přidání disků do pole a „přestripování“ filesystému, aby zabral nové místo a zároveň využil větší paralelismus — to je prostě samozřejmost, kterou ZFS podporovat musí a taky podporuje. Totéž platí pro Btrfs.
Pokud jde o starší filesystémy, které nemají vestavěný volume management, párkrát jsem už zvětšoval ext3 v LVM, pochopitelně za běhu. Nicméně to už je dost dávno. Dnes už používám jen filesystémy, které volume management mají.
Pokud jde o zmenšování filesystému, to jsem ještě nikdy nezkoušel a fakt nevidím nejmenší důvod, proč bych něco takového dělal.
V domácím prostředí se snad nesmí snapshotovat a vytvářet konzistentní zálohy? Já myslím, že ano a že je to dokonce žádoucí. Jen Microsoft má na to asi jiný názor. Kromě toho mi při dnešních cenách disků nepřipadá neobvyklé pořídit si hned tři a mít na nich RAID 5.
Snapshotovat samozřejmě lze a na zálohování to používají i samotné nástroje MS. Ne, MS nemá jiný názor, jestli chceš softwarový Raid5, tak si musíš pořídit příslušnou edici. Tak to prostě v komerčním světě chodí. Mimochodem, ze zkušeností s opravami PC a záchrany dat laiků, kteří jenom zkoušeli "HW" fakeraid na desce, se MS vůbec nedivím, že nemají podporu raid v Home OS (čti: tohle se přes hotline nevysvětlí). Tam je opravdu nejlepší možností koupit hardwarový řadič a os a uživatele od toho úplně odstínit.
Pokud jde o starší filesystémy, které nemají vestavěný volume management, párkrát jsem už zvětšoval ext3 v LVM, pochopitelně za běhu.
O tom se vůbec nebavíme, každý admin bere zvětšení FS jako rutinní operaci.
O fake RAID tu nebyla řeč. Ten je špatným řešením už z principu, protože ho zajišťuje nějaký BIOSový kód, u kterého není jasné, jak dobře je napsaný, jak je to s latencí, jak přesně umí řešit neobvyklé situace atd.
Nicméně RAID v podobě LVM/MD, Btrfs nebo ZFS může předčit (a často opravdu předčí) nejeden hardwarový řadič, a to jak z hlediska konzistence dat, tak (občas, podle situace) i z hlediska výkonu. ZFS a Btrfs především nemají RAID 5 write hole a další problémy, kvůli kterým musí mít RAID řadiče baterii a ani ta nezaručí, že bude vše 100% v pořádku. Tedy hardwarový řadič rozhodně není nějakým ideálním řešením. Kromě toho je otázka, proč by si domácí uživatel kupoval hardwarový řadič, když může mít solidní redundanci i bez něj.
No jestli lze na Windows snapshotovat, tak já bych prosil strom zapisovatelných snapshotů, ve kterém bych mohl mít různě poupravené inkrementální buildy... Prostě to ve Windows nejde a basta.
Pro mě je Btrfs už víc než rok standard.
Svět se netočí kolem Andrejova zadku. BTRFS je ve vývoji a tvrdí to především jeho vývojáři a maintaineři jádra. Pokud jej používáš a posíláš bugreporty, je ti to ke cti, takový lidé jsou v testovací fázi potřeba. Ale na server to dám nejdřív dva roky poté, co to bude v jádru označené jako normální FS (nikoliv dangerous, nikoliv devel, nikoliv experimental).
Pointa je v tom, že Windows umí jen jeden souborový systém, který spadá do kategorie podprůměrných a ničím zvláštním nevyniká.
O tom jsem se hádali minule. Nepřišel jsi ani s jedním FS, který by NTFS překonal. A proto je podprůměrný, aha.
Pokud chceš vědět, který linuxový FS umí shrink za běhu, použij Google. Btrfs jistě není jediný, který tohle umí.
Z té tabulky nejde poznat, který umí shrink a už vůbec ne online. Z těch, které jsou označené jako resizeable (a jsou to diskové, nikoliv síťové FS) umí online shrink pouze (afaik) ntfs a btrfs (v vývoji), offline pak ext2,3,4 a mrtvý Reiser (když jsem to zkoušel naposledy, bylo tam důrazné varování). Ale rád se nechám poučit, které další v Linuxu to umí.
K tomu zbytku, ano, ze světa Linuxu vyzobáváš jen to nejlepší a ze světa Windows jen to nejhorší a ještě se tváříš jako kretén, který nechápe licenční omezení. Bavíme se o technologii. Technologie Windows jako taková to umí, byť je to v nějakých verzích záměrně (z obchodních důvodů) zakázané.
A vůbec, ať už mi nikdo netvrdí, že Windows nejsou na hovno. Jsou.
Opravdu věcná poznámka. Možná si to neuvědomuješ, ale tímto zničíš veškeré své argumenty a přeměníš je na snůšku hospodských keců.
BTRFS je ve vývoji a tvrdí to především jeho vývojáři a maintaineři jádra.
Linux je ve vývoji. Znamená to, že není bezpečné ho používat? Windows jsou taky ve vývoji. A co má být? Kdyby nějaký software nebyl ve vývoji, byl by mrtvý a jeho uživatelé by se začali dívat po něčem jiném.
Btrfs není označený za dangerous. Možná je ještě experimental, ale tak je označená i spousta jiných běžných věcí, které „renomované“ distribuce implicitně zapínají.
Nepřišel jsi ani s jedním FS, který by NTFS překonal.
Ty máš zakázaný přístup na Wikipedii nebo co? Jinak si takové řeči fakt neumím vysvětlit. Sám si tam můžeš podle libosti vyhledat hned několik FS, které jsou v Linuxu standardně podporované a proti kterým je NTFS dětská hračka. To samozřejmě neznamená, že každý linuxový filesystém implementuje nadmnožinu toho, co umí NTFS. Ale jsou prostě killer features, které NTFS (navržený v první polovině 90. let) prostě nemá a mít nebude. Třeba vestavěný volume management, žurnálování dat (nejen metadat), deduplikace, zapisovatelné snapshoty... Sám Microsoft usiluje o nahrazení NTFS něčím méně fosilním už od dob Visty. O to víc mě pobaví vtipálci, kteří donekonečna opakují, jak je NTFS nepřekonatelný.
Reiser4 používám denně a mám ho na několika strojích. Mrtvý není ani náhodou. Navíc jde s velkou pravděpodobností o nejrychlejší souboový systém na světě, který v některých ohledech natrhne pozadí i Btrfs. Jak je na tom s resize/shrink netuším, protože jsem to u něj nikdy nepotřeboval.
Ale rád se nechám poučit, které další v Linuxu to umí.
Co je to za blbý dvojí metr? Tak já se nechám poučit, které další ve Windows to umí. Aha, jenom jeden... No jo, ale Microsoft si to může dovolit, protože když už někdo za Windows vysolí ty nesmyslné prachy, má pak snahu sám sebe přesvědčit, že vlastně neprohloupil a že za své prachy fakt něco dostal. Ale open-source systém — pozor, ten musí podporovat všechno všude. Protože když si dovoluje být zadarmo, musí být přece dokonalý, no ne?
Online shrink v praxi není k ničemu. Oddíly jedině rostou. Proto nevidím důvod brát ho v úvahu jako zásadní kritérium pro porovnávání filesystémů. Bavme se spíš třeba o alokaci volného prostoru a o důvodech, proč má NTFS i po víc než osmnácti letech vývoje pořád ještě problémy s fragmentací.
K tomu zbytku, ano, ze světa Linuxu vyzobáváš jen to nejlepší a ze světa Windows jen to nejhorší a ještě se tváříš jako kretén, který nechápe licenční omezení.
Já naopak licenční omezení velmi dobře chápu. Když mám volit mezi kvalitním systémem zadarmo a béčkovým systémem s licenčními omezeními, který asi zvolím??? I kdyby byly (čistě hypoteticky) Windows stejně dobré jako Linux, pořád by byl Linux jasná volba.
Že „technologie Windows“ něco umí, to je fakt super. Takže když budu chtít domácí 6to4 router s Windows, tak to abych si koupil za dvě stě litrů tu úžasnou technologii... A pak bych zjistil, že to tam stejně až tak moc nejde.
Možná si to neuvědomuješ, ale tímto zničíš veškeré své argumenty a přeměníš je na snůšku hospodských keců.
Nikdy jsem si nedělal ambice říkat něco jiného nebo lepšího než hospodské kecy. A nezajímá mě, co si kdo o mých argumentech myslí.
Linux je ve vývoji. Znamená to, že není bezpečné ho používat? Windows jsou taky ve vývoji. A co má být? Kdyby nějaký software nebyl ve vývoji, byl by mrtvý a jeho uživatelé by se začali dívat po něčem jiném.
Tak ještě jednou a pomaleji. Je ve vývoji == neexistuje žádná stabilní verze o které by vývojáři samotní řekli: ano, toto je ono, to můžete používat. Na rozdíl od Linuxu (jádra) a obecně programů, kde je stabilních a udržovaných verzí hned několik. To, že se pracuje na verzi nové, samozřejmě na věci nic nemění.
Třeba vestavěný volume management, žurnálování dat (nejen metadat), deduplikace, zapisovatelné snapshoty...
NTFS snapshoty (pravda, readonly) má. Žurnálování dat má pouze ext3,4. Vestavěný VM nemá žádný stabilní FS v Linuxu. Jestli to za pět let (v enterprise distru jako RHEL a SLES) bude BTFS, budu jen rád.
Reiser4 používám denně a mám ho na několika strojích.
Která verze vanilkového jádra jej, prosím, obsahuje?
Co je to za blbý dvojí metr?
To není dvojí metr, pouze jsem se snažil říct, že nemám detailní informace o všech FS z dané tabulky a chtěl jsem si doplnit znalosti.
Bavme se spíš třeba o alokaci volného prostoru a o důvodech, proč má NTFS i po víc než osmnácti letech vývoje pořád ještě problémy s fragmentací.
Ano, bavme se o tom, který blokový FS má nástroj na defragmentaci, protože externí fragmentace je něco, k čemu vždy dojde a nejde se tomu už ze samotného principu blokového zápisu vyhnout. NTFS ve Win. XFS v Linuxu. Pro ext4 se slibuje, zatím není. Pro JFS pouze na AIX. Tím to tak nějak končí.
Oddíly jedině rostou. Proto nevidím důvod brát ho v úvahu jako zásadní kritérium pro porovnávání filesystémů.
To (bohužel) není pravda. Stává se, že oddíl, který narostl náhle nepotřebuje tolik prostoru a je nutné jeho místo přidělit někam jinam. Na Enterprise storage s thin provisioningem to není problém, tam se zavolá unmap na volné bloky a místa je dost i přes to, že je alokovaný velký FS. Ale na levných serverech nic takového (zatím) není. Proto je shrink potřeba. Dnes se tedy nahrazuje vytvořením nového a menšího FS a překopírováním starých dat.
Posmívat se nutnosti defragmentace je asi jako posmívat se DB s datovými soubory architektury MVCC, že potřebuje VACUUM (ať už je to nazýváno jakkoliv).
Nikdy jsem si nedělal ambice říkat něco jiného nebo lepšího než hospodské kecy. A nezajímá mě, co si kdo o mých argumentech myslí.
Dobré vědět. Příště si ušetřím čas na hádku s člověkem, který vlastně diskutovat vůbec nechce .
O Btrfs vývojáři už dávno řekli, že tam nejsou problémy se stabilitou. Jediný problém je uživatelská nevstřícnost userspace utilit, na čemž se momentálně intenzivně pracuje.
Která verze jádra Windows obsahuje jiný souborový systém než NTFS? (Jasně — FAT, DFS, CIFS... Nicméně teď mám na mysli FS na disku, ze kterého se nabootuje.) Opět dvojí metr. Že Reiser4 není v jádře, to je napůl politika, napůl folklor. A můj ryze osobní názor je takový, že s původním mechanismem pluginů by dnes už Reiser4 dávno natrhl prdel i samotnému Btrfs. Nicméně v komunitě kolem kernelu se našly dost silné hlasy volající po zmrzačení a ochromení Reiser4. Tak se stalo, že nebezpečný Ext4, který tou dobou nepoužíval nikdo, byl přímo v jádře, raný Btrfs, tenkrát rovněž pouze experimentální a dangerous (mluvíme o roce 2008), byl taktéž v hlavní řadě, zatímco Reiser4 — odladěný filesystém připravený pro produkční nasazení, navíc tou dobou bezkonkurenčně nejrychlejší na světě — byl donekonečna odbývaný poznámkami ohledně stylu návrhu.
Defragmentační nástroje zatím v Linuxu nikdy nebyly potřeba. Zatímco NTFS se kvůli fragmentaci zpomalí k nepoznání, na Linuxu nikdo nikdy takový problém nepozoroval. Proto mi nepřipadá až tak podstatné, zda nějaká defragmentační utilita existuje. Pravda je, že jistý důvod pro existenci takové utility by se přece jen našel: Aby už nikdo nemohl vyprávět, že taková utilita neexistuje. Jiné důvody fakt nevidím.
Stává se, že oddíl, který narostl náhle nepotřebuje tolik prostoru a je nutné jeho místo přidělit někam jinam.
V pořádném filesystému se prostor pro jednotlivé subvolume čerpá vždy z celého poolu, takže se volně „přelévá“ a nikdy není potřeba něco přerozdělovat jinam. (Přitom ale každý subvolume může být nastavený jinak pokud jde o kompresi, šifrování, CoW, redundanci a další charakteristiky.) Pool jako celek samozřejmě fyzickou velikost změnit může — disky se dají přidávat i odebírat.
O Btrfs vývojáři už dávno řekli, že tam nejsou problémy se stabilitou. Jediný problém je uživatelská nevstřícnost userspace utilit, na čemž se momentálně intenzivně pracuje.
Opravdu? Není to tak dlouho (ani ne rok) co si někdo stěžoval na předčasné (což na druhou stranu ukazuje hlad po dané funkcionalitě) zavádění btrfs do dister, protože jim to dost komplikuje změnu ondisk formátu.
Defragmentační nástroje zatím v Linuxu nikdy nebyly potřeba. Zatímco NTFS se kvůli fragmentaci zpomalí k nepoznání, na Linuxu nikdo nikdy takový problém nepozoroval. Proto mi nepřipadá až tak podstatné, zda nějaká defragmentační utilita existuje. Pravda je, že jistý důvod pro existenci takové utility by se přece jen našel: Aby už nikdo nemohl vyprávět, že taková utilita neexistuje. Jiné důvody fakt nevidím.
Ano, TOBĚ to nepřipadá podstatné. Tak se podívej do mailling listů ext3. Jediná rada od vývojářů je: vytvořte nový FS a překopírujte (rychlostí několika set kB/s) data. Také jsem měl několik takových fs. Jednu dobu jsem to měl i v patičce: soubor velikosti 1.8GB == 429258 extents found. Paráda, že? Prakticky každý blok někde jinde.
XFS je na tom díky velké write cache a odložení zápisů mnohem lépe. Přesto jsem se setkal s diskem, na kterém se nedalo pracovat. Stačilo na to pustit xfs_fsr a výkon se znásobil.
V pořádném filesystému se prostor pro jednotlivé subvolume čerpá vždy z celého poolu, takže se volně „přelévá“ a nikdy není potřeba něco přerozdělovat jinam. (Přitom ale každý subvolume může být nastavený jinak pokud jde o kompresi, šifrování, CoW, redundanci a další charakteristiky.) Pool jako celek samozřejmě fyzickou velikost změnit může — disky se dají přidávat i odebírat.
Čekal jsem, že s tím přijdeš a už nemám sílu to opakovat. Takže až bude BTFS v produkční kvalitě (i díky testerům jako jsi ty -- snad na tom nemáš ostrá data) bude to paráda a nesmírně se na to těším. Zatím tomu tak není a ještě několik let nebude.
Čekal jsem, že s tím přijdeš a už nemám sílu to opakovat. Takže až bude BTFS v produkční kvalitě (i díky testerům jako jsi ty -- snad na tom nemáš ostrá data) bude to paráda a nesmírně se na to těším. Zatím tomu tak není a ještě několik let nebude.
Ostrá data na tom samozřejmě mám a zároveň mám i značnou „konkurenční“ výhodu ve srovnání s těmi, kteří hodlají čekat ještě pět let. Nepřipadám si jako tester. Zatím jsem nenarazil na nějaké probémy, které bych musel hlásit. Reiser4 už taky používám nějaké 4 roky, zatímco někteří si dodnes houževnatě myslí, že není hotový.
Během posledních let jsem zažil čtyři vážná selhání pevných disků. Filesystém selhal pouze jednou a byl to ext4 v ultra-experimentální verzi, od které jsem to v podstatě čekal. Takže hlavní riziko tkví v hardware, nikoliv v nějakém hypotetickém bugu, který mě připraví o data.
Pokud jde o ext3, tento muzejní kus už nějaký ten pátek nepoužívám. Pravda je, že opakované mazání malých souborů a jejich nahrazování velkými, to vše při téměř plném oddíle, může nakonec nachytat na hruškách v podstatě každý filesystém. Důležitější je tedy otázka, zda může dojít k zásadním problémům s fragmentací, když je oddíl z poloviny prázdný. U NTFS ano.
Pravda je, že opakované mazání malých souborů a jejich nahrazování velkými, to vše při téměř plném oddíle, může nakonec nachytat na hruškách v podstatě každý filesystém.
Scénářů jak toho dosáhnout je více. Takto jsem odrovnal čerstvě vytvořený JFS po zaplnění (podotýkám, že se tam data pouze přidávala, nemazala) 30% tak, že gigabajtové soubory měly desetisice fragmentů. A teď poraď, experte. Nemáš žádný nástroj na defrag a svým použitím ses přesně trefil do Achylovi paty alokačního algoritmu. Jen by mě zajímalo, jak bys to řešil ty. Já to řeším přes DB. Snad se ale nebudeš posmívat PostgreSQL, že je nutné volat VACUUM, ANALYZE a REINDEX.
Řešil bych to tak, že bych
Pořád mi ale není jasné, v čem mají Windows tolik navrch, když mají pro svůj jeden filesystém, který je doslova proslavený vážnými problémy s fragmentací, defragmentační nástroj... Mně to jako velká výhoda nepřipadá.
Například XFS online defragmentaci umí. Tedy i pro hodně extrémní případy existuje nějaké řešení. (A právě to se o Winodws říct nedá, protože NTFS je jediná možnost volby.)
použil jiný filesystém, než tohle někdo opraví.
Super. Na produkčním serveru budu přehazovat systémy souborů jako ponožky. Jde vidět, že máš praxi.
doslova proslavený vážnými problémy s fragmentací
Vzhledem k tomu, že každý komentář využíváš ke kydání špíny na Win, tak to v podstatě nemá smysl psát, ale přece jen:
To proslavený znamená, že to píšou lamy, které o storage nemají ani šajn? Lidé, kteří tak činí na základě nesmyslné opačně implikace "má to defrag --> musí to mít problémy" a které lze uzemnit zmínkou o napríklad o xfs_fs (mimochodem, zkus si to pustit nad nějakým používaným storage a zírej na počty extentů, pořád to není problém? Proč teda SGI doporučovala jej pouštět každou noc v cronu?)? Lidé, kteří odkazují na zcela pomýlené příklady (i root.cz je má na kontě) o alokaci souborů daleko od sebe na zcela prázdném FS? Ti lidé, kteří pak ve fóru jásají nad výkonem nového (libovolného) systému souborů po té, co tak zkopírovali stará data z uzoufání pomalého rok starého (libovolného) FS? Samotní vývojáři některých FS toto berou jako standardní způsob defragu a doporučují to tazatelům na mailling listu. Ale ano, všichni se musíme tvářit, že problém neexistuje a jednou za půl roku se ten fs prostě vytvoří nový, co na tom je, že jo.
Například XFS online defragmentaci umí.
O xfs_fsr jsem se tu zmínil společně s XFS, o kterém tvrdím, že je to nejlepší možný linuxový FS. Na NTFS nemá, neumí shrink (mimo jiné).
i pro hodně extrémní případy existuje nějaké řešení
V dlouhých zimních večerech si projdi mailling listy ext3 a jfs. Tam najdeš těch "výjimečných příkladů" desítky.
NTFS je jediná možnost volby
Právě proto, že je to jediná možnost volby, tak je to FS vymazlený do maxima, existují na to tuny nástrojů a díky tomu, že to používá kdejaká lama na nestabilním desktopu, tak je (musí být) odolný a v neposlední řadě pořádně otestovaný. V podstatě totéž lze v linuxovém světě napsat o ext3, který má bohužel už dneska dost omezení, zejména kapacitní (proto doporučuji XFS).
Jediná možnost volby není vůbec špatná věc. Minimálně člověk velice rychle pozná, že tudy cesta nevede a řeší daný problém úplně jinak. Je to rychlejší, než zdlouhavě testovat všechny slepé cesty. Například: Na každý dotaz související s větším počtem souborů se jak na kolovrátku donekonečna odpovídá: Reiser. Tak jsem to zkusil .
Exportoval jsem tam 104'000'000 souborů z celkového počtu 350 milionů a ten FS šel samozřejmě do kytek, s tím nešlo vůbec pracovat (pro šťouraly, pochopitelně do adresářového stromu, nikoliv přímo do rootu). Pokud narazím na problém dejme tomu při počtu pouhých 700'000 kousků (zkoušel jsem to na NTFS a ext3, velmi podobný limit, za kterým výkon alokátoru rychle klesá, XFS zvládá v pohodě i 10M) tak mě to bouchne do hlavy (pokud jsem tedy tak blbý a nedám to do DB rovnou; btw já dávám do DB všechno, pokud nemám jistotu, že počet bude rozumně malý), že tudy cesta nevede. Co by se stalo (a co se děje), pokud někdo vesele provozuje FS s 50 miliony soubory s tím, že při stovce už mu to klekne? Takže ta jediná volba je kolikrát lepší (jsi postavený před hotovou věc), než mít na výběr různě omezené možnosti, které mají ještě navíc úplně jiné (skryté) limity.
které mají ještě navíc úplně jiné (skryté) limity
Což mi připomnělo další storku: Vybíral jsem tuhle DB pro jeden projekt a do slosovacího osudí se dostala i SQLite. Hledal jsem limity, co to umí a tak, a narazil jsem na: DB size limit 2TB (not tested ), record count limit 4294967296 (not tested
). Včetně těch smajlíků.
Vzhledem k tomu, že ani autoři netestovali testovatelné schopnosti (nebavíme se o teoretických limitech v řádu exabajtů) schopnosti svého produktu a ještě jim to přijde směšné, tak tento "projekt" šel na blacklist. Opravdu nehodlám řešit takydatabázi, která se mi sesype při 700M záznamů, protože not tested.
Na produkční server nikdy nedám filesystém, který nemám důkladně vyzkoušený, nejlépe na podobném workloadu. Je vidět, že máš praxi. (A vůbec, jízlivé poznámky tohoto typu diskusi příliš neobohacují.)
Nekydám špínu na Windows. To by bylo jako nošení dříví do lesa. S NTFS jsem měl problémy s fragmentací pokaždé, když jsem s ním pracoval. A často to byl naprosto běžný průměrný desktop, kde se nic moc razantně nemění a kde bych problémy nečekal.
Já jsem používal Reiser4 na jednom z mých strojů čtyři roky bez jakýchkoliv potíží. Zažil bezpočet kompilací celého systému, aktualizací, benchmarků a dalších prasáren. Nevím, kdo každého půl roku mění nebo znovuvytváří filesystém. Nikoho takového neznám.
Hodnotit FS podle toho, zda umí shrink, je (mírně řečeno) dětinské, jak už jsem psal.
Nepoužívám ani JFS, ani ext3. Linux má na výběr širokou škálu filesystémů. Nemám tedy důvod, abych používal tyto muzejní kusy a hartusil na mailing listech.
NTFS by měl být odolný, ale není. Jediná možnost volby prostě je špatná věc, jako ostatně každá variace na téma one size fits all.
Pokud jde o experiment s velkým počtem souborů: Otázka je, zda šlo o zastaralý ReiserFS (3.6) nebo současný Reiser4, který má spoustu vylepšení. Další otázka je, jakou jsi použil tail policy. Některé věci se tam dají trochu tunit. Nicméně já jsem rozhodně nikdy netvrdil (a ani nepředpokládal), že by nějaký filesystém byl připravený na stovky milionů souborů. Prostě některé věci nejdou.
Kdyby NTFS selhal při sto milionech souborů, rozhodně bych mu to nevyčítal. Nicméně selhání (ve smyslu zhoršení výkonu k nepoužitelnosti) na běžném desktopu nějakého BFU po půl roce používání typu web + mail (žádné instalace software, žádné náruživé stahování) je prostě problém.
A vůbec, jízlivé poznámky tohoto typu diskusi příliš neobohacují.
Souhlasím, proto by sis mohl odpustit neustálé negativní komentáře na Win . Fakt to vypadá blbě, když někdo přijde na Linuxový magazín a potvrdí si tam svůj negativní názor na linuxáky. Případně si jej vypěstuje. Jako mě role obhájce Windows moc nevyhovuje, poměr L:W je u mě někde u 20:1, ale myslím, že diskuse by měla být vyvážená. Přece jen nic není černobílé.
A často to byl naprosto běžný průměrný desktop, kde se nic moc razantně nemění a kde bych problémy nečekal.
Což je dost zvláštní, protože Widle mají defrag ve svém cronu. Nějaký ten rok se to nemusí pouštět ručně.
Hodnotit FS podle toho, zda umí shrink, je (mírně řečeno) dětinské, jak už jsem psal.
Těch kritérií jsem napsal poněkud více. Ty ses chytl jednoho.
Nepoužívám ani JFS, ani ext3. Linux má na výběr širokou škálu filesystémů. Nemám tedy důvod, abych používal tyto muzejní kusy a hartusil na mailing listech.
Tak schválně, JFS, ext?, Reiser3.6 jsou (podle tebe, zatímco se to běžně používá) muzejní/zastarelé kusy. Tak co nám tam v jádře zůstane: XFS, BRTFS (devel) . Velký výběr.
Pokud jde o experiment s velkým počtem souborů
Jako co si budeme vykládat, cílem bylo přesně to, čeho jsem dosáhl. Ale s podobnými požadavky se lze setkat i na mailling listech. Tuhle někdo chtěl na XFS dát 500M s výhledem na 1G souborů a samotní vývojáři ho nasměrovali do DB s tím, že teoreticky sice ano, ale prakticky to XFS fakt nedá. Tak to má být. Opravdu se mi nelíbí (mimo jiné, já jsem takový rejpal ) to nekonečné papouškování v poradně moc souborů == reiser, protože to není pravda.
Kdyby NTFS selhal při sto milionech souborů
Přiznám se, že mě ten limit cca 700 000 docela zaujal. Jako on samozřejmě zvládne víc, ale alokátor toho má plnou ... bitmatu . Velmi podobný limit jsem totiž zaznamenal i na ext3. Kolega si tuhle stěžoval na velmi pomalý desktop s XFS a pak zjistil, že mu tam jeden program vytvořil několik miliónů souborů. Smazal je (u XFS je to na týden), udělal xfs_fsr a má to jako nové. Ty praktické limity jsou ale celkové velmi nízko.
Na druhou stranu, s příchodem SSD nemám moc smysl fragmentaci a minimální seek řešit a třeba z těch FS oddělají alokátor pro minimalizaci seeků a pak to půjde až k těm vysněným miliardám. Opět se to někam posune.
To netuším. Ještě nikdy jsem nic takového nepotřeboval. Btrfs a ZFS jsou navržené tak, aby fsck bylo pokud možno neznámý pojem.
A RAID 6 lze obnovit po havárii 3 disků? Prostě to nejde a není na to žádný kouzelný nástroj.
U ZFS i Btrfs se nastavuje míra redundance celého zpoolu, tedy proti kolika selháním má být odolný. Každý ZFS filesystém v zpoolu pak ještě může být několikanásobně (1x až 3x) replikovaný v rámci zpoolu. (U Btrfs nejspíš bude něco podobného.)
Speciální nástroje pro recovery podle mého názoru nejsou. Nevím, jak je to u Btrfs, ale když nejsou u ZFS, nebudou ani u Btrfs.
10TB ZFS pool that, after a power failure, became defective.
To je DOST blbé, vzhledem k tomu, že právě proti těmto chybám by měla být COW architektura zcela imunní už z principu.
Jinak myslím, že se gtz neptal ani tak na obnovu dat po havárii ekvivalentní ztrátě 3 disků z R6. Občas se stávají nehody takové, kdy někdo omylem přepíše část FS nulama, nebo prostě vytvoří nový FS na partišně zasahující do přechozího FS apod. fsck.extX se s tím po několika dlouhých hodinách nějak občas dokáže vyrovnat a alespoň část dat je k disposici. (Osobně bych tedy vytáhl zálohu a FS vytvořil nový, což ale na věci samotné nic nemění). FSCK je u ext hutný program (aby také ne, když si roky musel umět poradit s nežurnálovací ext2). ZFS a BRTFS nic takového neplánují mít, tedy s čím si neporadí přímo driver po špinavém odpojení, s tím už si neporadí nikdo.
Princip CoW s tím moc nesouvisí. Podstatné je, že všechny nápady kolem žurnálování (které se s CoW znamenitě doplňuje) stojí a padají s tím, zda disk opravdu provede flush celé své cache, když ho k tomu systém vyzve, nebo zda jen předstírá, že to udělal, aby vyhrál nějaké benchmarky. Ve druhém případě žurnálování jen částečně snižuje riziko nějakého průseru, ale nikdy proti němu nemůže být „z principu imunní“. Bez hardwarové podpory to zkrátka nejde. Takový problém se bohužel týká povážlivě velké části současných desktopových a notebookových disků.
Pro zajímavost bych dodal, že tyto údaje se dají snadno najít v kernelových hláškách. Například staré SCSI disky IBM/Seagate mají vše v nejlepším pořádku. Starší Seagate Momentus (2.5" IDE) někdy z roku 2007 měl taktéž ještě stále vše v pořádku. Bohužel současný Momentus (SATA II) se už řadí mezi problémové disky, které spoléhají jen a pouze na to, že notebook v sobě obsahuje ekvivalent UPS. Kdo chce kvalitní 2.5" disk, musí si místo Momentusu koupit Constellation. Za trojnásobné prachy, pochopitelně.
Protože ten 10TB ZFS pool má uživatel doma, těžko říct, jaké v tom má disky. Faktem je, že u drtivé většiny dnešních low-end disků redundance sice dokáže odolat selhání některých disků za provozu, ale výpadek napájení je těžký problém. (A je smutné, že drtivá většina low-end uživatelů o tomhle neví. Chci-li levné disky jinde než v notebooku, pak potřebuju UPS. Takt to prostě je.) Mám-li pole s několika low-end disky, které předstírají flush, může být riziko spojené s výpadkem napájení za jistých okolností podstatně vyšší než v případě jediného disku.
ZFS a BRTFS nic takového neplánují mít, tedy s čím si neporadí přímo driver po špinavém odpojení, s tím už si neporadí nikdo.
To je vemi přehnané tvrzení. Pokud vím, v případě Btrfs se něco plánuje. V případě ZFS existuje už odjakživa zpool scrub
. Ten automaticky zkontroluje všechna data a poškozená data buď korektně obnoví pomocí redundantních checksumů (ať už spočítaných RAID algoritmy (u více disků) nebo pomocí CRC kódů (když má pool jen jeden disk)), a soubory, které jsou nenávratně poškozené, vypíše a označí. Což je obrovský krok vpřed ve srovnání s fsck pro ext?, který sice po několika iteracích možná něco opraví, ale poškozené soubory nikdo přádně neidentifikuje a neoznačí.
Jistě, chápu argument, že možnost získat zpět část dat z totálně zničeného filesystému — z takového, který driver prostě nepozná a odmítne — může být důležitá. A věřím, že pokud po něčem takovém bude větší poptávka, Oracle to časem doplní do ZFS i do Btrfs. (Oba tyto filesystémy v podstatě vyvíjí Oracle.) Nicméně je i spousta dalších vlastností a kvalit, které musí filesystém a jeho nástroje splňovat. Zrovna ext? bych tady za vzor nedával, protože zkrátka mají své mouchy, kvůli kterým se pracuje na Btrfs a které mohl vyřešit Reiser4, kdyby ho ovšem klika kolem ext? a Btrfs (Oracle, RedHat, Novell) nezametla pod koberec... Takto bohužel končí spousta geniálních nápadů, které přijdou příliš brzy.
Princip CoW s tím moc nesouvisí. Podstatné je, že všechny nápady kolem žurnálování (které se s CoW znamenitě doplňuje) stojí a padají s tím, zda disk opravdu provede flush celé své cache,
Tak u žurnálování jistě, ale u COW bych předpokládal (nemám to zatím na stole, nestudoval jsem to nijak do hloubky) dva stavy dat: starý a nový. Tedy pokud připravím nová data, na disk pošlu příkaz zápisu bloku s novým "pointrem" na tato nová data a disk tento zápis (z nějakého důvodu) neprovede, mám pořád čistý FS, protože pointer stále ukazuje na data stará. Zápis bloku je (snad) atomický a tedy FS je v tomto případě vždy v čistém stavu a data jsou buď stará nebo nová, ale nic mezi tím. Jediné, co mě napadá je špinavá bitmapa volného místa, která může obsahovat alokaci nových tj. nedostupných datových bloků, ale předpokládám, že i toto se řeší transkačně případně to lze detekovat za běhu.
To je vemi přehnané tvrzení. Pokud vím, v případě Btrfs se něco plánuje. V případě ZFS existuje už odjakživa zpool scrub. Ten automaticky zkontroluje všechna data a poškozená data buď korektně obnoví pomocí redundantních checksumů (ať už spočítaných RAID algoritmy (u více disků) nebo pomocí CRC kódů (když má pool jen jeden disk)), a soubory, které jsou nenávratně poškozené, vypíše a označí. Což je obrovský krok vpřed ve srovnání s fsck pro ext?, který sice po několika iteracích možná něco opraví, ale poškozené soubory nikdo přádně neidentifikuje a neoznačí.
Což je ovšem něco zcela jiného. Toto je (užitečná, toto dnes řeším v podstatě ručně) věc, ale ten FS musí ten driver načíst. Já se bavil o stavu, kdy je ten FS tak poškozený, že jej OS prostě neumí připojit.
Jako o té UPS se nemá smysl bavit, tam je to bez debat. Někteří takto provozují i vyšší raidy (5,6) a pak se diví nekonzistencím mezi datovými bloky a paritou a nechápou, že systému nic (HW) nezaručuje zápis na všechny diskové jednotky ve stejném okamžiku a tedy po výdadku ele. při zápisu se ten raid vždy rozsype. Na druhou stranu on je ten HW hodně stabilní, ele. nepadá ani tak často, jak by podle podmínek dodavatele mohla, takže ztráty dat moc nejsou.
Zápis bloku je (snad) atomický a tedy FS je v tomto případě vždy v čistém stavu a data jsou buď stará nebo nová, ale nic mezi tím.
Pouze za předpokladu, že disk nemění svévolně pořadí zápisu bloků. To ale bohužel většinou dělá. Nelze proto vyloučit, že zápis pointeru na nová data se provede, ale zápis těch nových dat už se nestihne. To je obecně problém všech disků, které předstírají flush.
Na druhou stranu on je ten HW hodně stabilní, ele. nepadá ani tak často, jak by podle podmínek dodavatele mohla, takže ztráty dat moc nejsou.
Já si myslím, že pole kvalitních disků, které opravdu implementují flush, bude určitě o něco bezpečnější než pole levných disků (což byl nejspíš případ toho uživatele, kterému se sesypal ZFS pool). Ale pochopitelně tam stále zůstává otázka, co dělat, když dojde k výpadku energie v okamžiku, kdy část disků už ohlásila flush a část ještě ne. Právě proto mívají RAID řadiče na sobě akumulátor, aby jejich cache přežila i selhání všech UPS. Btrfs a ZFS si poradí i bez toho akumulátoru, protože nemají write hole a s nekonzistencí vzniklou výpadkem se umějí vypořádat. Nicméně žádný filesystém na světě podle mě nedovede s jistotou ustát předstíraný flush + přeuspořádání zápisů. Tam pak všechno závisí jen na šťastné náhodě a klidně to může poslat celý slavný ZFS rychle do kytek.
Pouze za předpokladu, že disk nemění svévolně pořadí zápisu bloků. To ale bohužel většinou dělá. Nelze proto vyloučit, že zápis pointeru na nová data se provede, ale zápis těch nových dat už se nestihne. To je obecně problém všech disků, které předstírají flush.
+
Nicméně žádný filesystém na světě podle mě nedovede s jistotou ustát předstíraný flush + přeuspořádání zápisů.
A jo, pravda, to mě nenapadlo.
Windows naschvál neumožňují naformátovat flashdisk na NTFS???
Hodnocení má ještě jeden háček. Dosti podstatné je říci, pro jakou oblast chci operační systém použít (ekvivalence motorových vozidel - rodinný vůz, sporťák, autojeřáb, terénní ...).
Například v případě serverů + demilitarizovaná zóna + klienti (třeba bezdiskoví) na podnikové úrovni s nějakým stupněm přesně definovaného zabezpečení si nedokážu představit provedení bez dostupnosti zdrojových kódů. Vzniká spousta problémů, které se musí řešit (připojování zařízení na USB (povolit/zakázat), tiskové servery a práva, čtečky čárových kódů, ...).
Dosti podstatné je říci, pro jakou oblast chci operační systém použít ...
Přesně tak. Pokud chci firmware do herní konzole, zvolím Windows. Pokud chci cokoliv jíného, zvolím jiný systém. Na profesionální grafiku (tedy zejména Adobe a spol.) bych asi zvolil Mac OS X (a příslušný hardware). Výjimkou jsou špičkové 3D animační nástroje AutoDesk, které běží nativně na Linuxu. Pro drtivou většinu ostatních nasazení je Linux vcelku jasná volba. Tu a tam se najde oblast, kterou FreeBSD nebo OpenSolaris/Illumos zvládne lépe, případně oblast, která je tak triviální, že na konkrétní platformě moc nezáleží (web + mail + IM + OpenOffice).
Windows se nehodí ani na ty triviality, protože (1) se neumí rozumně aktualizovat, včetně veškerého software, natož aby to bylo proveditelné přes vzdálenou správu, a protože (2) nejsou dostatečně bezpečné a bezúdržbové k tomu, aby je člověk mohl někomu nainstalovat, na rok odjet pryč a mít jistotu, že kromě selhání hardware se žádná jiná ošklivá příhoda stát nemůže.
A pochybuji, že by se řadil k těm v prvních liniíchMoment, nejsou to aplikační a tedy zcela zbytečné firewally? Já si pod firewallem představím stavový firewall. Jinak síťování obecně je ve Windows celkem bída (lze trochu zlepšit doinstalací 3rdparty produktů), takže s firewallem to asi nebude o mnoho lepší.
A co třeba podpora speciálního HW? Kolegovi jsem nemohl nainstalovat Linux, přestože si ho přál, jelikož má na počítači poměrně drahý, ale zato v Linuxu absolutně nepodporovaný HW, který ovšem potřebuje pro svou práci.Jak kdy. Někdy zase vede Linux. Pokud pomineme nex86 architektury a slabý HW, tak pro některý pár let starý HW výrobce jaksi nevydal W7 ovladač a tak to prostě nefunguje. Úžasný je plotter koupený v roce 2004, který funguje jen na W2000/XP a výrobce už ho nepodporuje. Nejvyšší čas zkusit znásilnit pstoedit a hp2xx, jestli se to dá do pohybu i pod tučňákem…
ptal jsem se na canonu a bylo mi řečeno, že nevidí důvod podporovat tento systém a to je scanner vyšší třídyDoufam, ze tva odpoved nasledne byla, ze v tom pripade zase nevidis duvod kupovat veci od Canonu :)
DVB/T/S, digitalizační karty, některé USB zařízení prostě se nedají rozchodit.Věřím tomu, že to tak obecně je, ale zrovna u USB DVB-T jsem se musel smát, když jsem četl zoufalé zkušenosti uživatelů Windows s Leadtek Winfast DTV Dongle Gold. Přitom v Linuxu jsem ho připojil a bez problémů fungoval.
Moment, nejsou to aplikační a tedy zcela zbytečné firewally?To jsem raději ani "neříkal nahlas", protože když jsem se zde (tedy zde na Ábíčku, nemyslím tím žádné Živě) kdysi v nějaké diskuzi ozval v tomto duchu, byl jsem málem ukamenován - prý je Windows firewall v rukou správného uživatele absolutně spolehlivý :) Už si nevzpomenu, kdo mne o tom přesvědčoval, ale hledat se mi to nechce.
asný je plotter koupený v roce 2004, který funguje jen na W2000/XPJo, v tomto máš pravdu, to je skutečně ve Windows problém u nestárnoucího HW. Výrobce samozřejmě chce prodat nový HW, tak by byl většinou sám proti sobě, kdyby psal ovladače pro ten starý pro nový systém.
Windows firewall je v rukou správného uživatele absolutně spolehlivý :)Ale to je strašné nedorozumění! Já netvrdil, že není spolehlivý! On je dokonale spolehlivý v té nesmyslné činnosti, pro kterou byl navržen.
Jo, v tomto máš pravdu, to je skutečně ve Windows problém u nestárnoucího HW. Výrobce samozřejmě chce prodat nový HW, tak by byl většinou sám proti sobě, kdyby psal ovladače pro ten starý pro nový systém.Ano, viz nVidia BLOB.
On je dokonale spolehlivý v té nesmyslné činnosti, pro kterou byl navržen.Já mám právě přesně opačnou zkušenost (naštěstí mám Windows jen v práci, a to bez připojení na net, takže ne vlastní). Měl jsem v rukou nejeden počítač s aktivními aktualizacemi, Windows firewallem a aktuálním Avastem, zavirovaný až po uši. A ve firewallu si vir otevřel vrátka, aby mu nekomplikoval život. Jestli daní uživatelé udělali nějaké fatální chyby, nebo je to problém systému, nedokážu říct, protože jim za zadkem nesedím.
Podle mě je první problém v "každý může být admin". Na PC několika známých pravidelně reinstaluju resp. obnovuju z image wokna a nastavuju jim pro práci omezený účet. Za půl roku ti lidé přijdou s tím, že "mám to asi zavirovaný".
První věc, co zjistím je, že jedou pod účtem s admin právy. Po pár otázkách navíc z toho člověka vyleze, že skoro všechno(aktualizace, otevření firewallu, whatever) odkliknou OK. Jednoduše proto, že nemají tušení co po nich počítač chce.
I kdyby jim to psalo: Program XYZ nyní restartuje Váš počítač a zformátuje Vám harddisk kliknou na "povolit".
A je zajímavé, že návody na zapnutí plnohodnotného administrator účtu a vypnutí UAC ti lidi pochopí a provedou. Na lŽivě.cz přece psali, že pod adminem se líp dělá.
Řešení: nepoužívat takový dementní OSPravda. K tomuhle by zrovna oficální repositáře a právo obyčejným uživatelům dovolit instalovat věci jen z oficiálních repositářů (samozřejmě zakvótované) bylo jako stvořené. Holt škoda, no.
Přesně tak, pod tohle bych se podepsal.
Určitě by někomu vyhovovalo například otestovat si jadernou bombu uprostřed ČM vrchoviny.
Přesně v tom je jádro pudla. Místo aby se upřednostňovalo hledisko „je to bezpečné, korektní, logicky správné“, u Microsoftu jde jen a pouze o to, aby to každému myslitelnému troubovi v základním nastavení vyhovovalo.
Jestli v SW výbavě dominují Windows, to je zajímavá otázka. Podle toho, v jaké přesně. Kompilátory? No, tam zrovna ne... Například špičkový software od firmy AutoDesk má několik Linux-only komponent a je k dispozici nativně pro Linux. Že pro Linux nejsou k dispozici tuny closed-source „freeware“ průjmů ve stylu slunecnice.cz, to mě až tak moc netrápí. Co na Linuxu citelně chybí, je například Adobe. No ale pokud bych chtěl dělat profesionální DTP, nejspíš bych na to měl Apple a nikoliv Windows.
Odezva při zatížení je zajímavé a aktuální téma. Hlavní otázka ovšem je, pod jakým zatížením je nějaký Windows desktop. Třeba můj ArchLinux často na pozadí provádí kompilovaný update systému s pořádným -j
flagem. Ale jaký je ekvivalent něčeho takového ve Windows? Tam se takové věci zkrátka moc nedělají. Proto je otázka, jak by Windows obstály ve skutečně objektivním srovnání na podobném workloadu. Kromě toho je třeba uvážit, že takový scheduler může mít obrovskou spoustu optimalizačních kritérií (throughput, fairness, latency, ...). Zatímco UNIXové systémy musí rozumně uspokojovat všechna tato kritéria, u desktopových Windows jde jen o jedno z nich: o to třetí. Známým faktem tedy je, že například přepínání vláken se u Windows děje ve srovnání s jinými systémy povážlivě často. Nejspíš jde o vytvoření iluze „plynulosti“ na úkor efektivity. Netvrdím, že jsou v tomto ohledu Windows nějak horší. Moje pointa je spíš v tom, že (1) nikdo nikdy neprovedl nějaké objektivní srovnání a (2) pokud je systém optimalizovaný pro „BFU-only“ workload, není překvapivé, když právě takový workload zvládá obstojně. Otázka samozřejmě je, jak to bude u serverových Windows a zda tam mají například něco takového jako zóny, projekty, aplikace a task groups, což jsou entity, se kterými pracuje například fair share scheduler na Solarisu.
HW je samozřejmě problém. Nikoliv problém Linuxu, ale problém dodavatele toho HW. Nicméně v oblasti dobře z dokumentovaného HW na tom Linux není zas tak špatně. Který systém měl jako první ovladač USB 3.0?
Třeba můj ArchLinux často na pozadí provádí kompilovaný update systému s pořádným -j flagem. Ale jaký je ekvivalent něčeho takového ve Windows?Pokud vím,
nmake
nic takového nepodporuje.
Jestli v SW výbavě dominují Windows, to je zajímavá otázka. Podle toho, v jaké přesněJednak zmíněné Adobe, potom také MS Office (například datová propojení Access-Excel-Word jsou na míle vzdálená možnostem OOo - a pro mne znamenají 90 % užitečnosti tohoto balíku). A potom spousta speciálního SW (obvykle pro oblasti, v nichž pracuje obecně málo technických nadšenců), který je psaný téměř výhradně pro Windows. Koneckonců, ani pro školství, kde by stálo za to Linux podporovat, moc SW není.
HW je samozřejmě problém. Nikoliv problém Linuxu, ale problém dodavatele toho HW.No jo, to zní pěkně, ale ve výsledku na tom nesejde. Já jsem byl třeba nadšen, když jsem si mohl vyzkoušet QNX Neutrino, které valilo jak drak na počítači, kde byly Windows nepoužitelně pomalé. Jenže na to také výrobci HW nepíšou ovladače a ani SW moc není.
0-3 je považováno za NE 4-6 je považována za ANOTak nevim .. Stejne tak odolnost vuci virum, to mi prijde jako naprosto nesrovnatelne i se srovnanim s W7. Kdyby byla na stejne urovni, na co ma vetsina ty antiviry ? (zazity zvyk ?) :)
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.