Společnost Valve aktualizovala přehled o hardwarovém a softwarovém vybavení uživatelů služby Steam. Podíl uživatelů Linuxu dosáhl v březnu 5,33 % (Windows -4,28 %, OSX +1,19 %, Linux +3,10 %). Nejčastěji používané linuxové distribuce jsou Arch Linux, Linux Mint a Ubuntu. Při výběru jenom Linuxu vede SteamOS Holo s 24,48 %. Procesor AMD používá 67,48 % hráčů na Linuxu.
Společnost Apple slaví padesáté narozeniny. Založena byla 1. dubna 1976.
FreeTube, desktopový klient pro YouTube využívající lokální API, byl vydán ve verzi 0.24.0. Toto velké opravné vydání implementuje SABR (Server-Based Adaptive Bit Rate), což řeší část nedávných problémů s načítáním videí z YouTube, a aktualizuje základní komponenty jako Electron nebo přehrávač Shaka Player.
Je tu opět apríl. O víkendu zmizel kamion s 12 tunami tyčinek KitKat. Firmy to využívají k aprílovým žertům. Groupon má super akci. Koupíte 1 tyčinku a dostanete 100 zdarma. Ryanair si přelepil letadla. Šéf Outlooku se ptá, proč mají v baráku 14 beden tyčinek KitKat (𝕏). Prusa Research představuje Prusa Pro ACU a vysvětluje proč přílišné sušení škodí vaším filamentům. Telefon Sony Xperia má miliónnásobný zoom (𝕏). PC.net představil Super Ultrabox 2600 se zajímavými parametry. Další aprílové novinky například na April Fools' Day On The Web.
Společnost OpenAI, která stojí za chatovacím robotem s umělou inteligencí (AI) ChatGPT, získala od investorů 122 miliard USD (2,6 bilionu Kč). Hodnota společnosti tak dosáhla 852 miliard dolarů (více než 18 bilionů Kč). Nejnovější kolo investování se stalo největší, jaké zatím firma uskutečnila, a peníze mají posílit ambiciózní plány rozšíření výpočetní kapacity, datových center a nábor talentů.
Nástroj k identifikaci občanů v on-line komunikaci s úřady byl dnes dopoledne zhruba dvě hodiny částečně nedostupný. Problém se objevil kolem 09:00 a podařilo se ho vyřešit kolem 11:00. Částečně nedostupná byla služba Národní identitní autority (NIA), problémy podle DIA (Digitální a informační agentura) ovlivňovaly přihlašování například i přes bankovní identitu. „Dostupnost NIA byla plně obnovena, přihlášení k digitálním službám
… více »Eben Upton oznámil další zdražení počítačů Raspberry Pi kvůli růstu cen pamětí a představil Raspberry Pi 4 s 3 GB RAM za 83,75 dolarů.
Anthropic patrně omylem zveřejnil celý zdrojový kód svého CLI nástroje Claude Code prostřednictvím přiloženého sourcemap souboru v npm balíčku. Únik odhalil doposud nijak nezveřejněné funkce jako je například režim v utajení, autonomní agent 'KAIROS', orchestrace multi‑agentů, režim snění nebo dokonce virtuální mazlíček Buddy. Zajímavostí je detekce naštvání uživatele pomocí obyčejného regexpu. Anthropic rychle odstranil sourcemap a vydal opravu, nicméně kopie kódu se již stihly na GitHubu rozšířit mezi prostým lidem.
Copilot automaticky vkládal do pull requestů 'propagační tipy', reklamní text se na GitHubu objevil ve více než jedenácti tisících pull requestech. Po vlně kritiky byla tato funkce zablokována a produktový manažer Tim Rogers připustil, že umožnit Copilotovi upravovat cizí pull requesty bez vědomí autorů byla chyba.
Je 31. března a tedy Světový den zálohování (World Backup Day). Co by se stalo, kdyby Vám právě teď odešel počítač, tablet nebo telefon, který používáte?
Diskuse byla administrátory uzamčena.
Mám to s kernelem 3.12.6 a mountuju s noatime,compress=lzo,space_cache,autodefrag,inode_cache
Na nete je plno ubuntakov co pisu ako dali svojmu notasu "druhy zivot".On jim ten dech časem dojde, až se a) zaplní disk nebo b) pakliže hodně zapisují. ZFS nemá defrag (btrfs sice ano, ale jak se píše v ostatních příspěvcích, tak to taková výhra také není).
Návod nebude ?
Ten autodefrag účinkuje jen na nově zapsaná data, stará data zůstanou defragmentována. Stará data je potřeba defragmentovat pomocí btrfs-progs, jenže to má dva háčky.
První je ten, že defragmetace adresáře nedefragmentuje rekurzivně - prostě jen defragmentuje uvedený adresář (vynechá i soubory v něm !), musí se použít find a každý soubor/adresář defragmentovat zvlášť.
Druhý je, že na kernelu <3.9 defragmentace rozpojí spojení se snapshoty, takže obsazené místo dost markantně naroste. Z čehož vyplývá, že i samo použití autodefrag vylučuje vytváření snapshotů.
Takže smazat snaphosty, nové nevytvářet, defragmentovat každý soubor/adresář zvlášť (to zabere třeba i dny), nastavit autodefrag a pak se to možná bude dát používat.
Po 2 týdnech se mi to ale začalo zpomalovat ...no, jsem v této situaci po půl roce s rychlým SSDčkem ... kopíruju si takhle půlgigovej soubor přes wifinu, takže nicmoc rychlýho, asi 2 MB/s, chci si k tomu votevřít druhej terminál a nic, černo, a teprv asi po půl minutě mi naběhne shell ... koukám vedle, a průměrná rychlost kopírování je někde pod mega, i když ta síť dává ty dvě ... přepnu se zpátky, chci si v tom shellu pustit midnight, a zase asi dvacet sekund nic ... moc príma jako chápal bych, kdyby se ten systém mezitím tvářil vytíženě, ale ono nic, disk nebliká, v topu žádnej proces nevylejzá, jen se prostě čeká na Godota nebo co :-/
problem muze byt i tady toto http://www.abclinuxu.cz/clanky/jaderne-noviny-7.-11.-2013-proc-pomala-flashka-zpomali-64bitovy-stroj a ne btrfs :)
Protože existuje jedna fronta na zápis, která má na svém začátku zápisy do pomalé flešky (jiné než SSD)nemá; žádné takové zařízení není připojeno co teď?
Copy-on-write (COW) v případě Btrfs znamená, že se při zápisu změněná data zapisují na nové místo a původní data zůstávají na disku nezměněna. Díky tomu se například snadno implementují snapshoty, protože aktivní snapshot bude ukazovat na blok se změněnými daty, zatímco v archivním snapshotu zůstane odkaz na původní data.
root@schroeder:~# btrfs fi df / Data, RAID1: total=47.97GB, used=43.98GB System, RAID1: total=32.00MB, used=12.00KB Metadata, RAID1: total=2.00GB, used=1.07GBPřesnější je výpis když používáš kvóty.
stroj (DATASERVER) :~# btrfs qgroup show -pcre /home | grep 0/262 0/262 23875584 23875584 3221225472 0 1/1 ---Jenže ten ti sám o sobě -máš-li více subvolumes - taky moc neřekne, pokud si to nezkombinuješ ještě s jinými příkazy.
Bačíka, IIRCNe, opravdu je to jenom Bacik. Kolega se ho na to jednou ptal.
Neříkám, že by se to tak mělo dělat, to určitě ne, ale dobře napsaná aplikace (například db) na normálním fs a normálním hw (který nelže o zápisech) nemá s nekorektním vypnutím žádný problém. S příchodem virtualizace se dokonce běžně dělají snapshoty virtuálky za jejího plného běhu a z těchto snapshotů se potom dělají kopie. Nikdy nebyl s tímto žádný problém a přitom z hlediska toho os je to stejně jako kdyby někdo zmáčkl reset. Konkrétně ta db bude ve poslední dokončené transakce a každý slušný fs bude ve stavu posledního syncu (ext3 každých 5s, btrfs by default 30s apod, dá se vynutit aplikací kdykoliv).
Problem bol este trocha zlozitejsi. Nie len, ze hlasili data ako zapisane, ked boli len v cache, ale dokonca nemali cache energeticky zalohovanu (ziadna zalozna bateria), takze pri vypadku energie nastal velmi velky problem. Mimochodom, podobne "chyby" sa hlasia dodnes a je to jeden z dovodov preco pre XFS existuje sw force shutdown (cca simulacia vypadku energie na spolahlivom ulozisku (na ulozisku, kde nenastanu problemy s cache)).
XFS si v tejto oblasti toho odtrpelo este viac. Na rozdiel od ext systemov suborov ma totiz xfs oddelene fronty pre zapis metadat a pre zapis dat, vysledkom coho byvalo po pade velke mnozstvo prazdnych suborov (nulovej dlzky). Tento "problem" nakoniec vyriesili barierami aj ked ani to povodne spravanie nebolo nejak chybne (akurat to casto nedokazali rozdychat zle napisane aplikacie).
Dalsi problem robil vyssie spominany interval pre sync dat (5s pri ext). Pri XFS je to az 60 sekund (aj to primarne kvoli VFS, ak si dobre pamatam). Mnozstvo aplikacii bolo bohuzial napisanych tak, ze ratalo so sync intervalom ako bol pri ext, z coho boli tlaky na zmenu dokonca aj pri XFS (o fsync/fdatasync ti vyvojari zvacsa asi nepoculi...).

- potvrzuji problem s DF (btrfs fi df / - mi vcera ukazoval 200MB free, smazu 4GB iso-soubor a btrfs fi df / ukazuje 12GB - a to nepouzivam kompresi)
Problem s df ma kazdy file system, aj ked pravdepodobne nie az tak zavazny.
- nedoresena (auto-)defragmentace a komprimace dat - viz vase prispevky vyse (hodila by se utilita brtfs-defrag, btrfs-compress a neco na kontrolu duplicitnosti bloku)
Neviem, co si mam o tej autodefragmentacii mysliet (hlavne by ma zaujimalo ako je implementovana), ale po skusenostiach z minulosti sa mi to moc nepaci. Autodefragmentacia mava casto negativny dopad na fragmentaciu dat (zvysuje totiz fragmentaciu volneho priestoru). Viz napr. problemy, ktore kvoli tomu malo XFS par rokov dozadu.
-jeste nedavno sem mel chut BTRFS vymenit za ext4, ale veci se asi daly do pohybu a nektere bugy zacinaji mizet - tak uvidime :)
Mozno by stalo za uvahu prave to XFS, co sa tyka vlastnosti, tak je celkom podobne btrfs (momentalne ma napada akurat, ze nema kompresiu dat a nema fs shrink).
Za vyhodu XFS oproti btrfs povazujem to, ze zachovava modularitu a nesnazi sa vsetko implementovat vlastnym sposobom (co je podla mna prevazne zbytocne, teoreticky to moze priniest zlepsenie vykonu, ale zas zvysuje pravdepodobnost chyb) -- btrfs ma cca vlastnu implementaciu lvm, raidu a pod.; XFS na to vyuziva standardne block-level lvm, md a pod.
Dalsia vyhoda je, ze XFS je na tom vykonnostne celkom schopne (vykon je porovnatelny s ext4, aj ked zalezi dost od jadra).
(ADATA SSD 511 60GB, C2D T7700, 4GB, 3.11.0-13-generic Lubuntu saucy 64bit) discard,ssd,autodefrag,inode_cache,space_cache,subvol=@)
Beh s online discard (volba discard) nie je z vykonnostneho hladiska moc odporucany. Casto je lepsie vytvorit nejaky cron job, ktory raz za X hodin zavola fstrim. Ten autodefrag by som osobne asi radsej tiez vypol (viz vyssie).
Pod problemami som, myslel prave to, ze ext4 je schopne vyhodit ENOSPC uz ked su zaplnene 2 % file systemu (staci, ze je plna ta tabulka). Je pravda, ze zapisovat dalej ide, ale len do existujucich suborov.
Pozeram, ze xfs s tymto uz problem nema a df to pocita aspon priblizne korektne. Je mozne, ze si to zle pamatam, ale este par rokov dozadu to tak nebolo a tiez tam bol problem so zaplnenim prazdnymi subormi. Dokonca pozeram, ze xfs uz pocita aj rezervovane miesto v df ako zaplnene, takze dnes uz asi neplati, ze s df maju problemy vsetky file systemy (aj ked hodnota v df sa stale neda povazovat za uplne presnu reprezentaciu volneho miesta).
Btrfs místo toho přesune přepisované bloky jinam v rámci systému souborů a zapíše nová data tam, takže starší kopie zůstane nedotčena.Nemělo být? Btrfs místo toho přesune přepisované bloky jinam v rámci systému souborů a zapíše nová data na původní místo, takže starší kopie zůstane nedotčena.
Btrfs místo toho kopíruje přepisované bloky jinam v rámci systému souborů a zapíše nová data tam, takže starší kopie zůstane nedotčena.
Tiskni
Sdílej: