Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Richard Stallman přednáší ve středu 7. května od 16:30 na Technické univerzitě v Liberci o vlivu technologií na svobodu. Přednáška je určená jak odborné tak laické veřejnosti.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.04.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
TmuxAI (GitHub) je AI asistent pro práci v terminálu. Vyžaduje účet na OpenRouter.
Byla vydána nová verze R14.1.4 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek i s náhledy v poznámkách k vydání. Podrobný přehled v Changelogu.
Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
Různé drobnosti a užitečnosti na které narazím nebo sám vytvořím. Primárně se zaměřuji na věci, které mohou být zajímavé a užitečné pro ostatní uživatele GNU/Linuxu či typografického systému TeX, občas se tu ale určitě vyskytne i něco z úplně jiného soudku, např. z oblasti bezpečnosti apod.
Před pár měsíci jsem si stěžoval na Shingled Magnetic Recording (SMR) disk, který tak trochu podezřívám, že možná žere data. Nyní jsem objevil pár dní starý skvělý článek o chování 8TB Seagate Archive. SMR disky jsou ještě větší nářez, než jsem si původně myslel: Věděli jste například, že 2,25minutovým náhodným zápisem můžete SMR disku způsobit více než 14hodinové uklízení?
Přitom je dost jisté, že se s nimi budeme potkávat i do budoucna, protože SMR se bude jako doplňková technologie používat dál, neplánuje se její nahrazení v dohledné době. :-/ Pozitivní alespoň je, že Linux se zdá být v podpoře SMR disků relativně nejdál, protože jejich pořádné využití si žádá zavedení nových SCSI/(S)ATA příkazů a netriviální podpory host-aware/-managed SMR disků na straně operačního systému.
Windows 7 už od Microsoftu jistě podporu SMR disků nedostanou. A popravdě řečeno je toto první věc, která mne nutí vážně uvažovat o tom, jestli své Windows 7 stroje nemigrovat na Windows 10 (pokud tedy budu předpokládat, že Microsoft zdarma-upgrade neprodlouží a opravdu jej zařízne k 29. červenci 2016, což za jisté zdaleka nepovažuji), protože toho 3,5 roku do konce vydávání bezpečnostních záplat na „Sedmičky“ je asi dostatečně dlouhý čas k tomu, aby se mi tam případně nějaký SMR disk objevit mohl...
Tiskni
Sdílej:
mike@unicorn:~/work/git/kernel-upstream> time git checkout v2.6.16 ... real 0m7.376s user 0m3.496s sys 0m2.816s mike@unicorn:/srv/debug/kgit> clean-ram ... real 1m24.766s user 0m4.179s sys 0m4.027s
Obsah obou adresářů byl naprosto stejný (druhý byl vytvořen pomocí "cp -r
" a před oběma příkazy jsem flushnul cache. Uhodnete, v čem je rozdíl?
mike@unicorn:/srv/debug/kgit> time git checkout v2.6.16
Svěřit tomu důležitá data je hazardJako kdyby magnetické disky byly spolehlivé, zejémna WD a Saegate, že :-/ U posledních zhruba tří laptopových WD disků jsem pozoroval poločas rozpadu asi tak 2 roky max.
Další věc je mechanická odolnost. Jedno z těch selhání bylo způsobeno tím, že jsem upustil laptop na zem. Ano, je to sice moje chyba, ne chyba disku, nicméně SSD disk by nejspíše to samé přežil bez problému.
To je taky důležitý faktor. Právě kvůli tomuhle bych do notebooku klasický disk nechtěl, i kdyby tam nebyl ten propastný rozdíl v rychlosti seeku (nemluvě o prodlevách při roztáčení disku).
Na tom, že když chcípne elektronika v HDD, prostě se vymění a data jde z ploten dostat, to nic nemění.
Důležitá data mám na více místech.
V okamžiku pořízení/editace asi těžko. Tím tuplem, pokud je to offline nebo s velkými objemy dat.
U SSD jde taky data dostat ven, stačí přepájet ty čipy na jinou desku. Na CDRku to dělali, nabyl jsem z toho dojmu, že to jde při troše šikovnosti a s nářadím za pár stovek udělat i doma na koleni.Na tom, že když chcípne elektronika v HDD, prostě se vymění a data jde z ploten dostat, to nic nemění.
Radice v SSD jsou mnohem slozitejsi, nez u HDD. A ze zkusenosti spis odchazeji radice, nez flash cipy. Naposledy mi Crucial M4 reportoval 600PB kapacitu, kdyz se po pul hodine konecne objevil na SATA sbernici.
Kdy jsi to naposledy dělal? A případně kolikrát jsi to dělal?
Nepřijde mi to až tak zajímavé.
Co mi zajímavé přijde, to je několik studií ze servisů a forenzních laboratoří, na které jsem v poslední době přišel. Vcelku detailně se tam rozebíralo, co za proměnné musejí znát, kolik mají pokusů aj. Docela rád bych to znovu našel.
co používáte pro SSD cacheHW řadič, který to umí. Na úrovni linuxu zatím nic. Osobně bych ale cestou nějakého udělátka na úrovni blokové vrstvy* stejně nešel. Většinou je možné nalézt místa, kde zvýšená rychlost pomůže (třeba ukládání transakčních logů db serveru), a tato data lze strčit na SSD. Tam to má podle mě daleko větší význam. *) Kolega mě ukecává na test ZFS + SSD L2ARC, ale musím říct, že ZFS mi přijde nechutně neflexibilní. (Nelze měnit typ vdevu, nelze rozšiřovat vdev o další disky, pokud už se jednou vdev přidá do poolu, tak už tam zůstane na věky věků apod. Na to už dávno nejsem zvyklý.) Používám to na FreeBSD, tam je to asi pokrok, ale v linuxu už jsem zvyklý na jiné možnosti.
aktuálně 24TB ZFS RAID10 + 20TB ZFS RAID60To máš nad nějakým HW řadičem?
34TB RaidZ3A to, že s tím už nikdy nepohneš ti neva? Toto byl hlavní důvod, proč jsem si před 5 lety vybral btrfs. Teď mám jeden server na FreeBSD (více méně z hecu, dokopal mě k tomu kámoš), a samozřejmě ZFS. No a věci, na které jsem byl zvyklý už dávno v pravěku u LVM, tedy že kdykoliv mohu přidat další PV (klasicky jako mdadm mirror), kdykoliv mohu PV odebrat (za chodu, přes pvmove) tady prostě nejsou. Už i mdadm je flexibilnější než ZFS (do mdadm se dá přidat disk a přepočítat raid5 na více disků, nebo z toho za běhu udělat třeba raid6, dá se i zmenšit počet disků). U ZFS se nedá z poolu odebrat vdev a až na mirror se z vdevem nedá hnout, a dokonce ani snižovat počet vdevů v poolu. Hledal jsem nějaké best practise (moc toho není), našel jsem rozumnou variantu dělat vdevy jako mirrory, disky přidávat po dvojicích a smířit se s tím, že už se ten mirror nikdy neodebere (naštěstí to jde přehazovat za větší disky). Fakt nevím, jak tohle někdo řeší v praxi. Nebo se prostě počítá s tím, že tahle krabice má prostě takovou konfiguraci až do konce životnosti? Viděl jsem hromadu rad typu zpool create new ; zfs send / receive ; zpool destroy old (prostě neustálé přehazování dat mezi pooly kdykoliv je nutné změnit jeho složení).
24 TB ZFS RAID10 je RAID10 vytvořený pomocí ZFS nad Arecou řadičem, který dělá JBOD. Tzn., o vše se stará ZFS.Takže vdev mirrory naházené do poolu. Ok
ZFS jsem si vybral kvůli výkonu, sice žere ram, ale stojí to za to.Zatím nepozoruji žádnou větší změnu. RAM se na iocache používá i v linuxu, časté čtení jde vždy z paměti, zápis na disky prostě musí tak jako tak (takže se stejně čeká na nejpomalejší článek řetězu, což je disk). Možná, že v některých případech umí arc cachovat lépe (resp umí lépe vyhazovat nepotřebné stránky), zatím nevidím rozdíl.
Je jedna situacia, kedy by sa ta vacsia flexibilita hodila v kazdom prostredi - ked clovek vykona nejaku zmenu omylom. Na nete casto vidis ako ludia omylom pridali do poolu jeden disk ako vdev.No já jsem teď v podobné situaci. Nevím proč, ale jeden ze 3 vdevů se postavil jako ashift=9 (512B), zatímco zbývající dva jsou ashift=12 (4096B). No a když jsem zkoušel vyměnit disky za 4k sektorové (zrovna tom 512B sektorovém vdevu), tak mě ZFS upozornil, že to není nejlepší nápad. Což je dost blbý, protože nemám místo na to to někam přeházet (taky proto jsem tam chtěl dát vetší disky, aby bylo víc místa).
-o ashift=12
ked robis replace?
zpool replace
. Ale vravim, nikdy som to neskusal. (a tiez je mozne, ze je to Linux-specific volba?)
Stalo by to za experiment, ked budem mat vecer cast tak skusim rozbehnut virtual s par diskami.
-f
není.
Myslím si, že na problematiku asi nemáš úplně objektivní pohled.
HDD budú nahradené do pár rokov SSD - najprv kapacitou neskôr aj cenou ... HDD čaká rovnaký osud ako floppy mechaniky, optické mechaniky a crt monitory... tipujem 2 - 3 roky...
GothiqueNoir tvrdí, že do roku 2019 budou HDD vytlačeny. Kapacita a cena? Do notebooků (o desktopech ani nemluvě) se dnes běžně nasazují 0,5-1TB, občas 2TB HDD, kapacitou ekvivalentní SSD stojí řádově čtyřnásobek, 2TB ani nejsou na trhu. Pokud bude vývoj odpovídat tomu za poslední čtyři roky, za ty další tři roky možná budou 0,5TB opravdu cenově dostupné (pod $100) a 1TB za dvojnásobek.
A to se, prosím pěkně, už kolem roku 2012 předvídalo, že k nahrazení dojde v době dnes již minulé (2014-2015).
HDD skutečně budou vytlačeny, pokud (a) uživatelé přejdou na streamování nebo vzdálené ukládání všeho objemnějšího nebo (b) se objeví lepší technologie pro větší kapacity dat. Varianta (a) zavání digitálním feudalismem, který tu máme do menší míry už dnes. Zároveň je tu problém s rostoucími objemy dat (např. kvůli 4k).
Kdo chce reálné údaje, tak jak už jsem jmenoval, máme zde WEDOS, máme zde vpsFree, máme zde komerční řešení storage systémů, které používají SSD buď jako cache, nebo přímo i jako storage.
Porovnávat datacentra se spotřební elektronikou koncových uživatelů je chybné. Už jenom kvůli odlišné zátěži, odlišným vlivům prostředí a odlišným možnostem redundance.
Oproti obvyklým diskuzním „argumentům“ typu „ale mně chcíply i tři HDD“ to aspoň zahrnuje reprezentativní vzorek a jednotnou metodiku.
Že jde mít i v laptopu RAID? To opět naráží na (1) kapacitu, (2) rozšíření takového hardwaru – M.2 je záležitost stará řádově dva tři roky, tzn. pokud to někdo má, je to důsledek (a) konzumu, (b) korporátní obměny železa, kde ale existovaly věci jako UltraBay i předtím. Za další dva tři roky už se to možná bude týkat většiny, leč (2) je podmínka nutná, nikoliv však postačující.
Při pohledu na trh jsou kombinace, pokud se vůbec vyskytují kombinace, SSD+HDD nebo HDD s tím integrovaným SSD, tzn. naráží se na (1).
strach z toho, že data z SSD člověk po jeho rozbití nedostane, jsou podle mně úplně mimo, nezálohovat a spoléhat na to, že data dostanu z vadného disku je prostě hloupost.
Tak mě napadá, myslel OP tím vytlačením HDD i případy užití typu archivace?
Pak se pochopitelně nabízí otázka, proč existuje netriviální poptávka po obnově dat.
…která naráží na neznámou strukturu dat (v korporátě hlavně u šifrování), popř. definitivnost mazání v případě s Trim.
Takže je otázka, zda by případná vyšší spolehlivost SSD vyvážila vyšší náklady na dílčí operaci, ba dokonce její neproveditelnost. (V případě forenzních laboratoří se přímo nabízí sarkastická poznámka, že propagace SSD je vlastně podpora pedofilů nebo teroristů. >_<)
výkon oproti magnetickým diskům je hodně dobrý, hlavně latence, takže to šetří to nejdražší, čas uživatele. Kdo používá PC několik hodin denně, tak má úsporu nejen časovou (a ta je nemalá), ale i psychickou. Toto jsou ty největší argumenty pro SSD
Tady si dovolím odbočit k tomu, že úzké hrdlo je v prvé řadě netrpělivý uživatel, bloatware nebo připojení.
tak se ti nelíbí poměr cena vs. kapacita (…) Jo a pak to, že vidíš velký problém v kapacitě v případě ntb. (…)
Rozporuji tvrzení OP. Fakt doporučuju dlouhodobě víc spánku, mělo by se to pozitivně projevit na kognitivních schopnostech.
pomalost magnetického disku pro tebe znamená, že je uživatel netrpělivý
Tvrdím, že pro drtivou většinu koncových uživatelů jsou zásadní problémy jinde.
Ostatně to vidím i v praxi. SSD přináší rychlejší načítání bloatware. To je super. Nebylo by lepší prostě se vyhnout bloatware?
evidentně jsi zarytý teoretik a nemáš k tomu víc, co dodat
Nebo, na rozdíl od zarytých praktiků, nemávám irelevantními daty.
V takovém případě asi nemá smysl nadále pokračovat v diskusi.
Já se tě ptám a tvé zkušenosti
…a já opakuji, že zkušenosti jsou irelevantní.
Je to analogické debatám, zda je lepší miniUSB, nebo microUSB. Zastánci toho či onoho se ohánějí tím, jak jim museli pár telefonů několikrát reklamovat kvůli vadnému konektoru, takže ten standard saje. Přitom jde o malý vzorek, navíc často heterogenní: dotyčný model klidně mohl mít konektor špatně uchycený, což uživatel od selhání konektoru jako takového obvykle neodliší.
Všichni do jednoho si jen chrochtají a zpět na rotační disk by nešel nikdo z nich.
Což je přesně případ kontroly různých proměnných.
Před několika lety jsem byl konfrontován se studií uživatelských rozhraní textových procesorů; jeden z výsledků byl, že uživatelé MS Office s Ribbonem (oproti tradičním nabídkám) si připadali produktivnější, ale ve skutečnosti produktivnější nebyli.
Nebo: jistý blogger si pod dojmem tvrzení, že programátoři furt píšou, nainstaloval keylogger, načež zjistil, že když celý den programuje, píše dohromady jenom 30 minut.
Kvantifikace těch výhod je zásadní. time git checkout
je krok správným směrem – teď ještě monitorovat veškerou činnost, a tedy podíl dílčích činností.
A né, opravdu nemají zasviněný PC nějakýma shitama.
To je otázka. Pokud si pod bloatware představuješ takové ty stereotypy jako reklamní lišty v prohlížeči, pět antivirů vedle sebe a k tomu nějaký ten malware, tak možná. Současně jsou tu lidé, kteří považují KDE/GNOME za bloatware, v prohlížeči (sotva grafickém) mají vypnutý JavaScript nejen kvůli šmírování,…
Ti, co potřebují větší kapacitu si raději koupili externí disk do USB, který všude tahají
Což opět vyvolává otázky ohledně zálohování… a praktičnosti. Navíc je to stále v rozporu s OP.
Závěrem, radši si přečtu něco s empirickými daty než dojmologií.
Je to analogické debatám, zda je lepší miniUSB, nebo microUSB.50x větší IOPS a 5x větší sekvenční výkon je analogicky totéž jako rozdíl mezi mini a micro USB? Tak to pak jo.
Kvantifikace těch výhod je zásadní. time git checkout je krok správným směrem – teď ještě monitorovat veškerou činnost, a tedy podíl dílčích činností.To mi připomíná nějakého koumáka, který na počátku minulého století přidělával sekretářkám na ruce žárovky, fotografoval to na hodinovou exposici a potom se jiným uspořádáním stolu snažit optimalizovat trajektorie rukou během práce. Samozřejmě bez výsledku.
50x větší IOPS a 5x větší sekvenční výkon je analogicky totéž jako rozdíl mezi mini a micro USB? Tak to pak jo.
Poloviční tloušťka, dvojnásobný počet vysunutí/zasunutí a přesunutí zátěže na kabel.
To mi připomíná nějakého koumáka, který na počátku minulého století přidělával sekretářkám na ruce žárovky, fotografoval to na hodinovou exposici a potom se jiným uspořádáním stolu snažit optimalizovat trajektorie rukou během práce.
Myslíš Franka Gilbretha?
Samozřejmě bez výsledku.
Pokud se nepočítá významný obrat po činnosti jistého Fredericka Taylora, tak bezpochyby.
Poloviční tloušťka, dvojnásobný počet vysunutí/zasunutí a přesunutí zátěže na kabel.Přesně tak. Je úplně jedno, jestli se na nějakou operaci čeká minutu nebo hodinu. Prostě přesně jako konektor
Myslíš Franka Gilbretha?Co já vím. Takových bylo je a bude.
Ostatně to vidím i v praxi. SSD přináší rychlejší načítání bloatware. To je super. Nebylo by lepší prostě se vyhnout bloatware?
S bloatware to nemá nic společného, to je IMHO red herring, SSD je znát i na zcela obyčejných operacích jako třeba update systému. S mechanickým HDD se mi často stává, že když pacman -Syu
aktualizuje větší množství balílčku, zbytek systému je prakticky nepoužitelný a musím počkat, než se aktualizace dokončí. Podle chování zbytku systému přesně poznám, kdy pacman přešel ze stahování na instalaci. Na laptopu s SSD vůbec nepoznám, že pacman běží. To samé třeba spuštění/restart prohlížeče nebo kompilace něčeho většího nebo otevření.
Předpokládám, že podle tebe bych pacman vůbec neměl spouštět, protože to je bloatware? Nebo jsem moc netrpělivý, když nejsem ochoten si těch pár minut počkat, než zas bude systém použitelný?
Jinak netřeba se tady handrkovat o rok 2019, SSD už HDD v nových laptopech do značné míry vytlačily. Mnoho lidí přešlo, přechází nebo se chystá přejít na řešení SSD v laptopu + externí magnetické disky na média, zálohy, archivy apod. Asi na to přejdu brzo taky. Uvidíme také, jestli se zlepší technologie SSHD - aktuálně mají SSHD disky SSD část o velikosti 8~16GB, což je směšně málo, pokud by se ale objevily SSHD s nějakým lepším poměrem SSD:HDD, mohlo by to být zajímavé.
IMHO zatím nemáváš vůbec ničím kromě toho, že doporučuješ lidem spánek pro zlepšení kongitivních schopností, což mi přijde, že je jen delší verze "bež spát, blbečku"...evidentně jsi zarytý teoretik a nemáš k tomu víc, co dodatNebo, na rozdíl od zarytých praktiků, nemávám irelevantními daty.
V takovém případě asi nemá smysl nadále pokračovat v diskusi.
Jinak netřeba se tady handrkovat o rok 2019, SSD už HDD v nových laptopech do značné míry vytlačily.
Kdybych zrovna neměl vedle otevřený katalog Bohemky, možná bych ti to i věřil.
Předpokládám, že podle tebe bych pacman vůbec neměl spouštět, protože to je bloatware? Nebo jsem moc netrpělivý, když nejsem ochoten si těch pár minut počkat, než zas bude systém použitelný?
Přinejmenším nemusíš používat Arch a aktualizace si můžeš vhodněji načasovat. Nejspíš šlo najít vhodnější příklady.
IMHO zatím nemáváš vůbec ničím
Jasně, chcíply ti tři disky. Mně jich chcíplo – musím zaklepat – nula. Asi tušíš, kde je spor.
doporučuješ lidem spánek pro zlepšení kongitivních schopností
Ty taky spíš čtyři hodiny denně? /s
Přinejmenším nemusíš používat Arch a aktualizace si můžeš vhodněji načasovat.Ok, takže máme možnosti: a) Obrnit se trpělivostí a nechat PC zaseknout aktualizacema někdy, až ho nebudu potřebovat. Také bych během práce s PC neměl potřebovat aktualizovat něco většího. b) Koupit SSD, nemuset řešit kdy chci co aktualizovat a benefitovat z celkově výrazně rychlejšího systému, rychlých kompilací, klonování repo atd. apod. Hádej, kterou možnost zvolím.
Jasně, chcíply ti tři disky. Mně jich chcíplo – musím zaklepat – nula. Asi tušíš, kde je spor.Já jsem z těch svých tří failů disků neextrapoloval žádné implikace mimo to, že diskům nevěřím, což je IMHO zdravý názor. Nebo si opravdu myslíš, že si koupím disk od WD a budu si říkat, že to určitě bude OK, že Kolibáč tvrdí, že statisticky to je úplně v pohodě a že teda určitě nezhavaruje? To asi těžko, žejo, budu zálohovat jak mourovatej celkem bez ohledu na to, jestli budu mít WD HDD, HGST HDD nebo libovolné SSD, protože prostě diskům se nedá věřit a basta. Navíc já nekupuju disk jednou za měsíc, mnohem méně často, takže typicky když kupuju nový disk, je to nějaká nová řada, která může mít úplně jiné statistiky poruchovosti než libovolná předchozí řada disků. Rozhodnutí koupit HGST spíše než WD, se sice vícméně zakládá na nějakých statistikách, ale v podstatě to je stejně sázka do loterie a o spolehlivost toho konkrétního disku stejně nemůžu celkem nic moc předpokládat. Takže opravdu nevím, proč ty nebo někdo do diskuse o HDD vs SSD taháte spolehlivost, přijde mi to víc mimo mísu než jít položit kabel do foyeru.
svn up
nad 500MiB zdrojáků) jsem snad ještě ani neviděl. Pointa o izolovaném případu se opakuje.
¹ WD Black protože 5 let záruka, takže když chcípne, prostě ho vyměním… ještě ani jeden nechcípl.
Mám tu Ubuntu na WD BlackTakže desktop PC. Věřím, že desktopový disk je výkonnější. Na workstationě, kde je taky nějaký takový disk a 32GB RAM tyhle problémy taky nemám. Na laptopu ano.
Pointa o izolovaném případu se opakuje.Tak určitě. Mnoho lidí má s HDD vs SSD přesně takovéhle zkušenosti, všichni to jsou jeden jak druhej izolované případy
Takže desktop PC. Věřím, že desktopový disk je výkonnější. Na workstationě, kde je taky nějaký takový disk a 32GB RAM tyhle problémy taky nemám. Na laptopu ano.
V laptopu i desktopu mám 2,5palcový WD Black.
M.2 je záležitost stará řádově dva tři roky, tzn. pokud to někdo má, je to důsledek (a) konzumu, (b) korporátní obměny železa, kde ale existovaly věci jako UltraBay i předtím.A do které z těch dvou kategorií spadají lidé, kteří se rozhodli s výměnou ntb (na sklonku života toho předchozího) počkat na vhodný model s M.2?
Pak se pochopitelně nabízí otázka, proč existuje netriviální poptávka po obnově dat.Úplně jednoduše. Protože nikdo nezálohuje.
Úplně jednoduše. Protože nikdo nezálohuje.
Což upozorňuje na mnohem zásadnější problém IT, a sice řešení zálohování tak, aby to nebylo jako drbat se palcem u nohy na zadku.
Výborně. Teď to běž říct zemědělcům, biologům, chemikům,…
Ani ne každý má schopnost používat VCS, pro ty jsou tady služby jako dropbox (a klidně si to označ jako digitální fedualismus).
Ve chvíli, kdy má člověk Dropbox a TrueCrypt, je to dost přes ruku. (To je zkušenost z praxe, když si je Max tak žádá.)
Výborně. Teď to běž říct zemědělcům, biologům, chemikům,…Proč? V každé zařízené organizaci se výzkumná data stejně ukládají na server k tomu určený. V laborce jsem už někdy před 12 lety viděl každý přístroj (což je dneska fyzická aparatura + řídící počítač) stejně připojený na síť. V nemocnici to takhle měli už před 20 lety. To jsem viděl v běžném provozu, takže to tam provozovali už mnohem dřív. Nevybavuji si žádný stolní měřící přístroj, který by nešel napojit na síť.
Ve chvíli, kdy má člověk Dropbox a TrueCrypt, je to dost přes ruku.Vedle někomu píšeš, že by neměl používat Arch, takže stejným stylem: děláš to blbě
Proč? V každé zařízené organizaci se výzkumná data stejně ukládají na server k tomu určený. V laborce jsem už někdy před 12 lety viděl každý přístroj (což je dneska fyzická aparatura + řídící počítač) stejně připojený na síť. V nemocnici to takhle měli už před 20 lety. To jsem viděl v běžném provozu, takže to tam provozovali už mnohem dřív. Nevybavuji si žádný stolní měřící přístroj, který by nešel napojit na síť.
V některých oborech se taky pracuje v terénu. Komunikuje se s dalšími institucemi. Publikace, skripta aj. se nepíšou na laboratorním přístroji.
Ve chvíli, kdy má člověk Dropbox a TrueCrypt, je to dost přes ruku.stejným stylem: děláš to blbě
Nedělám to já, nýbrž někteří z výše jmenovaných skupin, a to ten TrueCrypt je docela výkon.
V některých oborech se taky pracuje v terénu.Kde je taky větší pravděpodobnost, že se ten HW poškodí vnějšími vlivy, nebo jej prostě někdo ukradne, takže nemá smysl řešit snadnost vytažení dat ssd vs hdd, ale je třeba to řešit jinak. Mimochodem, ssd přežije v terénu mnohem déle, protože netrpí otřesy tak jako mechanický disk.
Publikace, skripta aj. se nepíšou na laboratorním přístroji.To nepíšou no, viděl jsem zoufalého studenta, který snad dokonce vlastní vinou přišel o diplomovou práci, na které pracoval (podle jeho slov) rok. Jestli si to po celý rok ani nikam nekopíroval, tak s trochou přehánění bych si klidně dovolil tvrdit, že tento člověk ani na akademický titul nemá právo. Protože, ono je to kupodivu úplně stejné jako ve fyzickém světě. Pokud si něco píšu na papír bez kopií a ten papír mám na místě, které shoří, tak jsem o to jaksi přišel. Zálohovat se musí bez ohledu na to, zda je to digitální nebo psané brkem. Jen s tím rozdílem, že v digitálním světě je to mnohem jednodušší.
Jen s tím rozdílem, že v digitálním světě je to mnohem jednodušší.
To je asi jako tvrdit, že řídit auto je snazší než řídit koně, když s koněm umí zacházet skoro každý. A pak závisí na implementaci: např. automatická převodovka je tak nějak dost automatická, zatímco u manuální se hodí vědět, jak to auto vlastně funguje. Akorát u těch počítačů to zatím vypadá, jakoby k té automatické převodovce bylo přibalené ještě dálkové ovládání, které drží někdo jiný.
Což upozorňuje na mnohem zásadnější problém ITAno, ale ten problém nemá s diskusí o SSD nic společného. Případně jestli chceš diskusi přesměrovat k závažnějším problémům, tak tady rovnou můžeš začít řešit hlad dětí v Africe a kdovíco dalšího...
Ano, ale ten problém nemá s diskusí o SSD nic společného.
Nemůžu se ubránit, ale vidím tu celou řadu souvislostí.
Vyrobci SSD zvlast v enterprise sfere specificky udavaji data retention garanci, u nekterych DC modelu Intelu bezne tri mesice. Zaruka s tim nema co delat.
Jak souvisí NAND na ARM deskách a hrání si s tím s SSD? Maximálně tak, že to může mít jednu společnou komponentu, ale to je asi tak vše.Jde o to, že zařízení s vlastním řadičem (SSD disky, USB flashdisky a většina paměťových karet) před uživatelem skrývají veškeré vnitřní fungování, tudíž pokud chce někdo vědět, jak se NAND flash skutečně chová, je třeba k ní přistupovat bez řadiče a nejjedodušší způsob je právě nějaké ta deska (a nemusí to být nutně ARM), na které je NAND flash připojená přímo k procesoru, buď přes rozhraníi jako EMIF na ARMech, nebo přes GPIO. Mimochodem, z nějaké takové ARM desky, poku má na sobě NAND flash a USB rozhraní schopné fungovat jako zařízení (nebo OTG), je klidně možné si udělat vlastní FLASH disk tím, že se nad MTD rozhraním vytvoří UBI blokové zářizení, případně se přidají ještě další vrstvy (např. šifrování), a to celé se zpřístupní vnějšku přes mass storage USB gadget.