Byla vydána nová verze 25.05.11 svobodného multiplatformního video editoru Shotcut (Wikipedie) postaveného nad multimediálním frameworkem MLT. Nejnovější Shotcut je již vedle zdrojových kódů k dispozici také ve formátech AppImage, Flatpak a Snap.
Svobodný elektronický platební systém GNU Taler (Wikipedie, cgit) byl vydán ve verzi 1.0. GNU Taler chrání soukromí plátců a zároveň zajišťuje, aby byl příjem viditelný pro úřady. S vydáním verze 1.0 byl systém spuštěn ve Švýcarsku.
Spolek OpenAlt zve příznivce otevřených řešení a přístupu na 209. brněnský sraz, který proběhne tento pátek 16. května od 18:00 ve studentském klubu U Kachničky na Fakultě informačních technologií Vysokého učení technického na adrese Božetěchova 2/1. Jelikož se Brno stalo jedním z hlavních míst, kde se vyvíjí open source knihovna OpenSSL, tentokrát se OpenAlt komunita potká s komunitou OpenSSL. V rámci srazu Anton Arapov z OpenSSL
… více »GNOME Foundation má nového výkonného ředitele. Po deseti měsících skončil dočasný výkonný ředitel Richard Littauer. Vedení nadace převzal Steven Deobald.
Byl publikován přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie) za uplynulé dva měsíce. Servo zvládne už i Gmail. Zakázány jsou příspěvky generované pomocí AI.
Raspberry Pi Connect, tj. oficiální služba Raspberry Pi pro vzdálený přístup k jednodeskovým počítačům Raspberry Pi z webového prohlížeče, byla vydána v nové verzi 2.5. Nejedná se už o beta verzi.
Google zveřejnil seznam 1272 projektů (vývojářů) od 185 organizací přijatých do letošního, již jednadvacátého, Google Summer of Code. Plánovaným vylepšením v grafických a multimediálních aplikacích se věnuje článek na Libre Arts.
Byla vydána (𝕏) dubnová aktualizace aneb nová verze 1.100 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.100 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána v nové verzi 2025.5.
OpenSearch (Wikipedie) byl vydán ve verzi 3.0. Podrobnosti v poznámkách k vydání. Jedná se o fork projektů Elasticsearch a Kibana.
Chtěl bych se zeptat, jakým způsobem archivujete v domácích podmínkách data "na věčné časy", případně jaký postup doporučíte? V mém případě se jedná o fotky, a ročně to dělá několik desítek GB.
Budu vděčný za vaše tipy a návrhy.
I moje 5¼palcové diskety z roku 1990 (1991?) jsou stále čitelné :-)
Jak to děláš s těmi optickými disky? Pravidelně je kontroluješ nebo jim věříš natolik, že je můžeš někam na dvacet let odložit a víš, že je pak přečteš? Já mám většinu dat živých, takže je udržuji na klasických pevných discích, které průběžně kontroluji a občas obměním, ale nějaký propracovaný systém v tom nemám. Akorát ty fotky jsou takové, že jen přibývají, takže ty starší ročníky lze odzálohovat a už se měnit nebudou – ty jsem kdysi na nějaké DVD vypálil, ale teď už jich mám 230 GB a to se mi moc pálit nechce. Nicméně nějaký lepší systém bych si v tom měl udělat…
Nezvažoval jsi páskovou mechaniku? I když cenově to asi pro domácí použití nedává smysl.
I moje 5¼palcové diskety z roku 1990 (1991?) jsou stále čitelnéGratuluji. Já jsem několikrát přemýšlel, jestli bych si taky neměl nechávat starý HW z nostalgických důvodů, ale ne, raději vše porozdávám a doma mám jen aktuální HW + několik záložních kousků ve skříních (nedávno jsem objevil desku s cpu a vůbec nevím, odkud ji mám, to se mi stává pravidelně - nedávno jsem ve skříni objevil 1.5TB enterprise storage disk a i kdyby mě týden vyslýchali, tak fakt nevím, jak se to tam dostalo
Já mám většinu dat živýchJá mám všechna data živá. I dokumenty ze střední školy mám na aktivním úložišti. Ano, mám je i na CD z té doby. Ale ty CD prakticky nepotřebuju.
ty jsem kdysi na nějaké DVD vypálil, ale teď už jich mám 230 GB a to se mi moc pálit nechceJasně, mám to podobně. 25GB BR už ale tak malý není, takže by stačilo jen 10 disků na zálohu. To je nic. V dobách, kdy se ještě běžně vypalovalo, jsem vypálil stovky disků. Tak si říkám, že obětovat jeden BR měsíčně pro aktuálního zálohu aktivních projektů není nic strašného. I kdyby se to nikdy nečetlo.
Nezvažoval jsi páskovou mechaniku?Ne. Spíš bych uvažoval "něco jako" FreeNET, kdy by každý poskytl prostor na svém disku pro síť a lidé zapojení do sítě by si tam umístovali svá data. Síť by měla nějakou redundanci, takže data by se nahrávala na více nodů v síti. Tj třeba někdo by chtěl zálohovat 1TB dat. poskytl by 3TB disk pro "všechny ostatní". Redundance by byla o to vyšší, o co by tam bylo účastníků. Bohužel neznám žádný dlouhodobě úspěšný projekt tohoto typu. FreeNET vždycky jen paběrkoval a bylo to velmi pomalé. Nedávno jsem slyšel o projektu IPFS, ale je to jen protokol. Nevím o tom, že by existovala nějaká větší síť.
Nemyslím, že bych se utápěl v kvantitě, ale chci kromě zpracovaných a hotových fotek archivovat i původní RAW soubory.
No a například z letošní Expedice Beograd, která trvala týden mám asi 250 fotek a několik videí. Celkem asi 11 GB včetně RAWů. Je to moc?
Je to moc?Není. Tohle nafotím za jedno odpoledne, když chci udělat panorama. Některé projekty mají klidně 50GB v rawu. Nemluvě o videu, lidi se strašně diví, proč někdo potřebuje 144TB storage pro osobní použití. Odpověď je triviální. Zkuste si sestříhat z třeba jen 6hodin materiálů půlhodinové video. Jen na tempy potřebujete několik TB. Protože mezivýsledky se pochopitelně ukládají nekomprimovaně (lossless). Až výsledek se možná encóduje do malého h265 2GB souboru. Ale jak už tu někdo psal. Pokud je to takto uzavřená věc, jeden výlet, tak vypálit na placku, raději více a je to. Na toto je to, řekl bych, ideální.
Já do RAWu fotím jen něco nebo je pak promazávám, jinak bych se v tom utopil – stejně vím, že u většiny fotek nebudu mít čas si s tím hrát a „vyvolávat“ je. S videem je to podobné – zabírá spoustu místa, ale toho zajímavého, u čeho by mne fakt mrzelo o to přijít, je jen malá část.
Asi by to chtělo nějakou klasifikaci dat podle toho, jak jsou pro člověka postradatelná/vzácná a na základě toho pak zálohovat. Tzn. ty nenahraditelné věci mít ve více kopiích na různých médiích a místech, zatímco ty nahraditelné třeba jen na disku v RAIDu 1 nebo jen s jednou záložní kopií. Na tohle by se docela hodily rozšířené atributy souborů… vlastně to není tak složité, mohl bych si na to napsat skript, který by vybral soubory určité kategorie a zazálohoval je.
Já do RAWu fotím jen něco nebo je pak promazávám, jinak bych se v tom utopil – stejně vím, že u většiny fotek nebudu mít čas si s tím hrát a „vyvolávat“ je.Já fotím do rawu všechno. To záleží na workflow. Nedávno jsem na žádost fotil jisté gymnastické představení a nafotil jsem přes 500 fotek. Import do lightroomu, potom si zvolím na jedné fotce základní úpravu (vyvážení bílé a alespoň nějaké základní křivky podle osvětlení a úpravu barev) a toto potom aplikuju na všechny fotky. Tím mám "automaticky vyvolané" všechny fotky během 10 minut práce. Potom si vyberu ty k dalšímu zpracování. Tj nastavím jim hodnocení (číselné skóre). Při procházení stačí stisknou příslušnou číslici na numpadu. Tím mám jedním průchodem vybrané fotky s ponechanou "automatickou úpravou" (skore 3), a ty, kterým se budu věnovat víc (skore 5) (a odpad se skore 0). No a v dalších dvou hodinách upravím těch vybraných 50 fotek. Jde to fakt rychle. Ale toto je o programu, v LightRoomu mám celé portfolio, mám k disposici všechny fotky naráz a mohu se kdykoliv podívat na úpravy z jiných akcí. Vůbec si nedovedu představit, že bych to dělal fotku po fotce. Ne, pracuje se s 500 / 50 současně. Individuální retuše se týkají skutečně jen těch několika málo.
Asi by to chtělo nějakou klasifikaci dat podle toho, jak jsou pro člověka postradatelná/vzácná a na základě toho pak zálohovat. Tzn. ty nenahraditelné věci mít ve více kopiích na různých médiích a místech, zatímco ty nahraditelné třeba jen na disku v RAIDu 1 nebo jen s jednou záložní kopií. Na tohle by se docela hodily rozšířené atributy souborů… vlastně to není tak složité, mohl bych si na to napsat skript, který by vybral soubory určité kategorie a zazálohoval je.Já na toto mám osvědčenou metodu: bordel. Mám asi 15 zálohovacích HDD, na které to sypu, sem tam koupím další. Kdykoliv jsem v minulosti chtěl řešit co smazat a co nechat, tak jsem vždy smazal něco, co jsem potom později chtěl mít. Takže zálohuju všechno a i když nějakou zálohu smažu jako nepotřebnou, tak díky bordelu mám celkem jistotu, že to ještě na nějakém jiném disku bude. Takto jsem byl i několikrát rád za ta stará CDR. Z živých dat jsem to smazal a o rok, dva později opět vytahovat z CD.
Tak zrovna já fotím dost železnici a tramvaje, takže myslím že i za těch 100 let by to další generaci šotoušů mohlo zajímat.
V tomhle oboru jsou už dnes velmi hodnotné i fotky např. z 90. let, což přitom bylo relativně před chvílí.
Do Amazonu můžete zálohovat zdarma, platit budete až při obnově (stahování dat)
Zajímavý byznys model. Tady se přímo nabízí otázka, na čem vydělávají a co je motivuje k tomu, aby ostatním zadarmo skladovali jejich data… Pevné disky a provoz serverů nejsou zadarmo.
V lepším případě to funguje jako hazard a ten, kdo má tu smůlu, že potřebuje data obnovit, zaplatí i za všechny ostatní, kteří se vezli zadarmo. V horším případě poskytovatel nějak zpeněží data, která si u něj ostatní ukládají (přeci jen hodně lidí je asi nešifruje).
Tiskni
Sdílej: