Nové číslo časopisu Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 161 (pdf).
Po delší době vývoje vyšla nativní linuxová verze virtuálního bubeníka MT-PowerDrumKit 2 ve formátu VST3. Mezi testovanými hosty jsou Reaper, Ardour, Bitwig a Carla.
Desktopové prostředí Budgie bylo vydáno ve verzi 10.10. Dokončena byla migrace z X11 na Wayland. Budgie 10 vstupuje do režimu údržby. Vývoj se přesouvá k Budgie 11. Dlouho se řešilo, v čem bude nové Budgie napsáno. Budgie 10 je postaveno nad GTK 3. Přemýšlelo se také nad přepsáním z GTK do EFL. Budgie 11 bude nakonec postaveno nad Qt 6.
OpenChaos.dev je 'samovolně se vyvíjející open source projekt' s nedefinovaným cílem. Každý týden mohou lidé hlasovat o návrzích (pull requestech), přičemž vítězný návrh se integruje do kódu projektu (repozitář na GitHubu). Hlasováním je možné změnit téměř vše, včetně tohoto pravidla. Hlasování končí vždy v neděli v 9:00 UTC.
Byl vydán Debian 13.3, tj. třetí opravná verze Debianu 13 s kódovým názvem Trixie a Debian 12.13, tj. třináctá opravná verze Debianu 12 s kódovým názvem Bookworm. Řešeny jsou především bezpečnostní problémy, ale také několik vážných chyb. Instalační média Debianu 13 a Debianu 12 lze samozřejmě nadále k instalaci používat. Po instalaci stačí systém aktualizovat.
Na stránkách Evropské komise, na portálu Podělte se o svůj názor, se lze do 3. února podělit o názor k iniciativě Evropské otevřené digitální ekosystémy řešící přístup EU k otevřenému softwaru.
Společnost Kagi stojící za stejnojmenným placeným vyhledávačem vydala (𝕏) alfa verzi linuxové verze (flatpak) svého proprietárního webového prohlížeče Orion.
Firma Bose se po tlaku uživatelů rozhodla, že otevře API svých chytrých reproduktorů SoundTouch, což umožní pokračovat v jejich používání i po plánovaném ukončení podpory v letošním roce. Pro ovládání také bude stále možné využívat oficiální aplikaci, ale už pouze lokálně bez cloudových služeb. Dokumentace API dostupná zde (soubor PDF).
Jiří Eischmann se v příspěvku na svém blogu rozepsal o open source AdGuard Home jako domácí ochraně nejen před reklamou. Adguard Home není plnohodnotným DNS resolverem, funguje jako DNS forwarder s možností filtrování. To znamená, že když přijme DNS dotaz, sám na něj neodpoví, ale přepošle ho na vybraný DNS server a odpovědi zpracovává a filtruje dle nastavených pravidel a následně posílá zpět klientům. Dá se tedy používat k blokování reklamy a škodlivých stránek a k rodičovské kontrole na úrovni DNS.
AI Claude Code od Anthropicu lépe rozumí frameworku Nette, tj. open source frameworku pro tvorbu webových aplikací v PHP. David Grudl napsal plugin Nette pro Claude Code.
Řešení dotazu:
+-------+---------------------+---------------------+---------+-----------+----------+---------------+ | JobId | Name | StartTime | JobType | JobStatus | JobFiles | JobBytes | +-------+---------------------+---------------------+---------+-----------+----------+---------------+ | 6240 | /var/log/emerge.log | 2011-07-22 18:00:02 | B | T | 575 | 103161408 | | 6231 | /var/log/emerge.log | 2011-07-21 18:03:44 | B | T | 77151 | 1400689036 | | 6218 | /var/log/emerge.log | 2011-07-20 18:00:03 | B | T | 488 | 83690330 | ... | 6019 | /var/log/emerge.log | 2011-06-28 18:00:03 | B | T | 76274 | 1328834334 | | 5939 | /var/log/emerge.log | 2011-06-19 20:38:45 | B | T | 82992 | 1397323096 | | 5871 | /var/log/emerge.log | 2011-06-12 14:40:13 | B | T | 83793 | 1575742423 | +-------+---------------------+---------------------+---------+-----------+----------+---------------+System si uklada informacie o kazdom backupe v databazovom katalogu. V GUI sa da pozriet aj timestamp samotneho suboru a checksum. Podla roznych kriterii sa da nastavit co ma obnovit. Samotna zaloha moze byt ako by sa ocakavalo "full backup", "incremental", alebo "difrerential".
Git má bohužel problémy s velkými souboryMáš pro to nějaký (současný) odkaz?
Například prosinec 2010 - http://lwn.net/Articles/419241/.Tam žádný konkrétní popis problémů nevidím.
IFS=$(echo -en "\n\b")
export SVN_EDITOR=cat
# echo "provadim zmeny repozitare v pripade potreby"
ADDR_OUT="domain.tld" # vnejsi adresa
ADDR_HOME="192.168.0.1" # adresa ve vnitrni siti
# cesta k repozitari
PATH_REPO="/cesta/na/serveru/REPO"
PATH_SRC="/cesta/na/lokalnim/stroji/REPO"
cd $PATH_SRC
# Pingne na vnitrni adresu. Pokud dostane odpoved, predpoklada, ze je
# dostupna. Pokud vyprsi timeout, nastavi adresu SVN serveru na vnejsi
# adresu.
if [ `ping -q -c 1 $ADDR_HOME | grep "1 received" -c` -eq 0 ];then
echo "nejsem doma, nastavim vnejsi repo"
svn switch --relocate svn+ssh://user@$ADDR_HOME$PATH_REPO svn+ssh://user@$ADDR_OUT$PATH_REPO
else
echo "jsem doma, nastavim domaci repo"
svn switch --relocate svn+ssh://user@$ADDR_OUT$PATH_REPO
svn+ssh://user@$ADDR_HOME$PATH_REPO
fi
echo "processing files to add..."
find . | grep -v "\.svn" | sed -e s/^/\"/g -e s/$/\"/g | xargs -r svn add 2>&1 | grep -v "under version control"
echo "done"
echo "processing files to delete..."
svn status | grep "^!" | sed -r 's/^\![ ]+//' | xargs -r svn delete
echo "done"
echo "processing commit..."
svn commit --non-interactive -q -m "auto" || echo "Nelze commitnout"
svn up || echo "nelze aktualizovat"
echo "done"
Z toho důvodu ani nemůžu použít snapshotový FS, jelikož se chci obvykle vrátit u jednoho souboru a ne u všech.
To jsem moc nepochopil.
Osobně používám kombinaci rsync (pro úsporné přenášení dat ze síťových strojů) a následný btrfs snapshots. Výsledkem je, že mám k dispocici kompletní data ze všech serverů a to ve velmi úsporné formě na disku. Kdykoliv mohu vytáhnout jakýkoliv soubor z jakéhokoliv snapshotu.
Celá tato operace je tak rychlá, že ji mám v cronu každou hodinu (což je možná overkill, ale chtěl jsem trochu vyzkoušet i co btrfs zvádne).
Snapshoty se tváří jako adresáře (resp mountpointy), takže můžeš pro "vytažení" zálohy použít jakýkoliv protokol na soubory (scp, ftp, samba, nfs).
Pravda, měl jsem taky obavy, občas mi to napíše nějakou chybu (což je dáno verzí jádra v debianu a netýká se dat, ale featur), ovšem zatím tyto nevýhody předčily výhody. Mirror mirroruje, snapshoty fungují. Ta data by se zálohovala tak jako tak, takže když se to sesype, tak se nic neděje.
U všech dat kontroluju hashe (to k vůli možnosti nějakého silent corruption) a zatím je vše ok.
Jako funguje to. Na produkci bych to nedal, na to to ještě připravené není, ale pro early testera je to ideální stav.
Nasadil jsem to ve chvíli, kdy jsem potřeboval pracovat s 300GB adresářovým stromem. Jakýkoliv verzovací systém nepřipadal v úvahu. SVN by to musel tahat po síti a navíc ve svém lokálním repositáři ty data má dvakrát (zabíralo by to lokálně 1TB + ještě na serveru), git si na tom úspěsně vylámal zuby už při importu. Nedalo se s tím rozumně pracovat (rozumněj revert k nějaké předchozí verzi). Tady si udělám snapshot kdykoliv potřebuji a mám všechny předchozí verze živé a dokonce zapisovatelné. Ideální, rychlé, úsporné.
S prvím odstavcem nezbývá než souhlasit.
To druhé, upřímně, to jsem ještě neřešil. Určitě to půjde zálohovat stejně jako každý jiný FS - umount a dd. Podle featur na wiki by to mělo mít incremental backup celého fs, ale nenašel jsem na to příkaz. Asi ještě není implementovaný.
Otázkou je, proč řešit zálohování zálohovacího media (pokud by to mělo vystupovat v této roli). Zálohovací pásky také přece nezálohujete.
dd neuvažuji, partimage to ještě neumí. Snad už jen RAID 1.
Tiskni
Sdílej: