Byla vydána (𝕏) nová verze 26.1 open source firewallové a routovací platformy OPNsense (Wikipedie). Jedná se o fork pfSense postavený na FreeBSD. Kódový název OPNsense 26.1 je Witty Woodpecker. Přehled novinek v příspěvku na fóru.
Deník TO spustil vlastní zpravodajský webový portál ToHledej.CZ s internetovým vyhledávačem a bezplatnou e-mailovou schránkou. Dle svého tvrzení nabízí 'Zprávy, komentáře, analýzy bez cenzury' a 'Mail bez šmírování a Velkého bratra'. Rozložením a vizuálním stylem se stránky nápadně podobají portálu Seznam.cz a nejspíše je cílem být jeho alternativou. Z podmínek platformy vyplývá, že portál využívá nespecifikovaný internetový vyhledávač třetí strany.
Computer History Museum (Muzeum historie počítačů) zpřístupnilo své sbírky veřejnosti formou online katalogu. Virtuálně si tak můžeme prohlédnout 'rozsáhlou sbírku archivních materiálů, předmětů a historek a seznámit se s vizionáři, inovacemi a neznámými příběhy, které revolučním způsobem změnily náš digitální svět'.
Ruský hacker VIK-on si sestavil vlastní 32GB DDR5 RAM modul z čipů získaných z notebookových 16GB SO-DIMM RAM pamětí. Modul běží na 6400 MT/s a celkové náklady byly přibližně 218 dolarů, což je zhruba třetina současné tržní ceny modulů srovnatelných parametrů.
Národní identitní autorita (NIA), která ovlivňuje přihlašování prostřednictvím NIA ID, MEP, eOP a externích identit (např. BankID), je částečně nedostupná.
Byla vydána nová verze 1.16.0 klienta a serveru VNC (Virtual Network Computing) s názvem TigerVNC (Wikipedie). Z novinek lze vypíchnout nový server w0vncserver pro sdílení Wayland desktopu. Zdrojové kódy jsou k dispozici na GitHubu. Binárky na SourceForge. TigerVNC je fork TightVNC.
Byla vydána nová verze 4.6 (𝕏, Bluesky, Mastodon) multiplatformního open source herního enginu Godot (Wikipedie, GitHub). Přehled novinek i s náhledy v příspěvku na blogu.
Rozsáhlá modernizace hardwarové infrastruktury Základních registrů měla zabránit výpadkům digitálních služeb státu. Dnešnímu výpadku nezabránila.
Čínský startup Kimi představil open-source model umělé inteligence Kimi K2.5. Nová verze pracuje s textem i obrázky a poskytuje 'paradigma samosměřovaného roje agentů' pro rychlejší vykonávání úkolů. Kimi zdůrazňuje vylepšenou schopnost modelu vytvářet zdrojové kódy přímo z přirozeného jazyka. Natrénovaný model je dostupný na Hugging Face, trénovací skripty však ne. Model má 1 T (bilion) parametrů, 32 B (miliard) aktivních.
V Raspberry Pi OS lze nově snadno povolit USB Gadget Mode a díky balíčku rpi-usb-gadget (CDC-ECM/RNDIS) mít možnost se k Raspberry Pi připojovat přes USB kabel bez nutnosti konfigurování Wi-Fi nebo Ethernetu. K podporovaným Raspberry Pi připojeným do USB portu podporujícího OTG.
Raději doplňím, jak fake raid funguje:
Firmware diskového řadiče má zadrátovanou (obvykle proprietární) podobu metadat pro RAID, která jsou uložena na discích tvořících RAID. Kód firmwaru je zavěšený na přerušení používaném pro přístup na bloková zařízení skrze služby BIOSu a po dobu bootu (načtení zavaděče a obrazu jádra) tak skutečně plní funkci RAID řadiče.
Po nabootování operačního systému musí operační systém rozluštit ony proprietární datové struktury a na jejich základě sestavit softwarový RAID identický s tím, jak si jej představuje BIOS. Pak se už BIOS nepoužívá a vše si dělá OS sám.
V Linuxu to řeší balík dmraid, což jsou programy pro uživatelský prostor, které některé formáty metadat znají (seznam lze najít v dokumentaci a na webu projektu). Prohledají disky, a když metadata najdou, tak přes jaderný device mapper sestaví softwarový RAID. Takže to je v podstatě obdoba LVM, jen se používají jiné struktury metadat.
Z tohoto hlediska fake RAID přináší dvě výhody: máte hardwarově asistovaný přístup k poli při bootu (nemusíte řešit, zda si zavaděč rozumí s RAIDem) a rovněž můžete používat stejný RAID při dualbootu ve Windows. Nevýhodou je, že máte bootování vázané na konkrétní model řadiče disků. Stabilita a rychlost je totožná s LVM.
Pokud použijete RAID, tak asi určitě SW. Kromě toho, že řadič na disku bude takový ten fake RAID máte u SW poměrně bezbolestné řešení toho, když odejde právě třeba deska (i když si teď nejsem jistý jestli se v Linuxu u těch integrovaných řadičů nepoužije stejný formát jako u SW RAIDu). Výkonnostně je SW RAID jisté zpomalení, podle giannis.stoilis.gr/md-benchmarks.txt z roku 2005 je sice rychlejší než ty integrované bazmeky, ale www.linux.com/feature/140734 ukazuje, že i v RAID10 je v o něco pomalejší než skutečny HW RAID (do kterého ale, předpokládám, investovat nechcete, nemluvě o řadě negativních zkušeností, které s HW RAID mnozí lidé mají).
Co se týká LVM mirroringu, tak je potřeba upozornit na to, že pro reálné použití potřebujete na Linuxu 3 disky (viz manuálovou stránku např. na www.linuxcertif.com/man/8/lvcreate/ a parametr mirrorlog).
Co se týká LVM mirroringu, tak je potřeba upozornit na to, že pro reálné použití potřebujete na Linuxu 3 disky (viz manuálovou stránku např. na www.linuxcertif.com/man/8/lvcreate/ a parametr mirrorlog).
Dekuji toho jsem si nevsimnul.
no tak zrovna corelog asi nenni nejlepsi volba, protoze pri kazdem rebootu dojde k resyncu celeho raidu. jednodussi je proste udelat raid o malinko mensi a log hodit na jeden z disku.
kazdem rebootu dojde k resyncu celeho raidu
Tak, tak. Přesně z toho důvodu jsem psal o reálném využití. To použití samostatné partition na jednom z disků není špatný nápad, ale nejsem si jistý, jak velká může být potřeba. Máte s tím nějaké zkušenosti?
Osobně mě tato vlastnost mirrou u linuxového LVM dost štve, protože flexibilita LVM + mirror oproti LVM nad RAID je někde úplně jinde.
ralna:~# lvdisplay -m vgtest/lvol0
--- Logical volume ---
LV Name /dev/vgtest/lvol0
VG Name vgtest
LV UUID l9VvAr-6IFj-9ZdA-Q2yb-77vt-F3jG-CuU8xI
LV Write Access read/write
LV Status available
# open 2
LV Size 2,00 GB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:10
--- Segments ---
Logical extent 0 to 511:
Type mirror
Mirrors 2
Mirror size 512
Mirror region size 512,00 KB
Mirror original:
Logical volume lvol0_mimage_0
Logical extents 0 to 511
Mirror destinations:
Logical volume lvol0_mimage_1
Logical extents 0 to 511
a toto je LV vytvorena s disk logem:
ralna:~# lvdisplay -m vgtest/lvol1
--- Logical volume ---
LV Name /dev/vgtest/lvol1
VG Name vgtest
LV UUID e1UdqI-XCsV-0lKs-0fJx-PUPi-h3Zf-QxMqwV
LV Write Access read/write
LV Status available
# open 0
LV Size 1,00 GB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:14
--- Segments ---
Logical extent 0 to 255:
Type mirror
Mirrors 2
Mirror size 256
Mirror log volume lvol1_mlog
Mirror region size 512,00 KB
Mirror original:
Logical volume lvol1_mimage_0
Logical extents 0 to 255
Mirror destinations:
Logical volume lvol1_mimage_1
Logical extents 0 to 255
cela VG:
ralna:~# vgdisplay -v vgtest
Using volume group(s) on command line
Finding volume group "vgtest"
--- Volume group ---
VG Name vgtest
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 7
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 2
Open LV 1
Max PV 0
Cur PV 3
Act PV 3
VG Size 8,00 GB
PE Size 4,00 MB
Total PE 2049
Alloc PE / Size 1537 / 6,00 GB
Free PE / Size 512 / 2,00 GB
VG UUID SUNKZR-5B74-KgjN-99HO-6Ahw-9gCW-XOfJ8V
--- Logical volume ---
LV Name /dev/vgtest/lvol0
VG Name vgtest
LV UUID l9VvAr-6IFj-9ZdA-Q2yb-77vt-F3jG-CuU8xI
LV Write Access read/write
LV Status available
# open 2
LV Size 2,00 GB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:10
--- Logical volume ---
LV Name /dev/vgtest/lvol1
VG Name vgtest
LV UUID e1UdqI-XCsV-0lKs-0fJx-PUPi-h3Zf-QxMqwV
LV Write Access read/write
LV Status available
# open 0
LV Size 1,00 GB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:14
--- Logical volume ---
LV Name /dev/vgtest/lvol0_mimage_0
VG Name vgtest
LV UUID Mnb4Mh-y4ws-Hq4r-Nkc0-EhGt-fLTA-YjZ2vR
LV Write Access read/write
LV Status available
# open 1
LV Size 2,00 GB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:8
--- Logical volume ---
LV Name /dev/vgtest/lvol0_mimage_1
VG Name vgtest
LV UUID Q6FAYg-BGEo-pMO4-LUC2-SHeX-WmBZ-kR4hz1
LV Write Access read/write
LV Status available
# open 1
LV Size 2,00 GB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:9
--- Logical volume ---
LV Name /dev/vgtest/lvol1_mlog
VG Name vgtest
LV UUID 05G0y5-aPVa-O4LA-t5Pl-Aui0-H1LV-dF1M6z
LV Write Access read/write
LV Status available
# open 1
LV Size 4,00 MB
Current LE 1
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:11
--- Logical volume ---
LV Name /dev/vgtest/lvol1_mimage_0
VG Name vgtest
LV UUID qGjqYX-bH0C-QCog-vSVg-W0JE-MN8S-YYGPa9
LV Write Access read/write
LV Status available
# open 1
LV Size 1,00 GB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:12
--- Logical volume ---
LV Name /dev/vgtest/lvol1_mimage_1
VG Name vgtest
LV UUID yj2mB3-ufKx-LIZq-XRge-QvSx-mjfy-cfQ5mu
LV Write Access read/write
LV Status available
# open 1
LV Size 1,00 GB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 254:13
--- Physical volumes ---
PV Name /dev/loop0
PV UUID LoK0EL-TE50-YeT0-FWJq-lm4K-QlUv-m4J0sX
PV Status allocatable
Total PE / Free PE 976 / 208
PV Name /dev/loop1
PV UUID h07NlG-CzVM-LFpC-kO1W-8AqD-gzN5-uySWsC
PV Status allocatable
Total PE / Free PE 976 / 208
PV Name /dev/loop2
PV UUID 0qjULf-ispG-sMvD-8gy4-J1tD-f1tv-W9oD9v
PV Status allocatable
Total PE / Free PE 97 / 96
mdadm uděláš sice také, ale musíš si to rozmyslet dopředu. LVM ti umožní si s tím libovolně hrát kdykoliv za běhu. Osobně to mám takto: Spoustu jednoduchých oddílů s daty, pak stripe set pro /home a databáze a konečně mirror pro /backup, ze kterého se to pak kopíruje na jiný stroj. Zálohovací oddíl mám zrcadlený proto, že v případě výpadku jednoho HDD v tom stroji to stačí jednoduše zkopírovat z toho /backup (vytáhnout to z druhého stroje je zdlouhavější, tam to není dělané na rychlý přístup k jednotlivým souborům).
Mirror není záloha! Takže pokud tam máš "docela hodne dat o ktere bys jen nerad prisel", tak krom mirroru ještě musíš vyřešit zálohu.
Mirror není záloha! Takže pokud tam máš "docela hodne dat o ktere bys jen nerad prisel", tak krom mirroru ještě musíš vyřešit zálohu.
Toho jsem si vedom. Zaloha je vyresena, ale jde mi o to ze je jednodussi udelat sync nez obnovovat ze zalohy. Samozrejme jen v pripade kdyz clovek nema takvou smulu a neumrou mu oba disky najednou, nebo ve velmi kratkem casovem rozestupu.
Syncuju jednou denně rsnapshotem na "backup" oddíl. Rsnaphot dělá hardlinky, takže mám k disposici adresářovou strukturu určený počet dnů nazpět a přitom to zabírá jen o málo víc než zálohovaná data (vlastně jen o změny). A protože je to vlastně rsync pracovního adresáře (a ne nějaký druh komprimovaného archivu), tak lze smazaný nebo omylem změnený soubor rychle obnovit.
Pravou zálohu dělám prostým zkopírováním tohoto adresáře jinam.
Je to uz opravdu dlouho, kdy jsem tento problem resil. Na nejake strance od tvurcu LVM jsem nasel ze nedoporucuji vyuzivat LVM mirror, ze mdadm je rockstable. Takto to taky vyuzivam, Mdadm a pripadne nad nim LVM, kdyz pozadujete jeho sluzby.
init do takové úrovně běhu, ve které neběží služby (typicky 1), znovu rsyncovat, upravit fstab a grub a rebootnout.
Proč se vlastně namáhám s psaním postupu... tady je článek Michala Čihaře
Delal jsem to uz vickat a za chodu - pri kazdem prevzeti serveru do me pece, nebo kdyz nejaky puvodne doplnkovy stroj se najednou stal dulezitym (to bylo v nedavnych dobach, kdy jsem nepouzival virtualizace tak mohutne).
Tedy vzdy jsem mel LVM a vic nez jeden disk.
Zvolil jsem soft raid, protoze pro mne je vyborny ve vsech smerech a predevsim tak ziskavam jednotne rozhrani - tedy nemeni se nic kdyz poridim jiny hw raid a nemusim se bat, ze se ho budu muset ucit kdyz neco selze - proto sw raid i kdyby mel nejake vady.
Vytvoril jsem raid zarizeni, keremu aktualne chybi jeden z disku (missing) a vytvoril jsem z nej pvolume (pvcreate), nasledne jsem jej pridal do vg (vgextend) a zacal jsem se zbavovat puvodniho disku (removing an old disk v LVM HOWTO - tedy pvmove).
Pak jsem puvodni partititon z puvodniho dsku odstranil a vytvoril jsem na nem taky partition typu FD a pridal do stavajiciho pole.
Vse bez restartu a na dalku na pateri a jeste k tomu vsem aplikacim a userum "pod prdeli".
LVM pouzivam zasadne vsude i kdyz jakoby "neni potreba" a to ze dvou duvodu:
1. nikdy nechci byt omezovan prvotnim rozhodnutim o velikosti oblasti
2. pouzivam zalohovani pomoci snapshotu a to je velika mazarna, kdyz to funguje obecne a naprosto spolehlive 
Tiskni
Sdílej: