PSF (Python Software Foundation) po mnoha měsících práce získala grant ve výši 1,5 milionu dolarů od americké vládní NSF (National Science Foundation) v rámci programu "Bezpečnost, ochrana a soukromí open source ekosystémů" na zvýšení bezpečnosti Pythonu a PyPI. PSF ale nesouhlasí s předloženou podmínkou grantu, že během trvání finanční podpory nebude žádným způsobem podporovat diverzitu, rovnost a inkluzi (DEI). PSF má diverzitu přímo ve svém poslání (Mission) a proto grant odmítla.
Balík nástrojů Rust Coreutils / uutils coreutils, tj. nástrojů z GNU Coreutils napsaných v programovacím jazyce Rust, byl vydán ve verzi 0.3.0. Z 634 testů kompatibility Rust Coreutils s GNU Coreutils bylo úspěšných 532, tj. 83,91 %. V Ubuntu 25.10 se již používá Rust Coreutils místo GNU Coreutils, což může přinášet problémy, viz například nefunkční automatická aktualizace.
Od 3. listopadu 2025 budou muset nová rozšíření Firefoxu specifikovat, zda shromažďují nebo sdílejí osobní údaje. Po všech rozšířeních to bude vyžadováno někdy v první polovině roku 2026. Tyto informace se zobrazí uživateli, když začne instalovat rozšíření, spolu s veškerými oprávněními, která rozšíření požaduje.
Jste nuceni pracovat s Linuxem? Chybí vám pohodlí, které vám poskytoval Microsoft, když vás špehoval a sledoval všechno, co děláte? Nebojte se. Recall for Linux vám vrátí všechny skvělé funkce Windows Recall, které vám chyběly.
Společnost Fre(i)e Software oznámila, že má budget na práci na Debianu pro tablety s cílem jeho vyžívání pro vzdělávací účely. Jako uživatelské prostředí bude použito Lomiri.
Proběhla hackerská soutěž Pwn2Own Ireland 2025. Celkově bylo vyplaceno 1 024 750 dolarů za 73 unikátních zranitelností nultého dne (0-day). Vítězný Summoning Team si odnesl 187 500 dolarů. Shrnutí po jednotlivých dnech na blogu Zero Day Initiative (1. den, 2. den a 3. den) a na YouTube.
Byl publikován říjnový přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Pracuje se na podpoře M3. Zanedlouho vyjde Fedora Asahi Remix 43. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.
Iniciativa Open Device Partnership (ODP) nedávno představila projekt Patina. Jedná se o implementaci UEFI firmwaru v Rustu. Vývoj probíhá na GitHubu. Zdrojové kódy jsou k dispozici pod licencí Apache 2.0. Nejnovější verze Patiny je 13.0.0.
Obrovská poptávka po plynových turbínách zapříčinila, že datová centra začala používat v generátorech dodávajících energii pro provoz AI staré dobré proudové letecké motory, konvertované na plyn. Jejich výhodou je, že jsou menší, lehčí a lépe udržovatelné než jejich průmyslové protějšky. Proto jsou ideální pro dočasné nebo mobilní použití.
Typst byl vydán ve verzi 0.14. Jedná se o rozšiřitelný značkovací jazyk a překladač pro vytváření dokumentů včetně odborných textů s matematickými vzorci, diagramy či bibliografií.
maximální možná rychlost práce s databázovým souborem (i např. použití více síťových karet pro bonding)
všichni stejná práva (neomezená) v přístupu
zálohování provádím ručně, ale pokud by se nezpomalila odezva, použil bych pro jistotu i RAIDServer by běžel na stávajícím železe: Dell Precision Workstation 650, 2 x Intel XEON 2,2GHz, 2GB RAM/400MHz, HDD pro databázi 36GB/15000rpm SCSI U320, řadič LSI SCSI 1020/1030, HDD pro statická data 250GB/IDE UATA100, síťovka je jediná gigabit D-Link DGE-550T 64bit PCI, ale můžu jich použít i víc. Celá síť je gigabitová, workstationy mají síťovky D-Link DGE-530, switche jsou zatím Ovislink 8x1Gb, ale chci je nahradit něčím silnějším (čím?) Poraďte prosím, jaká je pro tuto aplikaci
nejvhodější distribuce
jaké použít typy partition
jaké použít nejnutnější instalační balíčky (server nebude dělat nic jiného)Myslím, že podobný problém řeší spousta jiných lidí, ale ve fóru jsem konkrétní odpovědi nenašel.
nejsem zas takový amatér, jak to podle dotazu nejspíš vypadalo, ale 15 let dělám sítě a jejich správu pro několik firem, kde se však výhradně používají výhradně Windows. S Linuxem jsem si hrál jen tím, že jsem na pár mašin nainstaloval Mandriva Linux 2008, ale na tom jsem se moc nenaučil, protože si to všechno nainstalovalo samo... ale zpět k fileserveru.
Včera jsem udělal první pokusy. Jelikož nejsem linuxář a složitější konfigurace by mě nejspíš odradila, musel jsem použít něco jiného. V jedné z místních diskusí jsem si našel odkaz na FreeNAS. Jak jsem se dočetl, není to Linux, ale FreeBSD, což je ale v tuto chvíli v podstatě jedno.
Použil jsem jenom stařičký pokusný disk (850MB), abych si nerozdrbal původní už vcelku vyladěné Windows. První, co mě fascinovalo, byla rychlost instalace a podpora ovladačů. Všechno si po prvotní detekci našel sám. A to ten počítač nemá úplně standartní konfiguraci. Instalace trvala jen asi 3 minuty i se čtením menu a konfigurací LAN ;)
Přes webové rozhraní z klientské stanice jsem nastavil mount point a shares, zapl Sambu a ejhle, ono to jelo. Tak jednoduchý rozběh jsem nečekal.
Testy jsem provedl tyto:
Rychlost zápisu 500MB souboru na server:
Pod FreeNAS: Zprvu 20MB/s, pak to postupně slezlo na 1,8MB/s, myslím že to ale bylo rychlostí toho malého disku.
Pod Windows XP: stejně jako na FreeNAS, jen zprvu to zapisovalo jen 8MB/s, pak 1,8MB/s
Pod Windows 2000 server: téměř stabilně to jelo 5-8MB/s
Rychlost čtení 500MB souboru ze serveru:
Pod FreeNAS: zprvu 40MB/s, pak to slezlo na 5-8MB/s
Pod Windows XP: stabilně 5MB/s
Pod Windows 2000 server: téměř stabilně to jelo 5-8MB/s
Z tohoto výsledku jsem byl docela roztrpčen a tak jsem hledal dál, hlavně proto, že stará Windows 2000 server dávala nejlepší výsledky. Další hodinou testů jsem zjistil, že úzké hrdlo není v oper. systému, ale ve switchi. On ten gigový switch v sobě nemá nejspíš dostatečný buffer, takže to dokonce i občas vyhodilo hlášku "Zápis se spožděním se nezdařil". Novější operační systémy využívaly rychlost síťovky naplno a tak zahlcovaly switch, kdežto stará windows 2000 nerozjela síťovku naplno a tak k zahlcování nedocházelo. Když jsem připojil počítače napřímo přes křížený kabel, začaly se dít divy.
Zápis a čtení na disk při přímém propojení:
Pod FreeNAS: čtení stabilně 40MB/s, zápis nejprve 40MB/s, pak slezl na 20MB/s
Pod WinXP: čtení i zápis stabilně 20MB/s
Pod Win2000 server: čtení i zápis stabilně 5-8MB/s
Takže závěr je ten, že FreeNAS je v dané situaci asi 2x rychlejší, než WinXP a rozhodně líp bufferuje. Teď by mě zajímalo, jak výkon vytunit na maximum. Chci použít dvě síťovky a koupit switch, který podporuje rozložení datového toku na více LAN v jednom PC.
. Ale to jsme jinde, jeden obří db soubor sdílený po síti nerozložíte.Ad hw/sw RAID - hw raidy bývají v linuxu bez problémů na hp a ibm serverech (minulý měsíc jsem bojoval s nejnovějším dellem, ale nakonec úspěšně); SATA řadiče deklarující "podporu" RAID jsou v linuxu nepoužitelné - alespoň já jsem se ještě nesetkal s žádným, který byl fungoval. Pak to řeším klasickým sw raidem, ten bývá bezproblémový.
A ještě bych doplnil (k předchozím příspěvkům) - nepleťte si RAID1 (5 6 10) se zálohovacím zařízením !!! Redundatní disk nezabrání trotlovi nebo špatnému dnu ty data smazat/přepsat/zku... atd !!!
Díky za příspěvek. Myslím, že zkusím otestovat, jak se bude chovat sw raid na IDE discích a když to pošlape, tak přiměju šéfa uvolnit prostředky na druhý SCSI disk a udělám RAID1 na tom SCSI. Kdyby ty disky nebyly tak šíleně drahé, tak už ho tam mám dávno. Škoda, že mi nikdo nenapsal praktické zkušenosti, jestli ten RAID nezpomalí práci s databází.
Jinak co se zálohování týče, tak data ze SCSI disku (hlavně ta databáze), se několikrát denně kopíruje na druhý (IDE) disk a večer pak na záložní úložiště mimo server. Takže to zálohování opravdu není potřeba tady rozebírat.
S d-linkem jsem neměl na mysli ani tak poruchovost, jako spíš to, že manag. switch by měl umět věci, které ty d-linky většinou neumí. Ale asi jsem zatížen historickým případem, kdy mi do páteře, jejíž nejvzdálenější body byly od sebe cca 3km nutili "menažovatelné" d-linky, které šly "menažovat" po seriové lince. To jsem d-linku ani po 7 letech neodpustil
Konkrétně D-Linkové switche DGS-12xx mají jednu úžasnou feature - mám-li do něj zapnutý počítač s neinicializovanou síťovou kartou (např. vypnutý počítač s Wake-on-LAN, nebo prostě zapnutý počítač, který se ještě nerozjel a nedohodl si rychlost), funguje příslušný port jako 10Mb HD a CELÝ switch se degraduje do této rychlosti - takže i když ostatní zařízení mají gigový link, switch switchá jenom deset mega. Ověřeno s několika typy těchto switchů a různými zařízeními s různými síťovkami, takže to zjevně není náhodný jev 
To jenom tak, abyste se s tím switchem nevydu..., ééé nezklamal.
Ve firewallovém hardwaru "power-down bypass" mezi porty pomocí relátek, ve switchi ochranu proti broadcastovým bouřím na bázi rate-limitu apod.
Osobně mě na tom switchi zarazilo, už když jsem ho vybalil, že obsahuje nějaký prašivý 40mm ventilátor a nedá se mu vlézt "pod haubnu" - aspoň já jsem nezjistil, jak se to víko sundavá. Je buď hodně silou naražené, nebo přilepené,
nebo přibodované. Nůžky na plech nebo flexu na něj brát nechci, protože je ještě v záruce. Po půl roce ten ventilátor už podezřele ševelí.
Jinak se mi ten switch chová překvapivě způsobně. Moc od něj nečekám a nevisí na něm moc lidí.
Zaujal mě použitý procesor Marvell 88E6218. Těžkou dřinu odvede gigová switchovací
matice Marvell 98DX163 (vč. .1q, .1p a .1x), takže výše uvedený procesor podle
mého dělá jenom webové rozhraní. Přitom obsahuje 6portový 100Mbps switch
a docela nadupané ARMové jádro. Původně je ten čip určený samostatně do malých SoHo routerů. Takže kdyby D-Link vyvedl na čelní panel aspoň jeden FastEth port z toho procesoru (jeden z portů má dokonce on-chip PHY), tak by ta věc mohla fungovat zároveň jako stovkový router/firewall do internetu
Jinak ta switchovací matice od Marvellu bude zřejmě společným jmenovatelem několika velice podobných switchů od různých firem, které se nedávno vyrojily takřka zároveň a mají velmi podobnou sadu vlastností (i když ne zcela stejnou). Podle fotek na internetu je hodně podobné i vnitřní uspořádání skříně - buď na tom není co vymyslet, nebo všichni vycházejí ze stejného Marvellího referenčního plošáku
Dobry den.
Podle meho nazoru: Pokud se vejde cely velky soubor do cache, je vpodstate jedno, na jakem je filesystemu.
Jde jenom o to, donutit ho, aby v te cache byl.
Na vcelku libovolnem UNIXU vetsinou plati, ze pokud napisete cat velky_soubor > /dev/null, mate ho v cache(pokud se tam vejde).
Co se tyka bondovani - co jsem kdy zazil - nezrychli se jedno osamocene cteni, ale zrychli se konkurencni pristup.
Nevim jak funguje MS ACCESS, ale pokud neprobiha synchronizace prilis casto (nebudou se potkavat pozadavky z ruznych stroju), pak Vam bonding nic moc neprinese.
Marek
) ? Pokud ano asi bych prvni poresil jestli se switche spravne domlouvaji na rychlosti prenosu(duplexy,atd.). Jestli nemate na portech nejake errory (chyba kabelu, propojek, atd.). Musite si uvedomit ze 1Gbitova sit na UTP ci STP kabelech je vcelku nachylna na jakekoliv poruchy. staci jen spatne nakrimpovany konektor ktery se na 100Mbitu zda byt naprosto OK a na 1Gbitu uz to zhazuje linku na 100Mbit.
Jinak jako distribuci bych doporucil Debian a nebo jeho odnos Ubutnu dnes 8.04 je to mocny linux se spoustou balicku v repozitorech a krom toho tato verze je vydana s planovanou 5 letou podporou.
jak jiz bylo psano pro souborovy server jedine Samba(taky zadny jny neni aspon teda neznam).
A jeste dodam pokud ste pohodlny na konfiguraci doporucuju Webmin.
Při zápisu funguje write-back a data pochopitelně taky zůstávají v RAMce v bufferech, dokud není potřeba RAMku na něco smysluplného použít.
OS-based write-back má tuším nějaké maximální povolené zpoždění (sync), takže se nestane, že budete mít v bufferech dvě hodiny špinavá data - ale na druhou stranu to znamená, že při přetížení disku se write-back cache do jisté míry "otupí", přestože RAMky je dost a dost.
Areca vůbec není špatný RAID. Čtyřkanál ARC-1110 byl dlouho jeden z nejrychlejších čtyřkanálů, co se dělaly. Zápis do RAID5 až cca 250 MBps sekvenčně, pokud to disky zvládnou. Teprve dneska jsou disky, které z něj můžou udělat "úzké hrdlo". Pokud byl pomalý, mohl za to patrně RAID5 (viz výše, plyne to z teorie, průchodnost XORu daného řadiče na to nemá vliv) případně špatná volba disků. Na random access (databázi) spíš než na cokoli jiného jsou bohužel nejlepší "enterprise" disky, tj. nejlíp SCSI 10k/15k RPM (Cheetah SCSI nebo SAS) nebo aspoň WD Raptor. Barracuda NS to nevytrhne. Rychlé disky poznáte v aktuálním ceníku především podle vysoké ceny a nižší kapacity
Klíčovým technickým parametrem je celková průměrná doba přístupu (vystavení hlavy + rotační latence).
Nemám strach, že by pro pár stanic nestačil levný Gb Eth switch. Jasně - bacha na kabeláž. Managed switch je určitě vhodný pro snazší přehled, jak jsou na tom různé Eth porty - vidíte počítadla chyb apod. Zmíněný Web-smart Dlink mám taky a zatím jsem mu nenašel žádnou zásadní mouchu. Taky jenom pro pár stanic, a jede slušně. "Managed" switch za ty prachy, lepší než drátem do oka. Pokud se týče vaklavé kabeláže, tak zrovna tenhle switch tuším umí na jednom portu diagnostikovat kabeláž. Pokud se nedaří sekvenční zátěží vystropovat gigabitovou síť, zkuste v OS na klientu i serveru zvětšit MTU (povolit jumbo framy). I když pro tu databázi to asi nemá význam, tam je přirozená velikost transakce menší. Různé síťovky jsou různě kvalitní, mají různě velké buffery, navíc možná asymetrické pro RX a TX (viz Intel a jeho rozlišování desktopových a serverových síťovek). Jak klient tak server může mít na nekvalitní síťovce problém s rychlostí zpracování interruptů, což představuje úzké hrdlo na "počet paketů za vteřinu" - dobré síťovky mají interrupt amalgamation apod.
Při pouhých 10 stanicích nemá smysl bonding na straně serveru - nikdy tam nebude takový souběh provozu, aby to stálo za tu práci s konfigurací. Ten server nepodezírám z toho, že by měl disky i síťovky pohromadě na 1 segmentu PCI 32@33, takže tam úzké hrdlo nebude... Jinak zmiňovaný SCSI disk dá odhadem 80-100 MBps sekvenčně, různě staré desktopové a enterprise disky se budou pohybovat řádově od 50 MBps do 150 MBps. Což zhruba odpovídá jednomu gigabitovému portu. Pokud se Vám podaří držet tu databázi v bufferech, tak to je jiná... průchodností RAMky udávíte jakoukoli síť
Taky bych se při pouhých 10 klientech nebál nějakých esoterických problémů s konfigurací zámků v sambě...
FreeBSD v posledních verzích (cca od 5.x) vůbec není špatný serverový systém, pokud se týče průchodnosti sítě a FS.
V případě RAID 1 nebo 10 bych se softwarového RAIDu nebál, rychlé to bude dost - jenom uživatelský komfort bude kulhat. Proti firmwaru Areca určitě.
Díky za vyčerpávající vysvětlení :) Začnu odzadu...
Ten malý disk tam byl jen na zkoušku, abych nemusel rušit Windows, kdyby si ten FreeNAS nerozuměl s řadiči. Ale naštěstí je to dost vychytaný soft, takže si našel všechno a teď už všechno jede jak na drátkách.
Databázi jsem hodil na SCSI disk (Seagate 76GB,15000rpm), pasivní data pak na velký disk na IDE a vše jede, jak má. Testy jsem dělal jen kopírováním z/do serveru na pc přímým propojením kabelem. Čtení/zápis 40MB/s (=320Mbps?), pokud šlo o jeden velký soubor. Víc jsem zkoušet nepotřeboval.
Práce se VELMI ZŘETELNĚ zrychlila. V podstatě ani není poznat, že se pracuje na databázi přes síť. Nezaznamenal jsem žádné zpomalení proti práci na lokálním disku ani při velkém výběru a filtrování položek a současné práci všech lidí. FreeNAS cachuje perfektně.
Mise byla splněna...
Gratuluji k dobré práci.
Je to paráda, mít v serveru tolik RAMky, kolik býval člověk zvyklý mít disku... Ono z toho serveru přes 1Gb síť to *bude* rychlejší než z lokálního IDE/SATA disku: 100 MBps, pokud to bude z bufferů tak přístupová doba ve stovkách mikrosekund.
Taky mám vždycky radost jako malej kluk, když si na moderním železe pustím nějakou softwarovou vykopávku, a ono se to chová jako babeta s motorem z migu.
Taky mám vždycky radost jako malej kluk, když si na moderním železe pustím nějakou softwarovou vykopávku, a ono se to chová jako babeta s motorem z migu.Takové aplikace se dají dělat i dneska, když se chce.
Třeba jsem teď objevil Btree+Hash databázovou knihovnu s rychlostí zápisu někde kolem hodně set tisíc zápisů za sekundu.
O to víc pak mrzí ty zprávy, že kamarád údajně "musí" partitionovat 8GB read-only MySQL databázi, protože server za čtvrt miliónu je moc pomalý na nějaké joiny čtyř tabulek. Mně se nechce věřit, že ta mašina by při tom hledání nemohla lítat jak z praku, kdyby skutečně chtěli. Dokonce i s tím podivným softwarem.
Tiskni
Sdílej: