Evropská směrnice NIS2 přináší nové požadavky v oblasti kybernetické bezpečnosti, které se promítají také do správy doménových jmen. Do českého právního řádu je směrnice implementována prostřednictvím nového zákona o kybernetické bezpečnosti. Jedním z praktických důsledků této legislativní změny je posílení požadavků na dostupnost a správnost kontaktních údajů držitelů domén. Správce registru domény .cz, sdružení CZ.NIC, je v
… více »Jonathan Thomas oznámil vydání nové verze 3.5.0 video editoru OpenShot (Wikipedie). Zdrojové kódy OpenShotu jsou k dispozici na GitHubu. Ke stažení je i balíček ve formátu AppImage. Stačí jej stáhnout, nastavit právo na spouštění a spustit.
Byla vydána (𝕏, Bluesky) nová verze 2026.1 linuxové distribuce navržené pro digitální forenzní analýzu a penetrační testování Kali Linux (Wikipedie). Přehled novinek se seznamem 8 nových nástrojů v oficiálním oznámení na blogu.
Vláda jmenovala novým zmocněncem pro digitalizaci a strategickou bezpečnost prvního náměstka ministra vnitra Lukáše Klučku. Ten ve funkci nahradil poslance Roberta Králíčka poté, co Králíček na tento post vládního zmocněnce rezignoval. Klučka chce do roka digitalizovat všechny státní služby tak, aby vyhověly zákonu o právu na digitální služby, přičemž dosavadní plán Fialovy vlády počítal s dokončením digitalizace až někdy v roce
… více »Byl vydán Mozilla Firefox 149.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Vypíchnout lze bezplatnou vestavěnou VPN s 50 GB přenesených dat měsíčně, zobrazení dvou webových stránek vedle sebe v jednom panelu (split view) nebo možnost přidat poznámky k panelům (Firefox Labs). Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 149 bude brzy k dispozici také na Flathubu a Snapcraftu.
Byly vydány nové verze 5.3.0 a 6.0.0 svobodného multiplatformního programu pro skicování, malování a úpravu obrázků Krita (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Obě verze vycházejí ze stejného zdrojového kódu – rozdíl je v použitých verzích Qt a KDE Frameworks. Krita 6.0.0 je první vydání postavené na Qt 6 a stále je považovaná za experimentální. Má lepší podporu Waylandu. Přináší podporu protokolu Wayland
… více »Byla vydána nová verze 10.2 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání. Vypíchnout lze nové balíčky Immich, Immich Machine Learning, uv a RustDesk Client.
TypeScript (Wikipedie), tj. JavaScript rozšířený o statické typování a další atributy, byl vydán v nové verzi 6.0. Příští verze 7.0 je kvůli výkonu přepisována do programovacího jazyka Go.
Christian Schaller z Red Hatu na svém blogu popsal své zkušenosti s používáním AI při vývoji open source aplikací pro Linux. Pomocí různých AI aktualizoval nebo vytvořil aplikace Elgato Light GNOME Shell extension, Dell Ultrasharp Webcam 4K, Red Hat Planet, WMDock, XMMS resuscitated (aktualizace z GTK 2 a Esound na GTK 4, GStreamer a PipeWire) a Monkey Bubble. SANE ovladač pro skener Plustek OpticFilm 8200i se mu zatím nepovedl.
Americké firmy Tesla a SpaceX postaví v texaském Austinu moderní komplex na výrobu čipů pro umělou inteligenci (AI). Součástí projektu s názvem Terafab budou dvě moderní továrny na výrobu čipů – jedna se zaměří na automobily a humanoidní roboty, druhá na datová centra ve vesmíru. Uvedl to generální ředitel těchto firem Elon Musk. Projekt by podle odhadů měl stát 20 miliard USD (zhruba 425 miliard Kč).
Daniel Vetter ve zprávě rozeslané do vícero e-mailových konferencí shrnuje situaci kolem financování služeb poskytovaných projektům Freedesktop.org, zvláště spojeným s X.Org (grafické knihovny atp.). Vzhledem k rostoucí popularitě služeb jako CI (Continuous Integration) rostou také náklady na hosting (očekávané výdaje od 75 tisíc dolarů za rok), a proto se hledá sponzor, nebo bude nutné služby v horizontu několika měsíců omezit.
Tiskni
Sdílej:
Chápu, že hosting něco stojí a vybírat na něj peníze je OK. Ale ta argumentace s CI mi přijde zvláštní. CI a podobné nástroje se přece zavádějí proto, že přinesou úspory a zvýší efektivitu – tzn. nástroj by si na sebe měl „vydělat“ a ta investice by se měla vrátit. Tzn. celková bilance po zavedení CI by měla být kladná, neměla by to být díra, do které mizí peníze. Tedy pokud to funguje tak, jak se slibuje/očekává.
Rozumnější argumentace by byla: dnes pracujeme efektivněji, děláme méně chyb, opravujeme a vyvíjíme rychleji oproti době, kdy byly náklady na infrastrukturu nižší. Toho, kdo to platí, nezajímá nějaké CI, ale právě ta efektivita týmu a výsledky. Pokud ty vyšší náklady nelze obhájit tou vyšší efektivitou, tak prostě smůla – CI si na sebe nevydělalo a zjevně nemá smysl do něj cpát peníze.
P.S. vím, že tohle je takový dost komerční pohled a vybírání dobrovolných příspěvků či sponzorství funguje trochu jinak, nicméně základní pravidla týkající se hospodárnosti a účelnosti investic by měla platit i tady.
Ale ten vývoj není zadarmo. Buď tě na tom projektu nechává pracovat nějaká firma, která tě platí za každou hodinu, kdy se tomu věnuješ, nebo to děláš ve svém „volném“ čase (který jsi mohl věnovat jiným projektům a/nebo vydělávání peněz, zábavě atd. – takže tam máš náklady obětované příležitosti). Tak jako tak jde o to, aby čas věnovaný tomu projektu byl strávený efektivně (když už).
Viz výše:
ve svém „volném“ čase (který jsi mohl věnovat jiným projektům a/nebo vydělávání peněz, zábavě atd.
Otázka je, jestli má smysl se těchto diskusí účastnit, jestli to stojí za ty náklady obětované příležitosti. Tyhle diskuse beru částečně jako způsob získávání informací a tříbení si myšlenek – a částečně jako zábavu. Vzhledem k tomu, že kouknout do diskuse a napsat komentář, je na chvilku (byť takových chvilek je dohromady hodně), tak to člověk obvykle moc neřeší a často tomu dá přednost před nějakou užitečnější činností (klasická prokrastinace).
Ale vývoj svobodného softwaru takhle spontánně fungovat nemůže – abys vytvořil nějaký smysluplný příspěvek, tak tomu musíš věnovat mnohem víc souvislého času než nějaké diskusi. Tudíž si lidi spíš rozmyslí, jestli do toho ten čas investovat chtějí nebo ne. U těch delších souvislých časových úseků si taky mnohem snáz vyhodnotíš, kolik tě to stálo: „Věnoval jsem X hodin projektu A, ale mohl jsem místo toho dělat B, C, D, … Nebylo by to smysluplnější?“.
Je potřeba vycházet z toho, jaké chyby chceš, aby ti CI odhalilo, a podle toho to nastavit. Jsou např. triviální chyby typu: uživatel zapomene zaverzovat jeden soubor, takže u něj kompilace projde, ale u ostatních už ne, případně to závisí na nějakých jiných souborech u něj na disku, proměnných prostředí, instalovaných balíčcích atd. Ostatní si pak tu chybu stáhnout a nemůžou kompilovat, což je zdržuje (a tohle zdržení se násobí počtem vývojářů, takže čím větší tým, tím spíš je potřeba těmto chybám předcházet). Proti tomuhle je ochrana celkem levná, stačí program sestavit na jedné platformě a většinu těchto chyb vychytáš tak, že danému vývojáři přijde e-mail, že to rozbil a dost možná to stihne opravit dřív, než si ostatní jeho chybu stáhnou. Vývoj může probíhat i v oddělených větvích, takže si to rozbije jen u sebe – push do větví, které používají ostatní bude povolený jen, když sestavení prošlo.
A pak jsou různé obskurní chyby, které se projevují jen za velmi specifických podmínek, např. na big endian platformě s nějakým vzácným CPU a netypickým OS. Na to potřebuješ ten kartézský součin – sestavit produkt na všech podporovaných kombinacích. Ale tohle jsou chyby, které moc často nenastávají a nemá smysl proti nim bojovat tím, že bys dělal sestavení pro všechny kombinace HW/OS/atd. po každém commitu. Tady bývá lepší přijmout určité riziko a ušetřit výrazně výpočetní zdroje – dělat taková sestavení třeba jen jednou za den, nebo jen když se blíží vydání nové verze.
Obecně je vždy potřeba přemýšlet nad tím, kolik mne to stojí a co mi to přinese – porovnávat náklady a výnosy a průběžně ověřovat, že se mi to vyplatí, že platí původní předpoklady z doby, kdy jsme o zavedení daného nástroje rozhodovali. Pokud se dostaneš do situace, kdy ti CI (nebo jiný nástroj) požírá podstatné množství finančních a dalších zdrojů a ty vlastně ani pořádně nevíš, co ti to přináší (jen všude čteš o tom, že všichni daný nástroj používají a je děsně super), tak je něco špatně a je na místě to přehodnotit.
Testri, QA a predvsim dalsi teamy, ktere tak maji po ruce vzdy vysledky prace ostatnich.Až moc často mám ten pocit, že (nejen) u open source jako testeři slouží uživatelé...
S tím nemůžu souhlasit a připomíná to dogmatismus. Náklady by měly být vynaložené účelně – na to přijdeš nejpozději ve chvíli, kdy budeš v roli toho, kdo to platí (a ne jen toho, kdo navrhuje, aby se utratily peníze – např. vývojář či admin ve firmě, který chce, aby mu koupili novou hračku).
Po městě se taky obvykle nepohybuješ v obrněném autě vyzbrojený kulometem jen pro případ, že by tě náhodou mohl někdo přepadnout. Taková ochrana by byla nepřiměřená danému riziku a byly by to neefektivně vynaložené prostředky.
Při vývoji SW máš taky různá rizika. V extrémním případě může někdo zemřít nebo přijít o hodně peněz. U takových systémů má smysl do ochrany investovat hodně. Ale většina rizik při vývoji SW je mnohem menší – nikdo nezemře a přijdeš případně jen o málo peněz + pravděpodobnost, že se to stane, je celkem malá. Tam nemá smysl do ochrany/prevence investovat (nepřiměřeně) mnoho peněz. I ten zákazník s určitou chybovostí nebo občasným zdržením dodávky počítá – a je to pro něj lepší volba, než několikrát vyšší cena. V podstatě nikdo se nespoléhá, že vše půjde 100% podle plánu a jede zcela bez rezerv (pokud ano, tak je to nezodpovědný hazardér).
Co se týče testerů/QA a dalších rolí – ano, ti používají artefakty, které vypadnou z CI, ale nemá např. moc smysl testovat něco, co se může před vydáním ještě pětkrát změnit – výsledek takového testu je téměř k ničemu. Není proto nutné dělat kompletní build po každém commitu/pushi. Pokud máš servery, které se flákají a sestavit celý projekt je pro ně hračka, tak to klidně dělej, je to fajn a ničemu to neškodí. Ale pokud ti tahle zábava začne generovat podstatné náklady, tak to bude jedna z prvních věcí, která se proškrtá, protože ty peníze je účelnější vložit do něčeho jiného (i takové lepší kafe pro vývojáře může mít větší pozitivní efekt).
P.S. Ještě k původnímu tématu: nevím, kolik vývojářů (pracujících naplno) ten CI používá, ale asi jich bude docela dost – tím pádem ty náklady na CI nejsou až tak vysoké a budou tvořit asi jen zlomek nákladů na programátory, takže by neměl být problém to zaplatit. Pozastavoval jsem se primárně nad tou argumentací.
Prinos CI je snad v tom, ze v momente, kdy tohle udelas uz mas otestovano, tudiz si nekolik tech iteraci usetris.
Ale ty nemáš otestováno. Testovat musíš přesně tu verzi, která jde k zákazníkovi, jinak nemáš zaručeno vůbec nic. Odněkud ti vypadne .deb/.rpm/.jar/.war/.kar/atd. a ten budeš testovat – pokud testy projdou, tak tento artefakt dáš zákazníkovi jako vydanou verzi. I kdybys tam přidal jediný commit/merge navíc, tak je výsledek předešlých testů k ničemu a musíš testovat znova. Tedy pokud chceš dávat zákazníkovi vydanou verzi s čistým svědomím a jistotou, že jsi nic nezanedbal. Naopak v průběhu vývoje (testovací verze, které nejdou do produkce), se ledasco risknout dá.
Možná jsi to myslel tak, že pokud programátor udělal chybu, tak se odhalí co nejdřív je to možné – tzn. úspěšné testy v této fázi nám neříkají, že finální výsledek bude dobrý (úspěšné testy ignorujeme), ale neúspěšné testy nám říkají, že tam máme chybu a že ji máme jít co nejdřív opravovat. S tímhle souhlasím – už metodiky RUP/OpenUP říkají, že čím dřív se na chybu přijde, tím levnější její oprava bude (nejlevnější oprava je ve fázi vývoje či analýzy zatímco nejdražší oprava je v produkci). Nicméně nevyvozoval bych z toho závěry typu „všechno nebo nic“. Vývojář si může pouštět relevantní část testů a to klidně i u sebe, aby získal dostatečnou (ne 100%, ale z hlediska nákladů a rizik dostatečnou) jistotu, že požadavek implementoval správně a že ho může předat testerům na testy (nemá cenu jim předávat něco, co dost možná nefunguje a plýtvat jejich časem).
Samozřejmě pokud sestavení tvého softwaru je rychlé a náklady na ty servery představují zlomek nákladů na vývoj, tak není problém sestavovat a testovat všechno a nějaký (malý) přínos to mít bude. Ale pokud by náklady na CI byly tak vysoké, že by sis optimalizací (nějakou rozumnou redukcí) toho CI mohl dovolit třeba o programátora nebo testera víc, tak bych asi spíš investoval do lidí než do serverů. Resp. zvažoval bych přínosy obou variant – ale rozhodně bych nebral jako dogma to, že CI musí sestavovat všechno. Pokud jsou jeho přínosy nižší než přínosy jiné varianty, tak nemusí a je lepší vybrat tu druhou variantu.
P.S. jsem nejak nerozklicoval
Ten původní komentář obsahuje větu:
Pokud ty vyšší náklady nelze obhájit tou vyšší efektivitou, tak prostě smůla – CI si na sebe nevydělalo a zjevně nemá smysl do něj cpát peníze.
Jestli to někdo pochopil tak, že jsem proti CI, tak to pochopil špatně. Já jen říkám, že se máme zamyslet nad jeho přínosy a náklady a pokud jsou náklady vyšší, tak to nedává smysl. Jestli jsou v případě freedesktop.org vyšší nebo ne, to je otázka, nevím – snad ne a CI si na sebe vydělá. Ale psal jsem, že má smysl argumentovat právě tímto: vývoj je efektivnější, chybovost nižší, vývojáři udělají víc práce (nebo naopak na projektu budou trávit méně času, ale udělají stejně práce). Jenže zprávička:
Vzhledem k rostoucí popularitě služeb jako CI (Continuous Integration) rostou také náklady na hosting
i původní oznámení:
The good news: gitlab.fd.o has become very popular with our communities, and is used extensively. This especially includes all the CI integration. Modern development process and tooling, yay!
vyznívají tak, že se argumentuje jakousi „popularitou“ a „moderností“. Kdybych byl v roli toho, kdo to má platit, tak by mne tohle fakt neoslovilo a chtěl bych slyšet pádnější důvody, proč do něčeho vrazit peníze. Protože to, že je něco populární a moderní, nebo že někde jedou procesory naplno a protáčí se elektroměr, to samo o sobě žádný přínos není, to je jen náklad.