Bylo oznámeno vydání Fedora Linuxu 43. Ve finální verzi vychází šest oficiálních edic: Fedora Workstation a Fedora KDE Plasma Desktop pro desktopové, Fedora Server pro serverové, Fedora IoT pro internet věcí, Fedora Cloud pro cloudové nasazení a Fedora CoreOS pro ty, kteří preferují neměnné systémy. Vedle nich jsou k dispozici také další atomické desktopy, spiny a laby. Podrobný přehled novinek v samostatných článcích na stránkách Fedora Magazinu: Fedora Workstation, Fedora KDE Plasma Desktop, Fedora Silverblue a Fedora Atomic Desktops.
Elon Musk oznámil (𝕏) spuštění internetové encyklopedie Grokipedia (Wikipedia). Zatím ve verzi 0.1. Verze 1.0 prý bude 10x lepší, ale i ve verzi 0.1 je podle Elona Muska již lepší než Wikipedia.
PSF (Python Software Foundation) po mnoha měsících práce získala grant ve výši 1,5 milionu dolarů od americké vládní NSF (National Science Foundation) v rámci programu "Bezpečnost, ochrana a soukromí open source ekosystémů" na zvýšení bezpečnosti Pythonu a PyPI. PSF ale nesouhlasí s předloženou podmínkou grantu, že během trvání finanční podpory nebude žádným způsobem podporovat diverzitu, rovnost a inkluzi (DEI). PSF má diverzitu přímo ve svém poslání (Mission) a proto grant odmítla.
Balík nástrojů Rust Coreutils / uutils coreutils, tj. nástrojů z GNU Coreutils napsaných v programovacím jazyce Rust, byl vydán ve verzi 0.3.0. Z 634 testů kompatibility Rust Coreutils s GNU Coreutils bylo úspěšných 532, tj. 83,91 %. V Ubuntu 25.10 se již používá Rust Coreutils místo GNU Coreutils, což může přinášet problémy, viz například nefunkční automatická aktualizace.
Od 3. listopadu 2025 budou muset nová rozšíření Firefoxu specifikovat, zda shromažďují nebo sdílejí osobní údaje. Po všech rozšířeních to bude vyžadováno někdy v první polovině roku 2026. Tyto informace se zobrazí uživateli, když začne instalovat rozšíření, spolu s veškerými oprávněními, která rozšíření požaduje.
Jste nuceni pracovat s Linuxem? Chybí vám pohodlí, které vám poskytoval Microsoft, když vás špehoval a sledoval všechno, co děláte? Nebojte se. Recall for Linux vám vrátí všechny skvělé funkce Windows Recall, které vám chyběly.
Společnost Fre(i)e Software oznámila, že má budget na práci na Debianu pro tablety s cílem jeho vyžívání pro vzdělávací účely. Jako uživatelské prostředí bude použito Lomiri.
Proběhla hackerská soutěž Pwn2Own Ireland 2025. Celkově bylo vyplaceno 1 024 750 dolarů za 73 unikátních zranitelností nultého dne (0-day). Vítězný Summoning Team si odnesl 187 500 dolarů. Shrnutí po jednotlivých dnech na blogu Zero Day Initiative (1. den, 2. den a 3. den) a na YouTube.
Byl publikován říjnový přehled dění a novinek z vývoje Asahi Linuxu, tj. Linuxu pro Apple Silicon. Pracuje se na podpoře M3. Zanedlouho vyjde Fedora Asahi Remix 43. Vývojáře lze podpořit na Open Collective a GitHub Sponsors.
Iniciativa Open Device Partnership (ODP) nedávno představila projekt Patina. Jedná se o implementaci UEFI firmwaru v Rustu. Vývoj probíhá na GitHubu. Zdrojové kódy jsou k dispozici pod licencí Apache 2.0. Nejnovější verze Patiny je 13.0.0.
Konference JavaZone 2013 se blíží. Pořadatelé pokračují v tradici a před konferencí zveřejňují krátký film věnovaný Javě. Letos je to apokalyptický Javapocalypse. Loni to byl The Java Heist. Předloni The Streaming. V roce 2010 Java 4-Ever.
Tiskni
Sdílej:
Ani ne. V jave je napraseno dost internich systemu, ale kde uz jim slo opravdu o kritickou komponentu tak se pouzilo neco co opravdu fungovalo a nebylo 50 abstraktnich vrstev pryc od zeleza.Skvely postreh, v cem teda navrhujes tyto systemy psat? Pri zachovani multiplatformnosti, hodne dostupnych knihovnach, dobre podpore, rozsirenim jazyka, ... C je skvele na psani ovladacu, jadra, jednocipu a podobnych veci. Zkus si nekdy napsat web v C (neresim nektere wifi krabicky, ktere to tak maji). Je to v podstate lepsi Assembler
C++ nutno prekompilovat pro cilovy OS, coz nikdo delat nebude. A Java je mnohem konfortnejsi, ne jen vylepsene C.
Python je hezky, pomaly interpretovany jazyk. Navic po zkusenostech Python 2 -> 3 mam celkem obavy. Zmeny byly dost velke a nikomu se nechce kazdych X let prepisovat celokou aplikaci do noveho Pythonu.
C# / .NET je pro widle-only aplikace dobra volba. Pro Linux, priznejme si nejde o nejstastnejsi napad. Mame Mono, ale srovnat Mono a .NET Framework je nemozne. Navic .NET taky pouziva bytecode jako Java. Reci typu "50 abstraktnich vrstev pryc od zeleza" jsou dost mimo.
HTML5 / CSS / JavaScript je imho na psani poradnych aplikaci casto ne uplne vhodne. Schvalne si srovnejste vykon Javy a JavaScriptu.
PHP je skvele na mensi weby, ale kdo v nem bude psat kriticky software? Kouknete na Facebook, zacali ho psat v PHP a pak meli hodne problemu. Jak rika jeden nas ucitel: "Běžte do nějaké banky, řekněte "Já vám to udělám v PHP", já si vás pak vyfotím, až poletíte z okna."
a muzeme pokracovat...
I ❤ Java!
telnet temelin.cez.cz
Kdyby tě to opravdu nezajímalo, nebudeš na moje příspěvky systematicky reagovat.
Jak, nejede? .net je asi co? Normalne vykradena java. Lisi se akorat priponou exe a samo si hleda rutime, aby si vsichi mysleli, ze je to prelozeny do strojaku.−−−> HP NTB je vykradený MacBook.
K vykonu: u netrivialnich aplikaci je vykon srovnatelny s assemblerem, spis rychlejsi (v asm se napr. nikdo nepare s takovejma "kravinama" jako hashmap).−−−> Použití hashmap je rychlejší než přímé adresování.
C je fajn, ale podnikový informační systém bych v něm psát nechtěl.Jenze zrovna na tohle se nehodi ani Java - u podnikovyho IS neni potreba nijak zazracny vykon a proto je mozne bez problemu pouzit nejaky vyssi jazyk.
až když login trval jen 15 minut...To jako že si za čtvrthodiny nestihnou uvařit kafe a svítí jim tam naprázdno přihlášená aplikace?
Souhlasím s tím, že u podnikových systémů se dá použít ještě něco vyššího než Java. Ne ovšem kvůli výkonu (ten je potřeba vždycky i když jde jen o blbou konzolovou aplikaci), ale protože v téhle sféře se řeší všecko penězi. Dá se najmout pár matlalů co něco zmatlají za pár dnů a nadimenzuje se na to příslušný HW, když je to pomalé, tak se dokoupí ještě silnější HW. Na to není potřeba platit bandu hackerů a optimalizovat do zbláznění (ostatně co si budeme povídat, ono ani třeba ten přehrávač nemusí nutně psát banda hackerů, ale je mnohem příjemnější, z uživatelského hlediska, když přehrávač jako je Mplayer banda hackerů napíše a ještě se přitom vyblbne s optimalizacema)
Jenže by to nebylo poprvé co jsem se setkal s portály a diskusními fóry po kterých pohybovat se bylo utrpení (netvrdím že zrovna v případě Abíčka), protože při zatížení mělo každé kliknutí několikasekundovou odezvu (přitom ping v řádu desítek milisekund) nebo kdy jsem se setkal s tím, že na portál se nedalo přihlásit, protože kvůli velkému počtu uživatelů byly vyčerpány HW kapacity (povětšinou privátních VPSek).Jenže z jak velké míry je to způsobené jazykem/platformou a z jak velké tím, že program dělá něco, co nemá (např. některé věci počítá znova a znova, zbytečně vytváří spousty dat, která pak zase zahazuje atd.)? IMHO to většinou není o tom, že by nějaký výpočet trval dlouho (vinou jazyka/platformy), ale chyba je v tom, že se vůbec provádí (buď moc často, nebo na špatném místě nebo vůbec).
bandu hackerů a optimalizovat do zblázněníA kdo po nich bude dělat např. revize nebo to udržovat, až se změní byznys požadavky? On ten „efektivní“ kód není jen o tom, že ho musí psát zkušený hacker, ale i o tom, že se hůř čte a udržuje. U kodeků nebo kompresních algoritmů je to akceptovatelné (výkon nade vše), u podnikových aplikací obvykle ne.
Jenže z jak velké míry je to způsobené jazykem/platformou a z jak velké tím, že program dělá něco, co nemá (např. některé věci počítá znova a znova, zbytečně vytváří spousty dat, která pak zase zahazuje atd.)? IMHO to většinou není o tom, že by nějaký výpočet trval dlouho (vinou jazyka/platformy), ale chyba je v tom, že se vůbec provádí (buď moc často, nebo na špatném místě nebo vůbec).+1. Tohle asi bude způsobené stylem psaní v jazyku. Člověk co umí dobře v Céčku a má povědomí o ASM, má představu jak se asi bude daný program vykonávat a ulehčuje si práci jen tolik co mu svědomí dovolí. Když někdo něco matlá v Bertíkovi, většinou ani nemá ponětí o tom, že to co jeho instrukce vykonává se jmenuje procesor.
A kdo po nich bude dělat např. revize nebo to udržovat,Doporučuju projít nějaké dobře napsané kritické aplikace (z hlavy mě napadne Mplayer, ale je toho určitě víc). Optimalizace jdou většinou do speciálních bloků a mimo ně je tam i hlavní větev programu v čistém Céčku pro ostatní platformy třeba.
Když někdo něco matlá v Bertíkovi, většinou ani nemá ponětí o tom, že to co jeho instrukce vykonává se jmenuje procesor.Tomuhle se rika abstrakce a je to jeden ze zakladnich principu programovani.
a GCA o tomhle by se právě dalo hodně diskutovat. Kdo měl nějakou čest s nějakou webovou aplikací, tak ví že jsou to gigantické nenažrané molochy. Přitom jejich tenčí kolegové se bez problémů dají provozovat na OpenWRT (nebudu zmiňovat název aplikace ani použité jazyky). Samozřejmě uvolňovat paměť pokaždé ručně je pitomina. Zas na druhou stranu GC můžou být rozbité a bůh ví jak funkční. Nejlepší by asi bylo něco mezi. U serverové aplikace je výhoda, že aplikace běží téměř furt a téměř furt se dá sledovat. Asi by bylo fajn si napsat nějakého sledovacího agenta (díky použitému jazyku téměř žádná viditelná režie navíc) který by sledoval nejexponovanější místa a u těch by se dalo uvolňování optimalizovat ručně aby bylo co nejefektivnější, zbytek by zůstalo jako práce pro GC. Něco takového by bylo docela fajn. A jinak se to dělá běžně u deskopových aplikací.
JIT a přenositelný bytekód…Nepotřebné. To potřebuje někdo kdo stejně veškeré kapacitní nedostatky řešení penězi (třeba za nové železo) a ne optimalizacemi a někdo takový nepotřebuje efektivní aplikace.
Jinak jsem si dal tu práci a zagooglil si a skutečně existují:[1],[2],[3]
Kdo měl nějakou čest s nějakou webovou aplikací, tak ví že jsou to gigantické nenažrané molochy.Když si někdo drží odkazy na objekty, které už nepotřebuje, tak spotřeba paměti samozřejmě narůstá a časem to jde do háje. Nicméně to je chyba takového „programátora“ a nesouvisí to s tím, zda na dané platformě je nebo není GC. Když programátor vynuluje všechny reference na daný objekt nebo vytváří proměnné s dostatečně malým rozsahem platnosti, tak aby samy včas zanikly, tak GC ty nepotřebné objekty spolehlivě uklidí. Jediný rozdíl je v tom, že je neuklidí hned, ale „jednou za čas“ (obvykle ale dost rychle na to, aby to nějak vadilo). Nicméně i ten GC můžeš zavolat ručně a zkrátit čekání na úklid. GC je IMHO pro většinu aplikací ideální volba – ruční správa paměti je potřeba jen ve specifických nízkoúrovňových programech.
Nepotřebné.Ten mezikód je mj. zajímavý z důvodu, že pak můžeš používat více různých jazyků – snadno je přeložíš do bytekódu (napsat takový kompilátor není až tolik práce) a pak je spustíš kdekoli – to běhové prostředí je společné (poměrně velký objem práce, který se pak nemusí dělat pro každý jazyk zvlášť). Takže nejde jen o to, že jednu binárku spustíš na víc architekturách.
Jinak jsem si dal tu práci a zagooglil si a skutečně existují:[1],[2],[3]Zajímavé odkazy, díky. POCO jsem znal, ale ještě jsem ho moc neprozkoumal. Možná by stálo za to, udělat si nějaké srovnávací cvičení – napsat podobnou aplikaci v C++ Server Pages a v JSP resp. Javě EE.
Jo a taky je bytekód trochu blíž k tomu, že říká „co chci udělat“ něž „jak to chci udělat“ – což vytváří prostor pro další optimalizace, ať už za běhu nebo v příštích verzích běhového prostředí – takže se program může zrychlovat aniž by původní programátor něco udělal.