Svobodný multiplatformní herní engine Bevy napsaný v Rustu byl vydán ve verzi 0.18. Díky 174 přispěvatelům.
Miliardy korun na digitalizaci služeb státu nestačily. Stát do ní v letech 2020 až 2024 vložil víc než 50 miliard korun, ale původní cíl se nepodařilo splnit. Od loňského února měly být služby státu plně digitalizované a občané měli mít právo komunikovat se státem digitálně. Do tohoto data se povedlo plně digitalizovat 18 procent agendových služeb státu. Dnes to uvedl Nejvyšší kontrolní úřad (NKÚ) v souhrnné zprávě o stavu digitalizace v Česku. Zpráva vychází z výsledků víc než 50 kontrol, které NKÚ v posledních pěti letech v tomto oboru uskutečnil.
Nadace Wikimedia, která je provozovatelem internetové encyklopedie Wikipedia, oznámila u příležitosti 25. výročí vzniku encyklopedie nové licenční dohody s firmami vyvíjejícími umělou inteligenci (AI). Mezi partnery encyklopedie tak nově patří Microsoft, Amazon a Meta Platforms, ale také start-up Perplexity a francouzská společnost Mistral AI. Wikimedia má podobnou dohodu od roku 2022 také se společností Google ze skupiny
… více »D7VK byl vydán ve verzi 1.2. Jedná se o fork DXVK implementující překlad volání Direct3D 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Byla vydána verze 12.0.0 knihovny libvirt (Wikipedie) zastřešující různé virtualizační technologie a vytvářející jednotné rozhraní pro správu virtuálních strojů. Současně byl ve verzi 12.0.0 vydán související modul pro Python libvirt-python. Přehled novinek v poznámkách k vydání.
CreepyLink.com je nový zkracovač URL adres, 'díky kterému budou vaše odkazy vypadat tak podezřele, jak je to jen možné'. Například odkaz na abclinuxu.cz tento zkracovač převádí do podoby 'https://netflix.web-safe.link/logger_8oIlgs_free_money.php'. Dle prohlášení autora je CreepyLink alternativou ke zkracovači ShadyURL (repozitář na githubu), který dnes již bohužel není v provozu.
Na blogu Raspberry Pi byla představena rozšiřující deska Raspberry Pi AI HAT+ 2 s akcelerátorem Hailo-10 a 8 GB RAM. Na rozdíl od předchozí Raspberry Pi AI HAT+ podporuje generativní AI. Cena desky je 130 dolarů.
Wikipedie slaví 25. výročí svého založení. Vznikla 15. ledna 2001 jako doplňkový projekt k dnes již neexistující encyklopedii Nupedia. Doména wikipedia.org byla zaregistrována 12. ledna 2001. Zítra proběhne v Praze Večer svobodné kultury, který pořádá spolek Wikimedia ČR.
Po více než dvou letech od vydání předchozí verze 2.12 byla vydána nová stabilní verze 2.14 systémového zavaděče GNU GRUB (GRand Unified Bootloader, Wikipedie). Přehled novinek v souboru NEWS a v aktualizované dokumentaci.
Google Chrome 144 byl prohlášen za stabilní. Nejnovější stabilní verze 144.0.7559.59 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 10 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře (YouTube).
Zdravím všechny programátory pod Linuxem, mám takovouto otázku:
Můj spolužák mi tvrdí, že programy pro linux jsou kvalitní v tom, že existuje spousta utilit, které stačí vhodně propojit pomocí pipe a podobně a ušetří se tak práce vývojáře.
Mějme příklad, chci udělat aplikaci, který zadám url a slovo a tato aplikace prohledá textový obsah zadané stránky a přečte mi větu ve které se dané slovo nachází. Jde to skutečně tak ideálně, že:
Pomocí jádra internetového prohlížeče načtu a naparsuju obsah stránky, pomocí grap-u, či awk nebo kdovíčeho vyhledám větu a pomocí Opensource frameworku / knihovny Festival ji nechám přečíst (případně nějaký děj při nenalezení).
Nebo jsou toto jen propagační výplody přátel Linuxového stolu? Pokud by to byla pravda, mohl by to být skutečně pádný argument proč přejít programovat pod OS Linux.
Díky za odpovědi (prosím bez urážek).
Hm, kdybys to chtěl udělat jako shellový one-liner (tzn. propojení utilit pomocí pipe, jak říkáš), asi by ses hodně zapotil, ale myslím, že by to šlo; jen to parsování a hledání v HTML by byl oříšek, XSLT by to snad umělo (grep nebo awk bych nepoužil, protože HTML není obyčejný text).
Vtip je v tom, že stránky se nenačítají ani neparsují "jádrem internetového prohlížeče" (např. Firefoxu), třeba na stažení něčeho z webu slouží obvykle wget nebo curl. Podívej se na man stránku wgetu, ať máš lepší představu, co v GUI (ani ve Windows) prostě nenaklikáš.
Konkrétně u tvého příkladu bych si dokázal mnohem lépe představit několikařádkový skript třeba v Pythonu.
Vtipné je, že pod jinými operačním systémy lze programovat úplně stejně jako v Linuxu, protože ty nástroje jsou open-source a když se s trochou snahy zkompilují pro Windows, tak běží i ve Windows (a ony už zkompilované jsou, stačí najít a stáhnout). Ale asi bude lepší použít "původní" platformu
Tím mám na mysli unix-like, jestli to bude Linux, BSD nebo něco jiného (Mac?) už nechám na tobě 
Tedy, nijak jsi nezmínil ten operační systém, který chceš s Linuxem porovnávat, ale předpokládám, že to jsou právě Windows. (Kdo jiný by se mohl takhle ptát...)
Osobně si myslím, že pokud člověk není beznadějně srostlý s Visual Studiem, měl by alespoň zkusit nenechat se omezovat Windowsy. Řečeno samozřejmě s nadsázkou. Koneckonců, kdo se chce stát programátorem, jistě se někdy s Linuxem nebo podobným systémem setká a měl by aspoň tušit, o čem to celé je.
jen to parsování a hledání v HTML by byl oříšek, XSLT by to snad umělo (grep nebo awk bych nepoužil, protože HTML není obyčejný text)
Jenom doplním, existuje AWK pro parsování XML (xgawk), pomocí kterého by to šlo asi tak na 2 řádky.
A browsery lynx, elinks a nejspíš i další mají dump mód, při kterém na stdout vypíší formátovaný text bez html značek, takže parser už se jimi nemusí zabývat:
lynx -dump URL|parser|...
Ale v řadě případů (např. čtení z tabulek apod.) bude lepší parsovat HTML zdroják.
Já jsem si vědom, že většina uxinových utilit lze (někdy s jistými potížemi) portovat i na OS jiných typů (Win).
Ten rozdíl měl být spíše v tom, že pokud na Windows bude chtít program používat nějaké utility, budou zabalené v instalačním souboru a nainstalují se pro každý program zvlášť do jeho složky. Zatím v Linuxu v aplikaci zůstane jen jádro a zbylé části se instalují pomocí balíčkovacího systému, čímž se zabrání několikanásobné instalaci.
for X in `find . -type d | fgrep -v .svn` ; do echo `cat ${X}/*.java 2>&1 | wc -c`": $X" ; done | grep -wv 0 | sort -r -n -k 1,1 | head | nl
Tiskni
Sdílej: