raylib (Wikipedie), tj. multiplatformní open-source knihovna pro vývoj grafických aplikací a her, byla vydána ve verzi 6.0.
Nové verze AI modelů. Společnost OpenAI představila GPT‑5.5. Společnost DeepSeek představila DeepSeek V4.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 164 (pdf) a Hello World 29 (pdf).
Bylo oznámeno, že webový prohlížeč Opera GX zaměřený na hráče počítačových her je už také na Flathubu and Snapcraftu.
Akcionáři americké mediální společnosti Warner Bros. Discovery dnes schválili převzetí firmy konkurentem Paramount Skydance za zhruba 110 miliard dolarů (téměř 2,3 bilionu Kč). Firmy se na spojení dohodly v únoru. O část společnosti Warner Bros. Discovery dříve usilovala rovněž streamovací platforma Netflix, se svou nabídkou však neuspěla. Transakci ještě budou schvalovat regulační orgány, a to nejen ve Spojených státech, ale také
… více »Canonical vydal (email, blog, YouTube) Ubuntu 26.04 LTS Resolute Raccoon. Přehled novinek v poznámkách k vydání. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 11. vydání s dlouhodobou podporou (LTS).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Gitea (Wikipedie) byla vydána v nové verzi 1.26.0. Přehled novinek v příspěvku na blogu.
Ve středu 29. dubna 2026 se v pražské kanceláři SUSE v Karlíně uskuteční 7. Mobile Linux Hackday, komunitní setkání zaměřené na Linux na mobilních zařízeních, kernelový vývoj i uživatelský prostor. Akce proběhne od 10:00 do večerních hodin. Hackday je určen všem zájemcům o praktickou práci s Linuxem na telefonech. Zaměří se na vývoj aplikací v userspace, například bankovní aplikace, zpracování obrazu z kamery nebo práci s NFC, i na úpravy
… více »LilyPond (Wikipedie) , tj. multiplatformní svobodný software určený pro sazbu notových zápisů, byl vydán ve verzi 2.26.0. Přehled novinek v aktualizované dokumentaci.
Byla vydána nová verze 11.0.0 otevřeného emulátoru procesorů a virtualizačního nástroje QEMU (Wikipedie). Přispělo 237 vývojářů. Provedeno bylo více než 2 500 commitů. Přehled úprav a nových vlastností v seznamu změn.
Ahoj, experimentuju s pripojenim embedded desky k serveru s linuxem. Potreboval bych navazat spojeni s linuxovym serverem - zrejme TCP s dlouhym timeoutem - aby to viselo na lince a jednou za cas spolu zakomunikovalo. V pripade vypadku spojeni by ta se ta deska znovu pokousela spojit a odeslat data z bufferu.
Na serveru s linuxem bych potreboval prichozi data zpracovat skriptem a ukladat do databaze no a naopak, data z databaze zase odesilat na to zarizeni. Jake reseni doporucujete na serverove strane?
1) Neni nekde nejaky tutorial na tohle tema? S Cckem si moc netykam, existuje neco hotoveho, co by dokazalo treba pracovat se souborem, ktery si budu pomoci PHP skriptu vybirat, parsovat a ukladat do databaze / vkladat do nej data k odeslani?
2) Da se to TCP spojeni smerovat primo na php script, nebo na tohle neni PHPcko vhodne?
3) Tech zarizeni by melo byt na jeden port pripojenych nekolik - to by ale TCP melo osetrovat samo a vytvaret pro kazde spojeni extra socket, ze ? Cili kazde zarizeni by komunikovalo "se svoji instanci" i kdyz to bude na jednom portu toho serveru, je to tak?
Jinak bylo mi tady uz porazeno pouzit netcat. Koukam na nej a mozna by se pro ten ucel vyborne hodil. Mohl by prijimat spojeni a vytvaret soubory, s cislem klienta a id zpravy, ktere by pak mohlo PHP vyzvedavat a parsovat.
1) Zajimalo by mne ale, jak to funguje, kdyz pouziju netcat v modu listen, na urcitem portu a pripoji se vice zarizeni na ten dany port. Musim mit pro kazde spustenou jednu instanci netcatu, nebo jak to funguje?
2) jak nastavit timout toho spojeni? Abych se mohl pripojit, poslat AHOJ a cekat na data od netcatu treba 5 minut? Ta zarizeni jsou totiz za neverejnou IP a casto za NATem a tak potrebuju, aby to spojeni iniciovalo dane zarizeni, ale pritom aby trvale ocekavalo zpravu od serveru a bylo schopne ihned odpovedet - ohlasit svuj aktualni stav.
Aha, tzn. ze bude bezet jako daemon a muze naslouchat na tcp portu a primo obsluhovat to spojeni i databazi, ze? Tzn. primo jak mu to bude prichazet, muze ladovat data do databaze a naopak, jakmile najde polozku v BD k odeslani, tak odpovi.
Predpokladam, ze na netu budou nejake tutorialy.
Jinak s tim PHP by se to dalo udelat taky? Jde mi o to, to nejak zatim rozhybat a pak teprve vylepsit. A php je mi prece jen blizsi, nez python. I kdyz, byla by to aspon sance se jej naucit 
Prave, ze to HTTP i GET a POST docela dobre umi. Puvodne jsem zamyslel, postavit to tak, ze by se kazdych x sekund delal get na PHP script a ten by generoval odpovedi. Libi se mi to i co se tyka osetreni chybovych stavu, moznosti jednoduse presmerovat server jinam, v pripade vypadku / udrzby, apod. no a v neposledni rade taky proto, ze 80tku port maji povolenou temer vsude, cili by odpadaly problemy s firewally na nejake exoticke porty.
Vsechno by to bylo krasne, kdyby to zarizeni komunikovalo jen smerem KLIENT - SERVER. Jenomze ja potrebuju co nejrychlejsi reakci v pripade, ze server potrebuje klientovi neco rict. A tady jsem si rekl, ze to je pekna prasarna, mit v siti zarizeni, ktere kazde 3 sekundy delat GET na nejaky webserver, ze mnohem cistejsi reseni bude, mit otevreny socket a cekat na data - defakto nulovy traffic, kdyz se nic nekomunikuje.
Co si o tom myslite vy? Je to prasarna, delat kazde 3 sekundy GET, nebo resim blbosti? Resili byste to TCP spojenim, nebo se na to vykaslali a usnadnili si praci? Jde mi proste o to, ze to bude generovat neustaly traffic - sice maly, ale trvale a router bude blikat jak divy a ten server, pokud tech zarizeni bude hodne, se z toho taky pose-e.
To jako pri tom http spojeni? Tzn. ze by se nastavil apachi veeeeliky timeout a ten php script by to zdrzoval? Treba bezel v nejake smycce a kdyby prisla akce, ktera by se mela prenest na toho klienta, tak by se smycka ukoncila?
Je to ciste reseni? A nebudou to spojeni prerusovat treba routery?minuta je takova idealni doba... 60 dotazu behem hodiny se da prezit a pritom minutovy timeout neni nic tak strasneho, ze? Zvladne treba apache/nginx s php najednou takhle pridrzet stovky klientu? Kazdy http dotaz je defakto takove otevrene TCP spojeni, ze ? Jen to neobsluhuje muj server v pythonu, ale treba apache...
Tiskni
Sdílej: