NÚKIB upozorňuje na kritickou zranitelnost v SharePointu. Jedná se o kritickou zranitelnost typu RCE (remote code execution) – CVE-2025-53770, která umožňuje neautentizovaný vzdálený přístup a spuštění kódu, což může vést k úplnému převzetí kontroly nad serverem. Zranitelné verze jsou pouze on-premise verze a to konkrétně SharePoint Server 2016, 2019 a Subscription Edition. SharePoint Online (Microsoft 365) není touto zranitelností ohrožen.
Společnost Valve zpřísnila pravidla pro obsah, který je možné distribuovat ve službě Steam. Současně řadu her ze Steamu odstranila. V zásadách a pravidlech přibylo omezení 15: Obsah, který by mohl porušovat pravidla a normy stanovené zpracovateli plateb a souvisejícími sítěmi platebních karet a bankami nebo poskytovateli připojení k internetu. Sem spadají zejména určité druhy obsahu pouze pro dospělé.
Dle analytics.usa.gov je za posledních 90 dnů 6,2 % přístupů k webových stránkám a aplikacím federální vlády Spojených států z Linuxu.
Jak si zobrazit pomocí Chrome a na Chromiu založených webových prohlížečích stránky s neplatným certifikátem? Stačí napsat thisisunsafe.
V repozitáři AUR (Arch User Repository) linuxové distribuce Arch Linux byly nalezeny a odstraněny tři balíčky s malwarem. Jedná se o librewolf-fix-bin, firefox-patch-bin a zen-browser-patched-bin.
Dle plánu by Debian 13 s kódovým názvem Trixie měl vyjít v sobotu 9. srpna.
Vývoj linuxové distribuce Clear Linux (Wikipedie) vyvíjené společností Intel a optimalizováné pro jejich procesory byl oficiálně ukončen.
Byl publikován aktuální přehled vývoje renderovacího jádra webového prohlížeče Servo (Wikipedie).
V programovacím jazyce Go naprogramovaná webová aplikace pro spolupráci na zdrojových kódech pomocí gitu Forgejo byla vydána ve verzi 12.0 (Mastodon). Forgejo je fork Gitei.
Nová čísla časopisů od nakladatelství Raspberry Pi zdarma ke čtení: Raspberry Pi Official Magazine 155 (pdf) a Hello World 27 (pdf).
potřeboval bych poradit popřípadě nasměrovat co si mam prostudovat. Nejdříve nastíním situaci:
Mám webový formulář který je zpracovávan bashovým cgi skriptem. Jako web server je Apache 2.0.něco. Skript provede výpočet a část výsledků zobrazí jako jednoduchou html stránku. Na teto stránce bych rád měl i odkaz na soubor s kompletními výsledky.
Můj problém: Rád bych věděl jak zajistit, aby se mi soubory s výsledky nehromadili na disku. Jakými mechanizmy se taková věc obecně řeší?
mě napadlo, že by třeba ten zpuštěný skript nejdříve zkontroloval jestli uz na disku není několik souborů s výsledky a pokud by jejich počet přesáhl určitou hranici začal by je od nejstaršách promazávat. Ale nepřijde mi to jako moc "čisté řešení". Nepředpokládm víc jak 50 současně připojenych hostů k tehle aplikaci
Ale jde samozřejmě o to, jaký je přesně cíl toho všeho. Pokud chci, aby mi vygenerovaná data po x minutách zmizla, tak je cron naprosto ideální. Pokud bych chtěl nějak řešit snahu o nabourání systému velkým počtem requestů apod., tak to už chce něco jiného. Ale k tomu by to chtělo nejdřív rozmyslet co a jakým způsobem je vhodné omezovat (a jestli je něco takového vůbec potřeba :).
Tiskni
Sdílej: