Open source modální textový editor Helix, inspirovaný editory Vim, Neovim či Kakoune, byl vydán ve verzi 25.07. Přehled novinek se záznamy terminálových sezení v asciinema v oznámení na webu. Detailně v CHANGELOGu na GitHubu.
Americký výrobce čipů Nvidia získal od vlády prezidenta Donalda Trumpa souhlas s prodejem svých pokročilých počítačových čipů používaných k vývoji umělé inteligence (AI) H20 do Číny. Prodej těchto čipů speciálně upravených pro čínský trh by tak mohl být brzy obnoven, uvedla firma na svém blogu. Americká vláda zakázala prodej v dubnu, v době eskalace obchodního sporu mezi oběma zeměmi. Tehdy to zdůvodnila obavami, že by čipy mohla využívat čínská armáda.
3D software Blender byl vydán ve verzi 4.5 s prodlouženou podporou. Podrobnosti v poznámkách k vydání. Videopředstavení na YouTube.
Open source webový aplikační framework Django slaví 20. narozeniny.
V Brestu dnes začala konference vývojářů a uživatelů linuxové distribuce Debian DebConf25. Na programu je řada zajímavých přednášek. Sledovat je lze online.
Před 30 lety, tj. 14. července 1995, se začala používat přípona .mp3 pro soubory s hudbou komprimovanou pomocí MPEG-2 Audio Layer 3.
Výroba 8bitových domácích počítačů Commodore 64 byla ukončena v dubnu 1994. Po více než 30 letech byl představen nový oficiální Commodore 64 Ultimate (YouTube). S deskou postavenou na FPGA. Ve 3 edicích v ceně od 299 dolarů a plánovaným dodáním v říjnu a listopadu letošního roku.
Společnost Hugging Face ve spolupráci se společností Pollen Robotics představila open source robota Reachy Mini (YouTube). Předobjednat lze lite verzi za 299 dolarů a wireless verzi s Raspberry Pi 5 za 449 dolarů.
Dnes v 17:30 bude oficiálně vydána open source počítačová hra DOGWALK vytvořena v 3D softwaru Blender a herním enginu Godot. Release party proběhne na YouTube od 17:00.
McDonald's se spojil se společností Paradox a pracovníky nabírá také pomocí AI řešení s virtuální asistentkou Olivii běžící na webu McHire. Ian Carroll a Sam Curry se na toto AI řešení blíže podívali a opravdu je překvapilo, že se mohli přihlásit pomocí jména 123456 a hesla 123456 a získat přístup k údajům o 64 milionech uchazečů o práci.
potřeboval bych poradit popřípadě nasměrovat co si mam prostudovat. Nejdříve nastíním situaci:
Mám webový formulář který je zpracovávan bashovým cgi skriptem. Jako web server je Apache 2.0.něco. Skript provede výpočet a část výsledků zobrazí jako jednoduchou html stránku. Na teto stránce bych rád měl i odkaz na soubor s kompletními výsledky.
Můj problém: Rád bych věděl jak zajistit, aby se mi soubory s výsledky nehromadili na disku. Jakými mechanizmy se taková věc obecně řeší?
mě napadlo, že by třeba ten zpuštěný skript nejdříve zkontroloval jestli uz na disku není několik souborů s výsledky a pokud by jejich počet přesáhl určitou hranici začal by je od nejstaršách promazávat. Ale nepřijde mi to jako moc "čisté řešení". Nepředpokládm víc jak 50 současně připojenych hostů k tehle aplikaci
Ale jde samozřejmě o to, jaký je přesně cíl toho všeho. Pokud chci, aby mi vygenerovaná data po x minutách zmizla, tak je cron naprosto ideální. Pokud bych chtěl nějak řešit snahu o nabourání systému velkým počtem requestů apod., tak to už chce něco jiného. Ale k tomu by to chtělo nejdřív rozmyslet co a jakým způsobem je vhodné omezovat (a jestli je něco takového vůbec potřeba :).
Tiskni
Sdílej: