Byla vydána nová verze 19 integrovaného vývojového prostředí (IDE) Qt Creator. Podrobný přehled novinek v changelogu.
Bitwig Studio (Wikipedie) bylo vydáno ve verzi 6. Jedná se o proprietární multiplatformní (macOS, Windows, Linux) digitální pracovní stanici pro práci s audiem (DAW).
Společnost Igalia představila novou linuxovou distribuci (framework) s názvem Moonforge. Jedná se o distribuci určenou pro vestavěné systémy. Vychází z projektů Yocto a OpenEmbedded.
Google Chrome 146 byl prohlášen za stabilní. Nejnovější stabilní verze 146.0.7680.71 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 29 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
D7VK byl vydán ve verzi 1.5. Jedná se o fork DXVK implementující překlad volání Direct3D 3 (novinka), 5, 6 a 7 na Vulkan. DXVK zvládá Direct3D 8, 9, 10 a 11.
Bylo vydáno Eclipse IDE 2026-03 aneb Eclipse 4.39. Představení novinek tohoto integrovaného vývojového prostředí také na YouTube.
Ze systému Slavia pojišťovny uniklo přibližně 150 gigabajtů citlivých dat. Jedná se například o pojistné dokumenty, lékařské záznamy nebo přímou komunikaci s klienty. Za únik může chyba dodavatelské společnosti.
Sněmovna propustila do dalšího kola projednávání vládní návrh zákona o digitální ekonomice, který má přinést bezpečnější on-line prostředí. Reaguje na evropské nařízení DSA o digitálních službách a upravuje třeba pravidla pro on-line tržiště nebo sociální sítě a má i víc chránit děti.
Meta převezme sociální síť pro umělou inteligenci (AI) Moltbook. Tvůrci Moltbooku – Matt Schlicht a Ben Parr – se díky dohodě stanou součástí Meta Superintelligence Labs (MSL). Meta MSL založila s cílem sjednotit své aktivity na poli AI a vyvinout takovou umělou inteligenci, která překoná lidské schopnosti v mnoha oblastech. Fungovat by měla ne jako centralizovaný nástroj, ale jako osobní asistent pro každého uživatele.
Byla vydána betaverze Fedora Linuxu 44 (ChangeSet), tj. poslední zastávka před vydáním finální verze, která je naplánována na úterý 14. dubna.
----------------------------- ||Nick || Raiting || Pořadí|| ----------------------------- ||sOAZ || 2206 || 2 || ----------------------------- etc.Díky moc za nápady.
Řešení dotazu:
Třeba vůbec nechápu jak bych z bashe kontaktoval ten server. Přes telnet? A co dál?Co treba curl, nebo wget?
wget -q -O - http://eu.leagueoflegends.com/ladders/solo-5x5Tim ziskas stranku, a pak uz jen zpacovani:
wget -q -O - http://eu.leagueoflegends.com/ladders/solo-5x5 | grep XXXXX
Některé herní servry poskytnou jednou za den výpis dat (komprimovaný) a je možné si dělat vlastní statistiky. Zkus se s nimi domluvit. Pokud je cílem historie statistik mohlo by to být výhodné i pro ně.
Tady je ukázka jednoho servru, jak vypadá rozumný přístup příklad
Ta adresa v nápovědě není všem na očích, ale kdo hledá - najde.--limit-rate= --random-wait= --user-agent=Nasimuluj si tak treba Firefox a nahodne cekani mezi pozadavky => bude jim to min napadne.
nahodne cekani mezi pozadavkyTohle zvětší šanci na změnu dat - posun hráčů mezi stránkami => ve vlastní db budou chyby (nezachycený hráč a zdvojený hráč).
| 88488 | 88488 | kanaris | 2 | 2 | 1200 | | 88489 | 88489 | BEDbMAK007 | 2 | 2 | 1200 | | 88490 | 88490 | John Darck | 2 | 2 | 1200 | | 88491 | 88491 | 150 | 2 | 2 | 1200 | | 88492 | 88492 | Lemine | 2 | 2 | 1200 | | 88493 | 88493 | xFirefighterx | 2 | 2 | 1200 |Všecky záznamy se mi načetli maximálně korektně. První sloupek je ID co si vytváří DB a druhé číslo je přímo pořadové šíslo ze stránek. Pro všech 88493 záznamů je to 1:1. Přemejšlim jak by se to dalo načíst rychleji. Je to celkem 3650 stránek takže kdybych je načetl po po deseti tak mi na to stačí pouze 360 jobů/scriptů. Teď ještě vymyslet jaký způsobem to rozdělit. Pokud má někdo zkušenosti s masivním dotazování rád se poučím. Těch 360 jobů zabere 360*200kbit/s takže celkem(72Mbit/s) jsem zvědavej jestli si toho už někdo všimne. ((;
Před chvíli mi to doběhlo - trvalo to přesně 2 hodiny.Zkusil jsem příkaz
curl "http://eu.leagueoflegends.com/ladders/solo-5x5?page=[0-3684]"\
-o "solo#1.html"
Stahovalo mi to rychlostí cca 1 stránku za sekundu. Tedy za hodinu by to curl měl zvládnout. S paralelizací možná i dříve. Celý výstup se dá snadno přesměrovat do dalšího procesu:
curl -s "http://eu.leagueoflegends.com/ladders/solo-5x5?page=[0-3684]" |\
zpracovani | ulozeni-do-databaze
Tiskni
Sdílej: