Standard Matter (Wikipedie, GitHub), původně Project Connected Home over IP (CHIP), pro propojení IoT a domácí automatizaci byl vydán ve verzi 1.4.
Fedora Linux je aktuálně k dispozici v 5 edicích: Workstation, Server, IoT, Cloud a CoreOS. Pro desktopové nasazení je určena edice Workstation, což je prostředí GNOME. Vývojářům a uživatelům KDE Plasma se dlouhodobě nelíbí, že jejich prostředí je schováno mezi spiny, tj. alternativními desktopy. Prosadili si, že s následující verzí Fedora Linuxu KDE Plasma povýší ze spinu na edici a bude tak na úrovni Workstation.
UBports, nadace a komunita kolem Ubuntu pro telefony a tablety Ubuntu Touch, vydala Ubuntu Touch OTA-6 Focal, tj. šesté stabilní vydání založené na Ubuntu 20.04 Focal Fossa.
Byla vydána nová verze 8.0 (𝕏) frameworku pro vývoj webových aplikací Ruby on Rails (Wikipedie). Přehled novinek v příspěvku na blogu, v poznámkách k vydání a na GitHubu.
Byla vydána verze R14.1.3 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek v poznámkách k vydání, podrobnosti v seznamu změn.
Dnes v 17:00 má na YouTube online premiéru krátký film Project Gold od Blender Studia představující možnosti rozšíření Blenderu pro "malířský vzhled".
Byl představen oficiální Raspberry Pi USB 3 Hub. Cena je 12 dolarů.
Na YouTube byly zveřejněny sestříhané videozáznamy přednášek z letošního OpenAltu. Dostupné jsou také přímo z programu po kliknutí na přednášku.
Co přesně se děje, když se pomocí curlu připojujeme ke google.com? Proč to psát do terminálu, když si to můžeme pustit jako videoklip curl -v https://google.com na YouTube. 😂
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána ve verzi 2024.11.
Řešení dotazu:
uniq -c
– ovšem silně pochybuju o tom, že si s tím uniq
jen tak z ničeho nic efektivně poradí.
Tedy na konci zpracování budete mít vstupní soubory a výstupní soubor, potřebujete tedy celkovou kapacitu úložného zařízení na dvojnásobek dat.Obecně více než na dvojnásobek objemu výstupních dat, protože opakování v každé komponentě je menší než ve sloučeném výstupu. No a? Ke každé komponentě se po setřídění přistupuje sekvenčně a výsledek se též dostává sekvenčně a již setříděný, takže je klidně budu tahat rourou přes ssh a vypisovat výsledek zrovna tak, když na to přijde... Je to jedno, toto není ta obtížná část.
mkdir parts split -l 10000 big-file parts/ for i in parts/*; do sort $i > $i-s; donepokračujme napr takto:
sort --merge parts/*-s > big-file-sorteda dokončime
uniq -c big-file-sorted
sort
od určité velikosti dat dělá to samé.
Dobry den.
Mam hotovy kod, ktery je schopen cist data ze stdin a rovnou online radit do binarniho stromu. To znamena, ze nemusim mit cela data v pameti (tedy pokud je tam dostatek shod).
Mel jsem to pustene na logy, ktere pribyvali radove v tisicich radku za secundu.
Pokud se radky casto opakovaly, pak to bylo v pohode zvladnutelne.
Je to napsano v C, vicevlaknove:
Prvni vlakno nacita z stdin, predava do bufferu.
Druhe vlakno bere z bufferu a uklada do stromu.
Treti vlakno vyhodnocuje strom a obcas ho zoptimalizuje.
Pak je tam jeste neco na prubezny vypis.
Muzu nabidnout zdrojove kody (v C bezne nepisu, takze stabni kultura nic moc...)
Marek
Jak se takové věci normálně dělaj?Nejjednodušší bude soubor setřídit třeba příkazem sort, a pak to spočítat. Asi rychlejší bude použít hašování a v hašovací tabulce si ukládat počty výskytů (je třeba počítat s tím, že jedno počítadlo může být společné pro více řádků).
Tiskni Sdílej: