Nejvyšší správní soud (NSS) podruhé zrušil pokutu za únik zákaznických údajů z e-shopu Mall.cz. Incidentem se musí znovu zabývat Úřad pro ochranu osobních údajů (ÚOOÚ). Samotný únik ještě neznamená, že správce dat porušil svou povinnost zajistit jejich bezpečnost, plyne z rozsudku dočasně zpřístupněného na úřední desce. Úřad musí vždy posoudit, zda byla přijatá opatření přiměřená povaze rizik, stavu techniky a nákladům.
Organizace Free Software Foundation Europe (FSFE) zrušila svůj účet na 𝕏 (Twitter) s odůvodněním: "To, co mělo být původně místem pro dialog a výměnu informací, se proměnilo v centralizovanou arénu nepřátelství, dezinformací a ziskem motivovaného řízení, což je daleko od ideálů svobody, za nimiž stojíme". FSFE je aktivní na Mastodonu.
Paramount nabízí za celý Warner Bros. Discovery 30 USD na akcii, tj. celkově o 18 miliard USD více než nabízí Netflix. V hotovosti.
Nájemný botnet Aisuru prolomil další "rekord". DDoS útok na Cloudflare dosáhl 29,7 Tbps. Aisuru je tvořený až čtyřmi miliony kompromitovaných zařízení.
Iced, tj. multiplatformní GUI knihovna pro Rust, byla vydána ve verzi 0.14.0.
FEX, tj. open source emulátor umožňující spouštět aplikace pro x86 a x86_64 na architektuře ARM64, byl vydán ve verzi 2512. Před pár dny FEX oslavil sedmé narozeniny. Hlavní vývojář FEXu Ryan Houdek v oznámení poděkoval společnosti Valve za podporu. Pierre-Loup Griffais z Valve, jeden z architektů stojících za SteamOS a Steam Deckem, v rozhovoru pro The Verge potvrdil, že FEX je od svého vzniku sponzorován společností Valve.
Byla vydána nová verze 2.24 svobodného video editoru Flowblade (GitHub, Wikipedie). Přehled novinek v poznámkách k vydání. Videoukázky funkcí Flowblade na Vimeu. Instalovat lze také z Flathubu.
Společnost Proton AG stojící za Proton Mailem a dalšími službami přidala do svého portfolia online tabulky Proton Sheets v Proton Drive.
O víkendu (15:00 až 23:00) probíha EmacsConf 2025, tj. online konference vývojářů a uživatelů editoru GNU Emacs. Sledovat ji lze na stránkách konference. Záznamy budou k dispozici přímo z programu.
Provozovatel internetové encyklopedie Wikipedia jedná s velkými technologickými firmami o uzavření dohod podobných té, kterou má s Googlem. Snaží se tak zpeněžit rostoucí závislost firem zabývajících se umělou inteligencí (AI) na svém obsahu. Firmy využívají volně dostupná data z Wikipedie k trénování jazykových modelů, což zvyšuje náklady, které musí nezisková organizace provozující Wikipedii sama nést. Automatické programy
… více »
No moc nerozumím tomu co vlastně chceš, protože to vypadá, že chceš duplicitní soubor k access.log, ale s tím, že bude obsahovat pouze IP a čas, případně si vybereš část URL:
cat /var/log/access.log |grep "/~fuky/" |gawk '{ FS=" "; print $1 " " $4 $5 }'
Posílám Ti ukázkový skript, který vypíše počet přenesených dat pro každou IP, třeba se Ti bude hodit při řešení Tvého problému
#!/bin/bash
# Jestlize pocet argumentu neni roven 1 vypise napovedu
if [ $# -ne 1 ]; then
echo "Usage: $0 access.log"
exit
fi
# do promene URL ulozi seznam vsech url z logu
# cat vytiskne soubor na obrazovku
# gawk vytiskne prvni sloupec (FS=" " oddelovac sloupcu je mezera)
# sort setridi vstup
# uniq odstrani ze vstupu duplicitni radky
URL=$(cat $1 |gawk '{ FS=" "; print $1 }' |sort |uniq)
# pro kazdou url zjisti pocet prenesenych bajtu
# a nakonec cely vystup cyklu setridi numericky podle druheho sloupce
for name in $URL; do
# do promene size ulozi pocet prenesenych bajtu pro danou url
# cat vytiskne soubor na obrazovku
# grep vytiskne pouze pozadovanou url
# sed reguelni vyraz nam ze vstupu vyfiltruje pocet prenesenych bajtu
# tr znaky konce radku nahradi znakem plus
# sed posledni znak (tj. +) nahradi koncem radku
size=$(cat $1 |grep $name |\
sed -n 's/^.\+ - - \[.\+\] \".\+\" [0-9]\+ \([0-9]\+\) .\+$/\1/p' |\
tr "\n" "+" |\
sed 's/\(.\+\)./\1\n/')
# provedeni souctu, lze pouzit treba i bc
size_result=$(($size))
# vytiskne promenou name zarovnanou vlevo na 40 znaku
# a promenou size zarovnanou vpravo na 10 znaku
printf "%-40s %10i\n" $name $size_result
done |sort -r -n -k "2"
</var/log/apache2/access.log \
awk '{ n[$1] += 1 } END { for(i in n) { print n[i] "\t" i; } }'\
| sort -nr
Jednak ti klesne složitost z kvadratické na lineární a také nebudeš v každém průchodu smyčkou forkovat několik nových procesů
ps: Místo té jedničky si tam dej co potřebuješ – tohle ukáže počet přístupů.
To se mi líbí
Takže, aby to fungovalo stejně vypadalo by to takhle:
#!/bin/bash
< $1 awk '{
size = gensub(/^.+ - - \[.+\] ".+" [0-9]+ ([0-9]+) .+$/, "\\1", $0)
if (size != $0) {
n[$1] += size
}
} END { for(i in n) { print i "\t\t\t" n[i]; } }' | sort -nr -k "2"
Tiskni
Sdílej: