Google oznámil, že Quick Share na Androidu funguje s AirDropem na iOS. Zatím na telefonech Pixel 10. Uživatelé tak mohou snadno přenášet soubory z telefonů s Androidem na iPhony a obráceně.
Byla vydána nová verze 8.5 (8.5.0) skriptovacího jazyka PHP používaného zejména k vývoji dynamických webových stránek. Přináší řadu novinek a vylepšení (URI Extension, Pipe Operator, Clone With, …). Vydána byla také příručka pro přechod z předchozích verzí.
Evropská komise zahájila tři vyšetřování týkající se cloudových platforem Amazon Web Services (AWS) a Microsoft Azure. Evropská exekutiva, která plní také funkci unijního antimonopolního orgánu, chce mimo jiné určit, zda jsou americké společnosti Microsoft a Amazon v cloudových službách takzvanými gatekeepery, tedy hráči, kteří významně ovlivňují provoz internetu a musí dle nařízení o digitálních trzích (DMA) na společném trhu
… více »Společnost Meta Platforms vyhrála ostře sledovaný spor o akvizici sítě pro sdílení fotografií Instagram a komunikační aplikace WhatsApp. Podle amerického soudu firma jejich převzetím neporušila antimonopolní zákon, protože si tak nemonopolizovala trh sociálních sítí. Žalobu na Metu podala před pěti lety americká Federální obchodní komise (FTC). FTC argumentovala, že Meta, tehdy známá jako Facebook, koupila tyto dvě společnosti v letech 2012 a 2014 proto, aby s nimi nemusela soutěžit.
Home Assistant včera představil svůj nejnovější oficiální hardware: Home Assistant Connect ZBT-2 pro připojení zařízení na sítích Zigbee nebo Thread.
Byla vydána verze 9.1 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a informačním videu.
Byl aktualizován seznam 500 nejvýkonnějších superpočítačů na světě TOP500. Nejvýkonnějším superpočítačem zůstává El Capitan od HPE (Cray) s výkonem 1,809 exaFLOPS. Druhý Frontier má výkon 1,353 exaFLOPS. Třetí Aurora má výkon 1,012 exaFLOPS. Nejvýkonnější superpočítač v Evropě JUPITER Booster s výkonem 1,000 exaFLOPS je na čtvrtém místě. Nejvýkonnější český superpočítač C24 klesl na 192. místo. Karolina, GPU partition klesla na 224. místo a Karolina, CPU partition na 450. místo. Další přehledy a statistiky na stránkách projektu.
Microsoft představil Azure Cobalt 200, tj. svůj vlastní SoC (System-on-Chip) postavený na ARM a optimalizovaný pro cloud.
Co způsobilo včerejší nejhorší výpadek Cloudflare od roku 2019? Nebyl to kybernetický útok. Vše začalo změnou oprávnění v jednom z databázových systémů a pokračovalo vygenerováním problém způsobujícího konfiguračního souboru a jeho distribucí na všechny počítače Cloudflare. Podrobně v příspěvku na blogu Cloudflare.
Byla vydána (Mastodon, 𝕏) první RC verze GIMPu 3.2. Přehled novinek v oznámení o vydání. Podrobně v souboru NEWS na GitLabu.
Rozšoubuji (asi do 5 minut), vyndaný disk buď rozkřápnu (skleněné) nebo kovové na betonu pomlátím kladivem. Zkrátka nevlastníme v Česku jaderné zbraně. Top Secret - Cosmic Top Secret. 
Disky z pole jdou na reklamaci rovnou, protože tam se opravdu nebojím, že by to někdo složil (a né, opravdu RAID1 nepoužíváme).Složil asi ne, ale krátké soubory, ve kterých jsou klíče/hesla by tam mohly být celé.
Pokud víš, kam firma XY vyhazuje disky a automatizuješ si to, tak se ti dříve či později „poštěstí“, aniž by tě to stálo nějak moc práce.
Mně tohle prostě přijde paradoxní – v souvislosti s tím, na jak často i hodně nepravděpodobná rizika se firmy připravují a stresují kvůli nim – a pak si nepohlídají takhle primitivní únik.
BTW: jinak se tomu taky říká trashing – prohrabávání se v cizích odpadcích. Dá se toho tak získat a pak poskládat dohromady opravdu hodně. Ne, že bych se zkoušel hrabat v cizí popelnici, ale zkoušel jsem víc přemýšlet o tom, co vyhazuji a jakou informaci to nese… a pak jsem si pořídil skartovačku.
Myslím, že RAID a jeho stripe size bude ten problém. Na každém daném disku je vždy třeba 128kB souvislých dat.Přesně tak. Do toho stačí započítat, že FS data ukládá od začátku "sektoru" a třeba takové klíče uložené v PEM formátu mají jasně a snadno identifikovatelnou hlavičku. Vzhledem k tomu, jak snadné je disk aspoň jednou přepsat, což odfiltruje snahy 99.9% šmoulů, co se hrabou v elektroodpadu, nevidím jediný důvod to neudělat.
Nejlepším řešením je samozřejmě šifrovat, ale ten overhead se nemusí vůbec vyplatit.S ohledem na podporu AES-NI v dnešních procesorech ten overhead nepředstavuje větší problém. Rozhodně ne u klasických disků.
Nějak si ani nedokážu představit, že tam člověk našel něco kloudnýho.Zkoušel jsi někdy na takový disk poslat photorec nebo podobný nástroj? Ty mezivrstvy typicky zachovávají bloky a snaží se eliminovat jakékoliv transformace dat. Je velmi pravděpodobné, že souvislý blok dat ve VM bude souvislým blokem dat i na fyzickém disku. Nejspíš budou jen zpřeházené větší kusy, jak si VM alokovalo další a další místo pro virtuální disk, ale to je docela malá komplikace, pokud obnovovací nástroj jde rovnou po datech, hledá hlavičky souborů a neřeší filesystém.
strings.
Tohle jsem řešil už před lety v souvislosti s reklamacemi disků. Obchodníci nejsou schopní ti zaručit, že vadný disk zničí, aby z něj nikdo nic nepřečetl. Je to jeden z mnoha důvodů, proč šifrovat. Když šifrovaný disk odejde, není velký problém ho reklamovat, rozebrat na součástky nebo darovat… Fyzickou likvidaci bych zvažoval jen v případě, že by disk obsahoval něco opravdu hodně citlivého, co by mělo dopad, i za X let, kdy ta šifra bude třeba prolomená.
Těmi „desítkami milionů“ to docela shazuje, ale jinak to může sloužit jako dobré varování všem, kdo ledabyle nakládají s vlastními (nebo ještě hůř, s cizími) daty.
Řekl bych ale, že minimálně ty životopisy by mohly být žalovatelné, protože zákon o ochraně osobních údajů.Jo, ÚOOÚ by k tomu pravděpodobně měl co říct...
A co vy? Jak se zbavujete starých disků, abyste předešli úniku dat?V práci je přepisujeme nulami nebo urandom, když jdou na reklamaci kvůli vadným sektorům nebo jinému problému, kde ten disk ještě nějak funguje. Ostatní disky jdou do velké krabice a pak pod vrtačku. Jako ochrana před popeláři to stačí a state-level špiony neřešíme.
A co vy? Jak se zbavujete starých disků, abyste předešli úniku dat?Občas nějaké rozebírám na magnety a úmyslně při tom pomatlám a poškrábu plotny.
dd if=/dev/urandom of=/dev/sdX
A pak tam přes gParted udělám prázdnou FAT32 a ven s ním. Většinou tam by předtím jiný fs i rozdělení disku, takže pravděpodobnost obnovy dat se blíží nule.
cat /dev/urandom > /dev/sdX?
IMHO je jádro tak nějak asi ví co dělá a je podstatné to jádro neobtěžovat zbytečně malými (a tedy početnými) požadavky, když můžu použít i velké.Já bych byl taky pro, ale tady to bylo obráceně - chtěl jsem bloky 4MB, průměrná velikost I/O požadavku na ten disk byla asi 1kB. Testoval jsem Ceph a RBD, takže čtení bloků o velikosti pod 4MB může vést na nadbytečné I/O operace. To dd jelo sekvenčeně (jak jinak), takže bych tam viděl větší prostor pro slučování jednotlivých I/O requestů, než kolik jádro dělalo.
Respektive z pohledu dd možná joGNU dd dělá read() s velikostí odpovídající zadané blocksize a jádro mu může dát libovolně méně. To se stane když zařízení nestíhá nebo když přijde signál. Pikantní to je když se někdo snaží odměřovat množství dat tímto způsobem a pak mu to zfailí. Řešení? iflag=fullblock (a nebo nepoužívat dd)
ale jádro si z disku četlo v tak malých blocích, jak se mu zachtěloMně nešlo o to v jak malých blocích se bude číst ze zařízení (tam se toho stejně zhostí readahead) ale že když děláš read(512), tak pro přepsání terabajtu dat musíš udělat dvě miliardy syscallů.
To se stane když zařízení nestíhá nebo když přijde signál. Pikantní to je když se někdo snaží odměřovat množství dat tímto způsobem a pak mu to zfailí. Řešení? iflag=fullblockVida, to bych čekal, že bude zapnuté automaticky...
Mně nešlo o to v jak malých blocích se bude číst ze zařízení (tam se toho stejně zhostí readahead) ale že když děláš read(512), tak...Což to jo, to mi bylo jasné.
Tiskni
Sdílej: