Byla vydána (𝕏) nová verze 2025.2 linuxové distribuce navržené pro digitální forenzní analýzu a penetrační testování Kali Linux (Wikipedie). Přehled novinek se seznamem nových nástrojů v oficiálním oznámení na blogu.
Dánské ministerstvo pro digitální záležitosti má v plánu přejít na Linux a LibreOffice [It's FOSS News].
V úterý Google vydal Android 16. Zdrojové kódy jsou k dispozici na AOSP (Android Open Source Project). Chybí (zatím?) ale zdrojové kódy specifické pro telefony Pixel od Googlu. Projekty jako CalyxOS a GrapheneOS řeší, jak tyto telefony nadále podporovat. Nejistá je podpora budoucích Pixelů. Souvisí to s hrozícím rozdělením Googlu (Google, Chrome, Android)?
Byla vydána (𝕏) květnová aktualizace aneb nová verze 1.101 editoru zdrojových kódů Visual Studio Code (Wikipedie). Přehled novinek i s náhledy a videi v poznámkách k vydání. Ve verzi 1.101 vyjde také VSCodium, tj. komunitní sestavení Visual Studia Code bez telemetrie a licenčních podmínek Microsoftu.
V Brně na FIT VUT probíhá třídenní open source komunitní konference DevConf.CZ 2025. Vstup je zdarma, nutná je ale registrace. Na programu je celá řada zajímavých přednášek, lightning talků, meetupů a workshopů. Přednášky lze sledovat i online na YouTube kanálu konference. Aktuální dění lze sledovat na Matrixu, 𝕏 nebo Mastodonu.
Vyloučení technologií, které by mohly představovat bezpečnostní riziko pro stát, má umožnit zákon o kybernetické bezpečnosti, který včera Senát schválil spolu s novelami navazujících právních předpisů. Norma, kterou nyní dostane k podpisu prezident, počítá rovněž s prověřováním dodavatelů technologií pro stát. Normy mají nabýt účinnosti od třetího měsíce po jejich vyhlášení ve Sbírce zákonů.
Open source platforma Home Assistant (Demo, GitHub, Wikipedie) pro monitorování a řízení inteligentní domácnosti byla vydána v nové verzi 2025.6.
Po Red Hat Enterprise Linuxu a AlmaLinuxu byl v nové stabilní verzi 10.0 vydán také Rocky Linux. Přehled novinek v poznámkách k vydání.
Bylo vydáno Eclipse IDE 2025-06 aneb Eclipse 4.36. Představení novinek tohoto integrovaného vývojového prostředí také na YouTube.
Americká filmová studia Walt Disney a Universal Pictures podala žalobu na provozovatele populárního generátoru obrázků pomocí umělé inteligence (AI) Midjourney. Zdůvodňují to údajným porušováním autorských práv. V žalobě podané u federálního soudu v Los Angeles označují firmu za „bezednou jámu plagiátorství“, neboť podle nich bez povolení bezostyšně kopíruje a šíří postavy z filmů jako Star Wars, Ledové království nebo Já, padouch, aniž by do nich investovala jediný cent.
Od záříjové „papírové prezentace“ nové architektury Fermi uběhla spousta vody. Až nyní Nvidia představila první reálné produkty, dvě výpočetní karty rodiny Tesla. Modely C2050 a C2070 se od sebe liší taktem jader CUDA: 1,25 versus 1,40 GHz. Co ale možná každý nečekal, CUDA jader nenesou 512, ale „pouze“ 448. Na jednu stranu podezřele málo, na stranu druhou přicházejí drby o tom, že jde o první várku GPU z předposlední úpravy pro 40nm výrobní proces, která má nějakou část defektní, případně jsou jisté partie úmyslně vypnuty, aby spotřeba karet byla na optimálním poměru výkon/spotřeba tak, aby v Oak Ridge National Laboratory, kde budou stavět nový superpočítač na bázi Tesla Fermi, neměli problém s napájením (už tak tam za rok spotřebují tolik MWh, že z toho mají blízké i vzdálené elektrárny špatné spaní :-).
Každopádně TDP těchto karet činí 190, resp. 225 W, liší se též množstvím 384bitové paměti (tvořené 24 paměťovými čipy): Nižší má jen 3 GB GDDR5, vyšší celých 6 GB, taktovány jsou na 1,8 až 2,0 GHz (to značí efektivně 8GHz GDDR5 čipy, což je snad až příliš vysoké číslo, ale opravdu to ve specifikaci Nvidia takto má). Zapnutí ECC pro paměti způsobí pokles reálné paměti na 2,625, resp. 5,25 GB. PCB karet je 10vrstvé, GPU o rozměrech pouzdra 42,5x42,5 mm má 1981 kontaktů.
Napájení pochopitelně s ohledem na TDP zajišťuje 6+8pin PCIe. Výpočetní výkon Nvidia pasuje na 520 až 630 GFLOPS v double-precision, což by pro budoucí karty s 512 jádry CUDA na řekněme ještě trochu vyšších frekvencích (až se uklidní 40nm výroba u TSMC) značilo schopnost dosáhnout na zhruba 0,8 TFLOPS pro jedno GPU. Za Tesly si Nvidia nechává patřičně zaplatit, takže si připravte 2499, resp 3999 dolarů za C2050, resp. C2070. Spolu s nimi se objeví i 1U racky S2050 a S2070 obsahujíc vždy čtyři karty uvnitř a příslušný napájecí zdroj a chlazení (tyto placky asi budou „fasovat“ v Oak Ridge), ty již „koštují“ 12995, resp 18995 dolarů, ale na trhu se objeví nejdříve ve druhém kvartálu 2010 (S2050), S2070 až ve třetím.
To bychom měli nové Tesly. Vedle nich pochopitelně čekejme i karty rodiny Quadro, oboje řady budou mít od Nvidie velkou podporu, ale většina z nás samozřejmě čeká na GeForce. V rámci celé řady Fermi se pustím trochu více na pole spekulací: Lze očekávat, že uvedení proběhne podobně jako v minulosti, kdy Nvidia hned zpočátku uvedla na trh hi-end modely (ať již šlo o GeForce 8800 GTX v roce 2006, nebo GeForce GTX 280 v roce 2008).
Nyní v roce 2010 se dočkáme něčeho, co se předběžně nazývá „GeForce GTX 380“ a přisuzuje se tomu, na rozdíl od prvních Tesel, plných 512 jader CUDA. Nakolik to bude pravda, to ukáže až „den D“, resp. případné uniklé materiálů v době před ním. „Den D“ ještě není přesně znám, pouze DigiTimes hovoří o tom, že to bude březen 2010 – na tento termín měla Nvidia uvedení posunout.
Důvody jsou nasnadě: Vedle pravděpodobných posledních úprav jemných nuancí ve výrobě karet samotných zde vyplouvá na povrch potřeba předvyrobit dostatečné množství karet pro trh, který je v posledních měsících neskutečně hladový a okamžitě polyká úplně každý Radeon HD 5000, zatímco čeká na konkurenci. Jdou zvěsti, že nedostatek Radeonů HD 5000 už vlastně není takový problém. Jde o to, že ATI se na launch této řady dostatečně zásobila, dokonce více, než u Radeonů HD 4800, ale protože na trhu je neskutečné sucho, GeForce řady 200 se v podstatě jen doprodávají, tak i toto nemalé množství karet spolu s „lehce problematickou“ běžící výrobou, nestačilo po uvedení Windows 7/DirectX 11 pokrýt obrovskou poptávku. Já osobně nepochybuji, že tato poptávka vydrží až do března a řada lidí třeba v únoru nebude nakupovat, protože si budou chtít počkat, s čím přijde Nvidia. Ta tedy musí být připravena vrhnout na pulty eshopů v počátečních dnech od uvedení karet ideálně pár set tisíc kousků (nejen „GTX 380“, ale také „GTX 360“ a i případné další modely, přijdou-li).
Blu-ray Disc Association (BDA) konečně dokončila finální verzi specifikace pro trojrozměrné HD filmy, která vstupuje ve známost jako „Blu-ray 3D“. Obsahuje veškeré potřebné specifikace pro hardwarovou i softwarovou stránku věci a mimo jiné z nich (jak jinak, když „tam sedí“ i Sony) plyne, že je v silách Playstation 3 tento formát plně podporovat (nejspíš to bude otázkou některého z příštích firmwarů).
BDA trochu slovíčkaří, pokud se budeme bavit o části disků zahrnující 3D grafiku v menu a různé doprovodné aspekty, pak jej specifikace označuje jako „3D“. Co se však týče vlastních filmů, to BDA označuje jako „3-D“. Systém trojrozměrných filmů využívá samostatných zobrazení pro levé a pravé oko a není závislý na zobrazovacím zařízení, popisuje samostatný princip a jeho implementaci. Zavádí novou verzi kodeku H.264 označovanou jako Multiview Video Coding (MVC). Ta je zpětně kompatibilní s „2-D“ zobrazením, resp. přehrávači. 3-D filmy tak bude možné přehrávat i na starších Blu-ray přehrávačích, které jej zkrátka pustí „dvojrozměrně“. Datová náročnost pro MVC kódování vzrůstá oproti běžnému zhruba o 50 %.
Připomenu, že stolní přehrávače toto umět typicky budou (pouze ty staré to asi nezvládnou ani po aktualizaci firmwaru), vedle Playstation 3 pak své řešení chystají Nvidia i ATI, kde prvně jmenovaná jej již předvedla, avšak obě firmy se s ním pochlubí na lednové akci CES 2010. Filmy jako Avatar tedy mají na modrolaserovém disku zelenou (a neodpustím si tradiční rýpnutí: Jak dlouho asi potrvá, než se ve 3-D objeví první „P“? :-).
Období asimilace Minolty máme již dávno více či méně zdárně za sebou, a tak se Sony poohlíží dále. Na své limity již prakticky narazila, APS-C snímač o rozlišení přes 14 Mpix, resp. fullframe snímač s rozlišením přes 24 Mpix oba představují asi krajní mez, za kterou nemá smysl se pustit, protože za touto mezí již leží buď příliš malé snímací buňky (a nutnost matematicky kouzlit, aby z toho vylezla použitelná fotka), nebo neschopnost běžných objektivů (nestojících desítky tisíc) vůbec na snímač přenést takové množství detailů.
A kam jinam vykročit než směrem od více než 30 let starého bayerova principu snímacích prvků, který zaznamenává pouze třetinu barevné informace a zbytek si vymýšlí (dopočítává). Tedy směrem k Foveonu. Foveon jako firmu založila skupina inženýrů, kteří ze svých dílčích patentů poskládali a dovyvinuli celek známý jako snímač Foveon X3 (PDF), který v praxi implementovala do svých DSLR firma Sigma (od modelu SD9, resp. kompaktů počínaje DP1).
Nyní přichází Sony se svým vlastním patentem, který jakoby principiálně Foveonu z oka vypadl. Zatím není jasné, jak je to možné, takže si proberme varianty (v podání Jirky Součka).
Tou první je, že Sigma zapomněla obnovit svůj patent (bavíme se o US patentech) na Foveon, od jehož registrace uplynulo před několika týdny právě 10 let. Osobně nevím, že by US patenty měly takto krátkou platnost a nevěřím, že by v Sigmě byli tací diletanti, nicméně smysl by to dávat mohlo.
Druhou variantou je to, že Sony mohla realizovat dílčí vylepšení technologie Foveon: Vyčítání a zpracování signálu po vrstvách pro zlepšení SNR. To by předpokládalo, že došlo k jisté dohodě, resp. výměně technologií mezi Sigmou a Sony, takže by v budoucnu mohla Foveon pro Sigmu vyrábět Sony (a přiznejme si, že takový fullframe Foveon X3 s vylepšeným poměrem signál/šum, to by byla radost).
A do třetice může jít o patent Sony na jejich vlastní interní záležitost, kterou chystají, a jen se Foveonu podobá, nicméně to se nejeví reálné. Každopádně snad za pár týdnů/měsíců budeme moudřejší.
Všimli jste si, jak se pevné disky zastavily na 2TB limitu? Hloupá otázka, jistě všimli a jednou z věcí, která v tomto ohledu výrobce „zlobí“, jsou dosud používané 512B sektory, které jsou dědictvím minulosti a které vedle samotných dat obsahují vždy i nějaká ta „metadata“ jako Sync/DAM bloky, ECC a mezeru před dalším blokem.
Je zde ale nový formát, který nejmenší adresovatelnou velikost posune na 4096 B při zachování velikosti Sync/DAM bloků, avšak s delšími ECC sekcemi (pochopitelně), což se s úsporou na Sync/DAM trochu „vykrátí“ a celkově dá o 7 až 11 % vyšší kapacitu disku při stejných plotnách.
Úprava je ale pochopitelně zpětně částečně nekompatibilní, takže některé OS si s ní samy o sobě neporadí (pro Windows XP má například Western Digital vlastní Align utilitu). V Linuxu nás to na 99,99 % nebude muset trápit, nepochybuji, že stejně jako v případě USB 3.0, bude první (nebo jedním z prvních) s podporou ADF.
Kompatibilita je zajištěna na úrovni samotného disku, který si s příkazem požadujícím čtení/zápis nějakého 512B sektoru umí poradit tak, že ze 4kB sektoru vybere daný 512B blok. Pouze v případě zápisu je však drobné zdržení v tom, že se nejprve musí načíst celý 4kB blok do vyrovnávací paměti, nahradit požadovaná 512B část a poté celý 4kB opět zapsat na disk. Co to udělá s IOPS, resp. přístupem k malým souborům „starým 512B způsobem“, toť otázka.
Western Digital je prvním výrobcem, který disky se 4kB bloky, tedy ADF disky, inzeruje. Odlišíte je tak, že jejich označení končí na EARS, například tedy WDxyEARS, kde xy značí kapacitu v x,y GB, aktuálně tedy: WD10EARS, WD15EARS a WD20EARS – ano jsou to právě ony disky, o kterých jsme si povídali před týdnem.
Nástroje: Tisk bez diskuse
Tiskni
Sdílej:
V Linuxu nás to na 99,99 % nebude muset trápit, nepochybuji, že stejně jako v případě USB 3.0, bude první (nebo jedním z prvních) s podporou ADFČlánek na diit zmiňuje, že Windows Vista/7 s tím počítá, takže linux první nebude ...
Nevím, jak je na tom jádro, ale balík util-linux-ng (od 2.17rc2) je již připraven:
#: fdisk/fdisk.c:780 #, c-format msgid "" "\n" "The device presents a logical sector size that is smaller than\n" "the physical sector size. Aligning to a physical sector boundary\n" "is recommended, or performance may be impacted.\n" "\n"
Podobně blockdev má už nějakou dobu přepínač get sector size a naposledy byl rozdvojen na get logical block (sector) size a get physical block (sector) size.
Spolu tím začal blockdev i fdisk hovořit o tzv. alignment a že
#: fdisk/fdisk.c:792 #, c-format msgid "" "WARNING: The device does not provide compensation (alignment_offset)\n" "for DOS-compatible partitioning, but DOS-compatible mode is enabled.\n" "Use command 'c' to switch-off DOS mode.\n" "\n"
Takže to je asi ona podpora zpětné kompatibility ze strany disků.
dcrawu
je na to volba -h
a celkem se hodí, pokud potřebujete udělat náhledy z RAWů, co nemají v sobě uložený náhled - vzhledem k trivialitě výpočtu je generování výsledného obrazu velmi rychlé.