Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
Jarní konference EurOpen.cz 2025 proběhne 26. až 28. května v Brandýse nad Labem. Věnována je programovacím jazykům, vývoji softwaru a programovacím technikám.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Před 25 lety zaplavil celý svět virus ILOVEYOU. Virus se šířil e-mailem, jenž nesl přílohu s názvem I Love You. Příjemci, zvědavému, kdo se do něj zamiloval, pak program spuštěný otevřením přílohy načetl z adresáře e-mailové adresy a na ně pak „milostný vzkaz“ poslal dál. Škody vznikaly jak zahlcením e-mailových serverů, tak i druhou činností viru, kterou bylo přemazání souborů uložených v napadeném počítači.
Byla vydána nová major verze 5.0.0 svobodného multiplatformního nástroje BleachBit (GitHub, Wikipedie) určeného především k efektivnímu čištění disku od nepotřebných souborů.
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za duben (YouTube).
Provozovatel čínské sociální sítě TikTok dostal v Evropské unii pokutu 530 milionů eur (13,2 miliardy Kč) za nedostatky při ochraně osobních údajů. Ve svém oznámení to dnes uvedla irská Komise pro ochranu údajů (DPC), která jedná jménem EU. Zároveň TikToku nařídila, že pokud správu dat neuvede do šesti měsíců do souladu s požadavky, musí přestat posílat data o unijních uživatelích do Číny. TikTok uvedl, že se proti rozhodnutí odvolá.
Společnost JetBrains uvolnila Mellum, tj. svůj velký jazykový model (LLM) pro vývojáře, jako open source. Mellum podporuje programovací jazyky Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust a Ruby.
Vývojáři Kali Linuxu upozorňují na nový klíč pro podepisování balíčků. K původnímu klíči ztratili přístup.
V březnu loňského roku přestal být Redis svobodný. Společnost Redis Labs jej přelicencovala z licence BSD na nesvobodné licence Redis Source Available License (RSALv2) a Server Side Public License (SSPLv1). Hned o pár dní později vznikly svobodné forky Redisu s názvy Valkey a Redict. Dnes bylo oznámeno, že Redis je opět svobodný. S nejnovější verzí 8 je k dispozici také pod licencí AGPLv3.
Tento pan se snazi zprovoznit linux na hw ke kteremu neni radka dokumentace a nejspis ani nepude.Je to ARMv8, takze spousta dokumentace je k dispozici.
iPad ma ARM jiz deset let kolik je na to distribuci? Doopravdy to neni o tom ze apple ma cip zalozenej na ARM, ale ty veci okolo a tech je fakt hodne. Nebo ten priklad s raspi4 pres rok nebyl nikdo schopnej dostat z toho hw maximum.Jenze hlavni problem je v tom, ze za to nebyl nikdo ochotnej zaplatit.
+1
Tady jde o to, že jeho to asi baví a bere to jako výzvu a navíc klíčové slovo „Apple“ poutá pozornost – lidi na to klikají, když to vidí v titulcích atd. Vylepšovat Nouveau oproti tomu není tolik sexy, byť je to mnohem přínosnější práce, protože se jedná o běžný HW široce používaný lidmi. Zatímco HW Applu bere většina jeho uživatelů spíš jako statusový symbol a nějaké hackování nebo portování svobodných systémů na novou platformu je vůbec nezajímá.
Ono i to hackování PS4 má větší smysl, protože je to běžně dostupný HW v ceně kolem deseti tisíc, který se nachází v kdejaké domácnosti. I tady jde sice říct, že ti majitelé na tom chtějí hlavně hrát svoje hry a nějaké hackování je moc nezajímá. Ale pokud by se našlo nějaké zajímavé využití ve spojitosti se svobodným softwarem, tak ten dopad bude mnohem větší (než u předraženého notebooku).
když navíc linux nenabídne nic moc víc oproti otimalizovanému OS?Mně teda Linux nabízí úplně nepředstavitelně víc. (ale nekupuju si Apple HW, ostatních výrobců je dost)
...
z praktických schopností (pro mne zcela postačující výhoda) Možnost virtualizace s PCI(e) passthrough (běh dalšího OS s přímým přístupem k HW, např. GPU).Širší podpora HW plaforem (od embedded k HPC).Bavili jsme se o desktopu, ale vidíš, dává asi smysl, abych používal stejný systém jako běží na těch zařízeních, co dělám.
protože až když zkusím nějaký jiný OS používat, tak zjistím, co všechno, co jsem pokládal za samozřejmé, v něm jde strašně složitěTeď mě třeba tak náhodou napadlo: má to něco jako tsocks? Tj. konkrétní aplikaci to pošle přes SOCKS proxy. Všechny zmínky, co jsem našel, jsou 10+ let staré. Bude to fungovat s ARM64 aplikacema?
V čem nabízí linux víc než Mac OS?Za mě:
presne tak na hrani je linux dobrej (...)Měl bych meta otázku: Jaký mentální pochod tě vede k psaní těhlech sraček? 80% komentářů co jsem tu teď od čet za posledních pár dní je akorát nevážení se do nějaký náhodný skupiny lidí. Existuje šance, že se to zlepší, nebo si tě mam rovnou zablokovat?
Treba to tentokrat netrefim a ten pan dokaze dostat linux na M1 ze to bude pouzitelny, bohuzel zkusenosti s komunitou mi rikaji ze to vzda par mesicu po te co vybere prachy na svoje pristrojky.No a? Furt mi není jasný, proč je to tak strašnej problém. Kdybych byl jedním z těch lidí, co mu dali prachy na Patreonu, tak bych do toho šel s tou mentalitou, že mu prostě přihodim nějaký dolary protože mu fandim, a když z toho bude něco užitečnýho, tak super, když ne, tak ok, nic se neděje, zkusili jsme to, ale můj život na tom nezávisí. Nevidim v tom problém. I kdyby to dotáhl jen do půlky, tak aspoň se to nějak pohnulo a někdo jinej může třeba navázat. Když přispívám finance na FOSS projekty, taky nemam žádnou záruku, že to autoři za 2 měsíce nezabalej a nepřijde to vniveč. Ale jasně, kdo chce komunitu bít, nějakou nefungující věc si vždycky najde...
Furt mi není jasný, proč je to tak strašnej problém. Kdybych byl jedním z těch lidí, co mu dali prachy na Patreonu, tak bych do toho šel s tou mentalitou, že mu prostě přihodim nějaký dolary protože mu fandim, a když z toho bude něco užitečnýho, tak super, když ne, tak ok, nic se neděje, zkusili jsme to
Nejen to. Může jít i poděkování za to, co dotyčný udělal v minulosti.
z nechuti z přístupu Apple (jeho produktům). Jeho praktiky (v uzavřenosti, nerozšiřitelnosti, neopravitelnosti, ...) se zatím naštěstí pouze neúspěšně snaží napodobovat i výrobci ze světa PC/ntb. Akceptace HW Apple se strany předpokládám spíše příznivců otevřených platforem je tak vnímáno jako prohra v podobě rezignace, akceptace, adorace.
S tímhle souhlasím, v tom je to právě kontroverzní, viz také můj komentář #16. V podstatě zvyšuješ hodnotu produktů firmě, která jinak spíš škodí a za svoje chování by si žádnou podporu nezasloužila. Méně problematické je to v případě starších produktů, které se prodaly v minulosti – tam se to dá brát tak, že pomáháš spíš těm uživatelům, kterým ten HW už leží doma, než té firmě.
To s tím poděkováním jsem myslel spíš obecně – lidi často udělají hodně práce pro ostatní předem, aniž by za to něco dostali, a až později si řeknou o peníze na nějaký další projekt nebo začnou něco prodávat. A na to se pak lze dívat i tak, že neplatím jen za to, co dostanu teď, ale i za to, co jsem od nich dostal v minulosti.
bohuzel stoji stejne jako ipadLicence Davinci Resolve Studio je(jsou) většinou součástí BMD kamer a někdy časově omezeně i dalšího příslušenství (např. Resolve Speed Editor). Takže získání licence DRS nemusí být vždy o jejím explicitním zaplacení. K čemu se přidává jako bonus iPad netuším.
hw akceleraci nebo h.265I neplacená verze Davinci Resolve podporuje GPU processing (pouze na jednom GPU). HW dekóvání/enkódování prostřednictvím GPU (u Geforce NVDEC/NVENC) se možná dnes na počítačích pro NLE (výbavou hodných tohoto označení) trochu přeceňuje. U řady kodeků profesionálních kamer je případný dekóding záležitostí schopností GPGPU/CPU nikoli NVDEC. Pro zajištění plynulého scrubbingu je u vstupního H.264/HEVC IPB materiálu asi vhodné jeho převedení na formát s all-I (všechny snímky záznamu klíčové, čímž se normalizuje pracnost při snaze o zobrazení libovolného snímku TL). U neplaceného DR je to v případě H.264/HEVC materiálu nutné učinit obecně předem (chybějící podpora H.264/HEVC v DR), ve DR Studio k tomu mohou posloužit OptimizedMedia (vygenerování pro scrubbing vhodnějí náhrady za IPB). Význam NVENCu při výstupním renderingu může být s ohledem na limitovanou kvalitu (streamingu plně postačující) ještě menší. Při renderingově náročnější timeline je vlastní encoding do výstupního formátu svou náročností pouze okrajovou úlohou. Opět v prostředí neplacené verze DR je tu nutnost použit ext. nástroje (např.ffmpeg pro konverzí z výstupního lossless formátu do cílového formátu). Naznačený postup předpokládá dostatečnou kapacitu storage a její průchodnost, ale to je asi dlouhodobě obecným nárokem při zpracování videa. ----- I obstarožní Thr 1950X je schopen dekódovat 4K H.264 (cca 2min+ trailer Elysium) rychlostí cca 300fps při vytížení cca 13 jader, což je výkon větší než zvládá NVDEC v GTX1080Ti (při svém 99% vytížení). Dekóding pomocí NVENC
time ffmpeg -c:v h264_cuvid -i Elysium_trailer_1-4K-HDTN.mov -f null - ... Stream mapping: Stream #0:0 -> #0:0 (h264 (h264_cuvid) -> wrapped_avframe (native)) .... frame= 3176 fps=210 q=-0.0 Lsize=N/A time=00:02:12.54 bitrate=N/A speed=8.75x real 0m15,318s user 0m5,873s sys 0m1,214sDekoding skze CPU
time ffmpeg -i Elysium_trailer_1-4K-HDTN.mov -f null - .... Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuv420p, 4096x1716 [SAR 1:1 DAR 1024:429], 26252 kb/s, 24 fps, 24 tbr, 12288 tbn, 48 tbc (default) .... frame= 3176 fps=321 q=-0.0 Lsize=N/A time=00:02:12.37 bitrate=N/A speed=13.4x real 0m9,970s user 2m1,991s sys 0m1,434sVlastnosti traileru
Video ID : 1 Format : AVC Format/Info : Advanced Video Codec Format profile : High@L5.1 Format settings : CABAC / 4 Ref Frames Format settings, CABAC : Yes Format settings, ReFrames : 4 frames Codec ID : avc1 Codec ID/Info : Advanced Video Coding Duration : 2 min 12 s Bit rate : 26.3 Mb/s Width : 4 096 pixels Height : 1 716 pixels Display aspect ratio : 2.40:1 Frame rate mode : Constant Frame rate : 24.000 FPS Color space : YUV Chroma subsampling : 4:2:0 Bit depth : 8 bits Scan type : Progressive
je to tradeoff, kdy u těch komerčních systémů ty nejběžnější činnosti a nastavení jsou snadno přístupný (třeba v GUI a tak) a některé věci fungujou líp a/nebo je snažší to rozchodit, ale jakmile chce člověk něco nad rámec toho výrobcem posvěcenného, tak je to obvykle někde na škále od 'velký problém' po 'nemožené'.
Tohle se traduje dlouho, ale řekl bych, že to už není moc aktuální. Dneska máš hodně distribucí/prostředí/aplikací, které cílí právě na toho běžného uživatele a typické scénáře práce. Cokoli nad rámec toho buď nejde, nebo musíš jít do konfiguráků, psát skripty nebo instalovat doplňky. Velká část svobodného/otevřeného softwaru přijala ty principy, které přisuzuješ proprietárním systémům (typicky Apple MacOS případně MS Windows). To pak zase nevyhovuje pokročilejším uživatelům, kteří chtějí větší flexibilitu, zvládnou (a chtějí) používat více funkcí a upravovat si systém podle svého a používat ho i pro netypické scénáře.
Je to dost ode zdi ke zdi. Na jedné straně máš nepružné jednoúčelové aplikace pro BFU – a na druhé straně neintuitivní až nepřátelský software s obskurním ovládáním, který vyžaduje netriviální investici do studia (a pak si užiješ tu flexibilitu a můžeš být vysoce efektivní). Často mi chybí nějaká třetí cesta, kdy by ta aplikace šla od začátku jednoduše používat (i pro BFU) a postupně by člověk pronikal hlouběji a objevoval nové a nové funkce a možnosti. Tzn. plynulý přechod a nenásilná snaha uživatele vzdělávat a posouvat ho někam dál.
ale opět k čemu to vlatně pomůže, že si každý bude kupovat MACy a plnit kasu Applu který sám na open source nehraje?V čem je to horší než dělat FOSS podporu pro PC hardware? To je taky všechno v naprosté většině těžce proprietární. To bys IMO leda po něm musel chtít pracovat na něčem jako RISC-V nebo podobně...
Na trhu PC máš konkurenci, zatímco na trhu Apple počítačů máš jediného monopolního dodavatele. Jedině bys to musel brát tak, že možnost provozovat GNU/Linux na jablečném hardwaru bude nová konkurence pro trh PC a nějak pozitivně to ten trh PC ovlivní. Ale to vzhledem k cenám a zaměření Applu bude pravda jen v hodně specifických případech, jinak se o relevantní konkurenci nejedná, bez ohledu na to, zda na tom Applu GNU/Linux běží nebo neběží. A i když to nová konkurence pro PC bude, tak je otázka, jak moc to může situaci na trhu PC nějak zlepšit. Pochybuji, že by PC díky tomu byla otevřenější nebo levnější (Apple je uzavřenější a zpravidla dražší). Hardware je dneska úžasně levný a na tom má největší zásluhy právě x86 a konkurence. Pamatuji doby, kdy byla svátost mít v domácnosti jeden počítač (v našem případě 386). Dneska mám kolem sebe hromadu x86 počítačů, že pomalu nevím, co s nimi, pak různé ARMy, ale jen jeden OpenPOWER. Kdyby se mi nějaký ten x86 porouchal, tak jen přehodím disky jinam nebo vezmu potřebnou součástku z jiného stroje, který se mi tu válí. Takhle levné a všeobecně dostupné to je. Nedovedu si moc představit, jak by nějaký Apple (nebo běh GNU/Linuxu na něm) mohl tuto situaci ještě vylepšit. Větší smysl má investovat čas do toho OpenPOWERu případně RISC-V. Tím jednak uvádíš do praxe otevřený hardware a jednak by tyhle platformy mohly zlevnit, aby byly dostupnější a rozšířené mezi běžnými lidmi.
ale opět k čemu to vlatně pomůže, že si každý bude kupovat MACy a plnit kasu Applu který sám na open source nehraje?V čem je to horší než dělat FOSS podporu pro PC hardware?
Většina PC hardwaru je k Linuxu o dost přátelštější. AMD a Intel dělají sami na podpoře v ovladačích a vývoji, Nvidia taky, i když ovladač GPU poskytuje jenom uzavřený.
Apple podporu svojich booků a desktopů vůbec nepřispívá a ani nijak (specifikace, standardizace) nepomáhá. Naopak má hardware čím dál víc zaDRMovanej, takže to bude jenom čím dál horší. Doteď se to asi dalo částečně používat díky tomu, že GPU a další kusy byly od Intelu a tudíž k nim byly ovladače a podpora, ale periférie, které jsou nestandardní od Applu, už teď dělaly problém (IIRC jejich poslední série notebooků na Linuxu nešlo moc dobře používat). Přechodem na ARM ztratíme i ten ovladač GPU.
Takže minimálně dokud třeba Apple neudělá closed nebo open podporu svejch proprietárních GPU v Linuxu (a to by byl jenom začátek, chceme taky aby šel bezdrát, tlačítka, uspávání a takový věci), tak opravdu je o hodně horší/nezaslouženější pomáhat Applu než PC hardwaru.
Většina PC hardwaru je k Linuxu o dost přátelštější.No, to asi záleží, jakou metrikou to posuzuješ. Z praktického hlediska samozřejmě jdu do PC platformy, protože prostě je na linuxu mnohem líp podporovaná a Apple má příšernej vendor lock-in. To bezesporu. S tim souhlasim a mam to taky tak. Pokud má ale někdo ten extrémnější postoj, že musí veškeré součásti systému být FOSS, pak paradoxně třeba to, co vytvoří ten člověk pro Apple HW, může být ve výsledku 'lepší' než běžná linux distribuce na běžném PC, protože to bude muset být komplet FOSS bez blobů, protože prostě není jiná možnost, takže tam bude asi i vyšší tlak na to, aby to FOSS řešení fungovalo (ale zase to vyváží celkově menší zájem o tu platformu v kontextu linuxu). Další věc je, že základ macOS je open-source (byť ne FOSS). Nevim vůbec do detailu, jaký je vztah Darwinu a implementace M1, ale např. v tomhle článku usuzují něco o M1 instruction cachi ze zdrojáků Darwina. Tj. z tohohle úhlu pohledu to může být i lepší než třeba věci od Intelu, Nvidie a podobných firem, kde nemáš zdrojáky vůbec žádný. Suma sumárum, nepřijde mi to černobílý, záleží na metrice "záslužnosti", jakou na to aplikuješ...
Bloby, ale nějaká forma oficiální spoluprace s LInuxem/specifikací IMHO vždycky bude lepší než hardware, kde se musí všechno reverzovat proti vůli výrobce.No, tak věci, který jsou v Darwinu open source, se reverzovat proti vůli výrobce nemusí. Já v týhle chvíli nevim, co všechno v Darwinu je nebo není, ty jo? Na PC se reverzování proti vůli výrobce děje dost běžně taky, i když vim, že třeba u toho Nouveau nějaká omezená spolupráce trochu je/byla. Co se asi sanžim říct je, že mi ten rozdíl přijde když už tak kvantitativní, ne kvalitatívní (kvalitativní rozdíl jsou otevřené platformy typu RISC-V apod.).
Pokud má ale někdo ten extrémnější postoj, že musí veškeré součásti systému být FOSS, pak paradoxně třeba to, co vytvoří ten člověk pro Apple HW, může být ve výsledku 'lepší' než běžná linux distribuce na běžném PC, protože to bude muset být komplet FOSS bez blobů, protože prostě není jiná možnost, takže tam bude asi i vyšší tlak na to, aby to FOSS řešení fungovalo (ale zase to vyváží celkově menší zájem o tu platformu v kontextu linuxu).
Nebudu, řešit, zda by to takhle fungovalo (pravděpodobně ne), ale: můžeš se na to dívat jako na ekologii. Firmy, které dělají proprietární software, cloud, hardware, DRM, zneužívají uživatele, budují vendor lock-in atd. tak znečišťují prostředí (IT obor) a poškozují ostatní. A když ti pak taková firma1 dá i třeba momentálně výhodnou nabídku, tak spousta lidí to z principu odmítne, protože nesouhlasí s chováním té firmy nechce ho podporovat. Kdyby Apple např. zneužíval dětskou práci nebo ve velkém vypouštěl nějaká svinstva do ovzduší, tak bys u něj asi taky nenakoupil, i kdyby ti nabízel levný a dobře fungující notebook, ne? S těmi nehmotnými a na první pohled nenápadnými věcmi (viz výše) je to stejné.
Další věc je kontinuita a ochrana investic. Pokud ten hardware jde svobodně používat jen díky nějakému cracku/hacku, tak je to spíš jen technická zajímavost, než něco, na čem by se dalo stavět. Když se ti náhodou podaří prolomit nějakou konkrétní verzi např. herní konsole nebo notebooku, tak je to pořád dost k ničemu, protože až se ti ta věc rozbije nebo až ji třeba někomu doporučíš, tak už se bude prodávat jiná verze (třeba jen s jiným firmwarem), na kterou ten crack/hack už fungovat nebude. Je to sice lepší než tu věc vyhodit, ale na nějakou seriózní práci to není a nezvykal bych si na to, že to funguje – musíš to brát jen jako příjemný bonus, že zrovna tenhle kus jde použít i nějak jinak, než určil výrobce, ale všechno je to zcela bez záruk a vyhlídek do budoucna, pravděpodobně to není reprodukovatelné nebo se na to nelze spoléhat. Tady má obrovskou výhodu standardní komoditní hardware, který lze koupit od různých výrobců.
[1] v tomhle případě by ti tu „výhodnou“ nabídku ani nedávala ta firma, ale musel by sis od ní koupit zmrzačený hardware a sám doma si to dodělat a opravit, aby to k něčemu bylo
ze sesbira prachy aby si mohl koupit co chce a pak se na to vyprdne staci cist co se tu pise.Tak s timhle rizikem ti přispěvatelé nejspíš počítaj a ten člověk má už nějakej track record. Pokud se ti to zdá jako scam, tak tam neposílej peníze, to je úplně jednoduchý.
I've been waiting for an ARM laptop that can run Linux for a long time. The new Air would be almost perfect, except for the OS. And I don't have the time to tinker with it, or the inclination to fight companies that don't want to help.
Otázka je, jestli má smysl podporovat firmu, která spíš ostatním hází klacky pod nohy, a dělat za ni její práci. Zvlášť, když jde o nový produkt a Apple, který prodává hezký, ale předražený HW. Smysl pro GNU/Linux a svobodný software by mělo přidání podpory hlavně v případě, že by se jednalo o již zavedený produkt, který vlastní spousta lidí – ti by pak mohli přejít na svobodný OS, což by byl přínos. Ale pokud se bavíme o HW, který si lidé teprve (možná) budou kupovat, tak v tom až takový přínos nevidím. Samozřejmě, pokud to někoho baví, tak proč ne?
Osobně jsem v podobné situaci – viz Pioneer DJ DJM-250MK2 support in the Linux kernel. Nakonec jsou z toho tři příspěvky do jádra (1, 2, 3) a zrovna včera jsem dostal tip na zajímavý zdroj, díky kterému se to možná podaří dotáhnout komplet. Nicméně je to poněkud absurdní situace, protože ta firma zmršila USB zařízení, které mohlo být klidně třídy USB Audio a fungovalo by i bez zvláštních ovladačů, ale místo toho se tváří jako Vendor Specific Class, byť vnitřně jako USB Audio funguje. Ale navíc obsahuje ještě určitou „magii“, která znepřístupňuje některé funkce (to je ten poslední dílek, který zbývá – až se to podaří dotáhnout, tak v GNU/Linuxu bude tenhle HW fungovat lépe než na oficiálně podporovaných OS).
MacBookPro 16" 3500$ Dell XPS 17 3500$ Lenovo ThinkPad P1 3500$ Asus Zenbook Pro Duo 3400$ MSI Stealth GS66 3300$ MS Surface 3 3300$ HP ZBook Create G7 3000$Nikdo neni vyrazne levnejsi a posledni dva lepsi ani nedelaji a stezi se vyrovnaji ostatnim. U lowendu rozdily nejake byt muzou ale bavime se poradnych masinach na praci a ne plastovych suntech s tloustkou 3cm, vahou 3kg a dizajnem z pekla jen aby tam narvali ethernet
pres USB-C propojis vse, vcetne starozitnych kramuApple slíbil podporu eGPU na Macích s M1? To mi nějak ušlo.
Bavime se o cenach ne o dirach, pres USB-C propojis vseK USB-C připojím 1) elektriku 2) myš/klíčenku a jsem v prdeli, protože víc portů ten bazmek nemá.
KVALITNI donglyKvalitní Dongy možná. To je gay pakárna pro blbce, to už můžeš rovnou dělat frotáž o poníky. Úložiště je v notebooku a ne aby viselo ven jak impotentní pyj. Párkrát už jsem viděl týpka s MB nebo MBAirem, jak někde sedí, na klíně laptopek a z toho mu visí tři šňůry v hubu - super nápad, když chceš ten jedinej port oddělat BTW.
Tak namatkou highend ultrabooky v +/- stejne VYBAVE a PROVEDENI:
Nezajímá.
Macbook nemá USB-A, tj. naprosto nepoužitelnej, viz pyj.
Srovnatelnej book s 2xUSB-C a jedním USB-A, což je naprostý minimum A možností vyměnit disk v M.2 slotu: Lenovo S540 13api, 18 tisíc, v létě jsem jeden koupil za 16 500. Snad se začne prodávat novější "S540 13are", možná bude přes dvacet, ale furt lepší než ten šit bez porta a napůl bez disku.
BTW, má ten Macbook aspoň čtečku karet na zvětšení úložiště, když tam není slot/pozice na SSD? I notesy s Atomem za osmičku ji maj.
Takže apple vyrábí horší notebooku co stojí 6x víc, má sice RAM jenom dvakrát tolik a úložiště 4x tolik, ale poříd nemá základní porty a úložiště se nedá zvětšit, kdežto do tohohle si aspoň dám mikroSD.Ve výčtu jsi zapomněl na tak 50x vyšší výkon v porovnání s tím Abakus Lakem, prakticky tak trojnásobnou výdrž na baterii (M1 Air skutečně dá 15 h na aku, ten Umax "maximálně" 8 h), SSD disk, který po půl roce nezdechne, Retina displej, solidní GPU, WiFi 6, kovové tělo atp.
Takže na rozdíl od toho Macbooku kterej je akorát tak na visící pyje, tak tohle se bude dát i používat.Pokud si pořizuješ počítač k tomu, abys do něj ustavičně zasouval USB periferie a SD karty, asi ti ten Umax bude připadat použitelnější. Nezanedbatelné množství lidí má jiné preference.
Takže apple vyrábí horší notebooku co stojí 6x víc, má sice RAM jenom dvakrát tolik a úložiště 4x tolik, ale poříd nemá základní porty a úložiště se nedá zvětšit, kdežto do tohohle si aspoň dám mikroSD.Pozn. Používám jako VPN/RDP terminál jeho předchůdce (UMAX s Celeronem 4000N, který na víc opravdu nemá) stejně jako ten výše odkazovaný UMAX má slot na přídavnou storage (Vámi odkazovaný 12Wa Red by měl mít 2280 M.2 SATA slot). https://www.umax.cz/umax-visionbook-12wa-red/#technical
SSD disk, který po půl roce nezdechne,Ono je již známo jakou technologii pro SSD Apple zvolil? Podle ceny/GB bych to tipoval minimálně na MLC či pseudoSLC, ale moc se mi to nechce věřit. Kolik může odhadem stát taková pozáruční oprava pokud dojde k poruše on-board SSD například o velikosti 512GB?
Ono je již známo jakou technologii pro SSD Apple zvolil? Podle ceny/GB bych to tipoval minimálně na MLC či pseudoSLC, ale moc se mi to nechce věřit. Kolik může odhadem stát taková pozáruční oprava pokud dojde k poruše on-board SSD například o velikosti 512GB?Oni mají vlastní řadič integrovaný se SoC, takže na desce se osazuje jenom holá NAND (čili Apple na nákladech platí míň, než výrobci PC notesů). V kusech, co rozebíral iFixit, to byl 128GB (asi 4-die 256Gb pouzdro?) WD SDRGJHI4, ale bohužel k tomu kódu se nedá nic dohledat, a moštárna jako obvykle nic užitečnýho neříká. Tipnu si, že to bude TLC (doufejme, že ne QLC, ne že bych si nemyslel, že toho jsou schopný, ale u těchhle nízkejch kapacit by asi úspora byla mizivá, Apple na TLC asi dostane tak nízký ceny, že...). MOžná by se to dalo zjistit podle toho, jak rychle se zpomalí sekvenční zápis (vyčerpáním pseudoSLC cache).
Pozn. Používám jako VPN/RDP terminál jeho předchůdce (UMAX s Celeronem 4000N, který na víc opravdu nemá) stejně jako ten výše odkazovaný UMAX má slot na přídavnou storage (Vámi odkazovaný 12Wa Red by měl mít 2280 M.2 SATA slot). https://www.umax.cz/umax-visionbook-12wa-red/#technicalOh, to je fajn (pro ty, co by to pořídili). 4GB RAM jsou sice dost málo, ale používat se to dá a na lepší disk člověk teda ani tu kartu nepotřebuje.
Kolik může odhadem stát taková pozáruční oprava pokud dojde k poruše on-board SSD například o velikosti 512GB?No je to na výměnu dvou BGA čipů, na což jsou servisy, ale je otázka, jestli seženeš tu speciální NAND (jinou to může odmítnou), jestli DRM nekontroluje sériový čísla a nezablokuje boot jako to Apple dělá s jinými náhradami dílů. Originální servis nejspíš nabídne jenom výměnu celé desky všeho, co s ní napevno spojili, takže raketa. V7měna těch zmetkovejch klávesnic IIRC stála 700 $ (lol).
Ve výčtu jsi zapomněl na tak 50x vyšší výkon v porovnání s tím Abakus Lakem, prakticky tak trojnásobnou výdrž na baterii (M1 Air skutečně dá 15 h na aku, ten Umax "maximálně" 8 h), SSD disk, který po půl roce nezdechne, Retina displej, solidní GPU, WiFi 6, kovové tělo atp.Pěkný kecy. 1) 15:8 je méně než 2×, ne 3× rozdíl. 2) eMMC nezdechne po půl roku (ty si kupuješ "Apple Care" abys měl dvouletou záruku, co...). Mimochodem mám jedno v tabletu používaným 6 let, a to bylo z doby před 3D NAND, ty hlavo. Displej je fajn věc (ale piš jaký má rozlišení, ne "retina" jak nějakej mlamoj z marketingu. Ten čínaAtom má Full HD takže po stránce rozlišení na 12" víc než dost a rozdíl bude v praxi jenom v kontrastu a jasu.
Pokud si pořizuješ počítač k tomu, abys do něj ustavičně zasouval USB periferieNe, pořizuju si notebook na tom, abych na něm něco dělal (kromě facebooku a píčování na twitteru) a poměrně často se ti může stát, že dostaneš klíčenku nebo budeš mít zařízení, co se strká do USB-A. Stane se to častěji, než jak často potkáš USB-C. Pokud tedy pomineme nabíječku. A propos nabíječka. Tvůj notebook pro milovníky pyjů bude mít po připojení k adaptéru volný jediný USB, takže ani nemůžeš třeba kopírovat věci mezi klíčenkou a externím HDD. Nebo mezi foťákem a externím HDD (jó, kdyby tak měly nějaký notebooky čtečku karet). Tenhle levnej lowend notebook má tři USB, takže by to šlo, pokud si nekoupím notebook, kde firma v nebetyčné moudrosti rozhodla, že víc než dvě USB jsou zlo (teda pokud kunčoft nepřiplatí za Pro MacBook Pro).
a SD karty, asi ti ten Umax bude připadat použitelnějšíNauč se číst a zjistíš, že to zasouvání je proto, aby sis mohl zvětšit úložiště, který je tam z výroby. Což s Applím notebookem určeným k zasouvání pyjů nedokážeš. Fajn že ti vadí, že je do notebooku zasunutá karta, která ani nečumí ven, ale vůbec ti nevadí, že jsi ve svým předchozím portu chválil možnost nechat z portu viset dongly (kór když je to malej smrad jako je céčkový USB, kterej má omezenou pevnost). Tak jako trestáš se za to asi sám, jen je škoda, že na tom vydělávaj nejúspěšnější hochštapleři na světě. Kdybys aspoň podporoval scientology, coby underdoga :)
Pěkný kecy. 1) 15:8 je méně než 2×, ne 3× rozdíl. 2) eMMC nezdechne po půl roku (ty si kupuješ "Apple Care" abys měl dvouletou záruku, co...). Mimochodem mám jedno v tabletu používaným 6 let, a to bylo z doby před 3D NAND, ty hlavo. Displej je fajn věc (ale piš jaký má rozlišení, ne "retina"Těch 15 h je hodnota, na kterou se dá reálně dostat a potvrdily to různé benchmarky. Těch 8 h je nejspíš takové to "vypni WiFi, vypni BT, sraž displej na minimum a hlavně na to nesahej". Parametry displeje Airu M1 nepochybně znáš, ale když chceš čísla, tak Air má 227 PPI, ten Umax cca 190. Nicméně ten displej bude na tom Umaxu dost možná to nejlepší.
Nauč se číst a zjistíš, že to zasouvání je proto, aby sis mohl zvětšit úložiště, který je tam z výroby. Což s Applím notebookem určeným k zasouvání pyjů nedokážeš. Fajn že ti vadí, že je do notebooku zasunutá karta, která ani nečumí ven, ale vůbec ti nevadí, že jsi ve svým předchozím portu chválil možnost nechat z portu viset dongly (kór když je to malej smrad jako je céčkový USB, kterej má omezenou pevnost).Jak jsi přišel na to, že mi vadí, kdy bude v notebooku zasunutá karta? O žádných donglech jsem se taky nikde nevyjadřoval. Když mi nebude stačit úložiště, připojím k tomu pořádný exterák. Zařízení, ze kterých bych mohl chtít něco kopírovat už většinou mívají BT či WiFi, takže nemusím připojovat nikam nic. Zůstávají akorát nějaké ty starší flashky apod. To pochopitelně může vadit ale já jsem naposled připojoval flashku k notebooku jen kvůli updatu UEFI.
Tak jako trestáš se za to asi sám, jen je škoda, že na tom vydělávaj nejúspěšnější hochštapleři na světě. Kdybys aspoň podporoval scientology, coby underdoga :)Tvému dialektu bohužel nerozumím. Můžeš se to snažit narafičit, jak chceš, ale M1 SoC je dost dobrý kus HW. Že s tím přišel zrovna Apple se nám nemusí líbit ale co dělat, když ostatní firmy na trhu PC technologií už snad dvacet let přešlapují na místě...
AMD ale jenom dohnánělo ztrátu za Intelem.Taklhe se to asi dá nahlížet. Kdyby to Intelu šlo stejně dobře jako AMD (tj. neměl ty problémy, do kterých se dostal), tak bude vlivem svých peněz a pozice o dost dál než je teď AMD. Pravděpodobně.
Až Zen 3 má mírně vyšší IPC než současné Intely, které se za 5 let nezměnily skoro vůbec.
Tak tady už nemáš dobré informace. Pokud podle tebe Intel stagnoval pět let, tak tím myslíš architekturu Skylake z roku 2015. Jenže Intel mezitím vydal Ice Lake a Tiger Lake, ty mají IPC (výkon na 1 MHZ) o 18-20 % vyšší. U Ice Lake loni to zapadlo, protože ho zabil nepovedený 10nm výrobní proces, ale Tiger Lake ho má opravený a díky tomu přináší už velký nárůst výkonu, v Geekbench 5 se dostane na 1500-1600 v single thredu (možná pod Linuxem i víc).
Pokud bys chtěl tohle ignorovat a viděl jen to Skylake, tak to pak nesedí. Už Zen 2 měl o něco vyšší IPC (řekněme až o 5 %) než Skylake. Zen 3 má IPC ještě asi o 13 % vyšší (třeba i o víc, mění se to podle programu), nakonec je IPC zřejmě stejné nebo o trošku vyšší než u Tiger Lake. Ale zase možná může záležet na aplikaci.
Kdybychom byli hodně příšní, dalo by se tvrdit, že s poslední zásadnějí inovaci mikroarchitektury Intel vyrukoval v Sandy Bridgi, kdy na prapotomka P6 narouboval pár vychytávek z NetBurstu.
Hmmmm.... nesouhlas. Mezi Sandy a Skylakem byl Haswell, kterej zvedl o dost IPC, přinesl zásadní věc AVX2 a taky hrozně moc platformních inovací - to byl obrovskej přelom. Skylake při svém vydání nevypadal moc dobře, ale křivdilo se mu, jeho architektura je lepší, než se v roce 2015 tehdy zdálo (o dost vyšší bandwidth cache a tak, pozná se to, když se kód optimalizuje). Tehdy se testoval s pomalýma pamětma DDR4, já si třeba pod vlivem recenze Anandtechu myslel, že není o moc lepší než Haswell, ale ve skutečnosti je tam značnej rozdíl
Z netburstu přejal už Nehalem v roce 2008 HT (ale zároveň taky třeba přidal integrovaný řadič pamětí "z K8"). Jestli myslíš uop cache v Sandy Bridge, tak bacha, to je něco trochu jiného než trace cache v Pentiu 4. Ta byla náhradou L1 cache, poněkud problematickou, kdežto uOp cache má jiný účel a L1 cache nenahrazuje. BTW už ten Nehalem výrazně architekturu P6 překopal, v SIMD byl ohromnej rozdíl. IMHO Nehalem a Sandy byly proti P6 podobně vyýznamné skoky. Jo a P6... "P6" v podobě Conroe (2006) bylo taky v IPC někde úplně jinde než P6 v Pentiu Pro (1995), ono není moc užitečný to oboje označovat stejným jménem.
Posuzovat efektivitu samotné architektury, když benchmarkovat se dá jen celý stroj je pochopitelně těžkéToto je pravda, dost se v tom právě chybuje, když třeba týpci srovnávali spotřeby M1 a desktop procesorů AMD/Intel.
ale do budoucna žádné zázraky od x86 už nečekám.
IMHO se klidně může ukázat, že nakonec byl pravdivý takový ten "moderate názor", že ISA zas tak moc rozdílu nenadělá, když jsou srovnatelně pokročilé implementace, takže budou vedle jak lidi, co tvrdili, že instrukční sada ARM musí x86 rozdrtit na prach ba bla... stejně jako lidi, co tvrdili, že ARM prostě není dělanej na vysokej výkon a nikdy x86 nedotáhne (a nebo naopak že x86 nikdy nemůže být tak energeticky efektivní - tohle platí pro jednoduchá, hodně malá jádra tak do Cortex-M, A5-A35/možná i A55). Takže když se Intel, AMD a Apple budou maximálně snažit a mít podobné podmínky, tak všichni dorazí k podobnému výkonu. Faktor toho, že ARMv8 je čistější a efektivnější návrh instrukční sady, může být třeba jen 5% bonus (a kdo ví jestli), na čemž už moc nezáleží. Applu tedy ještě trochu pomůže, že může diktovat sw ekosystém, viz třeba 16KB stránky paměti (takže si pomůže speciální akcelerací a optrimalizací na úkor kompatibility).
Momentálně je dost důležitý faktor, že Apple z různých důvodů může nasadit nový výrobní proces až dva roky před třeba AMD. Teď je už na 5nm, AMD asi až v roce 2022. Toto mu bude hrát do karet, ale musí se pamatovat, že to není síla architektury nebo inženýrů, ale asi hlavně peněz. AMD a Intel by se měli snažit, aby Apple tuhle výhodu proti nim neměl, ale nevím, jestli se jim to povede (AMD speciálně má na všechno o dost míň peněz a horší pozice...).
Jenže Intel mezitím vydal Ice Lake a Tiger Lake, ty mají IPC (výkon na 1 MHZ) o 18-20 % vyšší.Ten cca 17% nárůst IPC u Willow Cove je fajn, jenže celá architektura je vázaná na 10nm proces, který Intelu pořád moc nefunguje. Cypress Cove se musel backportovat na 14nm a uvažuje se, že 7nm proces bude Intel outsourcovat k TSMC. Kdyby se Intelu dařilo vylepšovat výrobní proces, vypadalo by to jinak jenže přesně tohle se jim nedaří. Mimochodem by mě zajímalo, zda těch změřených ~17 % vůči SKL uvažuje Meltdown a Spectre.
Však říkám "hodně přísní" :) V SNB implemetovali uOps cache a physical register file. Jo, uOps cache není to samé jako trace cache, nicméně základní idea cachování dekódovaných instrukcí, aby se dal obejít dekodér je stejný. SIMD osobně považuju spíš za takový krok stranou. Někdy je velmi užitečné, jinde úplně k ničemu a myslím, že do budoucna bude obtížně škálovatelné. AVX2 je fajn, AVX512 jsem prakticky nezkoušel, neb na to nemám CPU a odhaduji, že cokoliv širšího už bude vetšinou lepší pouštět rovnou na GPU.Kdybychom byli hodně příšní, dalo by se tvrdit, že s poslední zásadnějí inovaci mikroarchitektury Intel vyrukoval v Sandy Bridgi, kdy na prapotomka P6 narouboval pár vychytávek z NetBurstu.Hmmmm.... nesouhlas. Mezi Sandy a Skylakem byl Haswell, kterej zvedl o dost IPC, přinesl zásadní věc AVX2 a taky hrozně moc platformních inovací - to byl obrovskej přelom. Skylake při svém vydání nevypadal moc dobře, ale křivdilo se mu, jeho architektura je lepší, než se v roce 2015 tehdy zdálo (o dost vyšší bandwidth cache a tak, pozná se to, když se kód optimalizuje). Tehdy se testoval s pomalýma pamětma DDR4, já si třeba pod vlivem recenze Anandtechu myslel, že není o moc lepší než Haswell, ale ve skutečnosti je tam značnej rozdíl
Z netburstu přejal už Nehalem v roce 2008 HT (ale zároveň taky třeba přidal integrovaný řadič pamětí "z K8"). Jestli myslíš uop cache v Sandy Bridge, tak bacha, to je něco trochu jiného než trace cache v Pentiu 4. Ta byla náhradou L1 cache, poněkud problematickou, kdežto uOp cache má jiný účel a L1 cache nenahrazuje. BTW už ten Nehalem výrazně architekturu P6 překopal, v SIMD byl ohromnej rozdíl. IMHO Nehalem a Sandy byly proti P6 podobně vyýznamné skoky. Jo a P6... "P6" v podobě Conroe (2006) bylo taky v IPC někde úplně jinde než P6 v Pentiu Pro (1995), ono není moc užitečný to oboje označovat stejným jménem.
x86 se asi ještě udrží ve výkonných strojích ale v low-power segmentu to má IMHO spočítané. Tušilo se to už před skoro třiceti lety, bohužel "řešení" v podobě Itania se ukázalo jako nevhodné...
Ten cca 17% nárůst IPC u Willow Cove je fajn, jenže celá architektura je vázaná na 10nm proces, který Intelu pořád moc nefunguje. Cypress Cove se musel backportovat na 14nm a uvažuje se, že 7nm proces bude Intel outsourcovat k TSMC. Kdyby se Intelu dařilo vylepšovat výrobní proces, vypadalo by to jinak jenže přesně tohle se jim nedaří. Mimochodem by mě zajímalo, zda těch změřených ~17 % vůči SKL uvažuje Meltdown a Spectre.
Je to skoro jedno, protože když, tak se to udává pro obě architektury bez ochran... podle benchmarků tam ten nárůst IPC celkem je, takže IMHO dobrý. Jinak ten Cypress COve je zdá se nakonec hodně blízkej architektuře Ice Lake, takže až tak vázané to není, ale samozřejmě 14nm je zlo na spotřebu, no. Ten 10nm SUperFin proces v Tiger Lake IMHO už je dobrej, efektivita není vůbec špatná, frekvenční deficit eliminovanej... akorát že je o 3-4 roky pozdě proti očekávání, takže z náskoku před zbytkem světa se stala sekyra na zbytek světa (teda aspoň Samsung a TSMC).
SIMD osobně považuju spíš za takový krok stranou.SMT počítám? Podle mě je to dobrá věc, kterou bych tlačil kde to půjde, protože to využívá prostředky jádra, který by se nedaly jinak využít a teda by ležely ladem. Třeba když je branch mispredict, když se čeká na data z RAM, nebo cokoliv, prostě se ze stejnýho jádra dá vydřít víc výkonu, takže je to takovej krásnej ekonomickej/ekologickej nápad. A jsou úlohy, kde je přístup k pamětem a tak tak neprdikovatelný, že prefetch je skoro k ničemu a tam to jsou pak brutální rozdíly ve výkonu. Podle mě je to prostě smart a takový ty výtky na side-channel bezpečnost... i sdílené cache a paměti mají stejný prolbém, side-channel útoků je spousta a SMT je jedním z mnoha. Tj. řešit se to musí nějak jinak (nedávat dva thready různým cloud klientům) a ne tím, že vylejeme dítě z vaničky.
AVX2 je fajn, AVX512 jsem prakticky nezkoušel, neb na to nemám CPU a odhaduji, že cokoliv širšího už bude vetšinou lepší pouštět rovnou na GPU.
AVX-512 by měl být fajn v tom, že je to víc ortogonální a flexibilní, takže jde pohodlně psát různé věci, které by jinak/dřív byly humus v asembléru udělat. Takže třeba programátoři od multimédií to maj moc rádi (problém je největší asi v tom, že Intel hrozně brzdí rozšíření tím, jak je to u menšiny CPU a u spousty jich dokonce i vypíná AVX2 a tak.)
Jinak to "radši GPU" možná jde v HPC výpočtech, ale jinak je to IMHO takovej populární omyl. Offload čehokoli na GPU je strašně drahá operace, kdežto SIMD instrukce má minimální latenci a proběhne okamžitě v rámci stejné CPU aplikace. Navíc charakter je úplně jiný - latence, způsob programování, pružnost a tak, takže SIMD v CPU má myslím překryv s GPGPU spíš menší než větší. O čem bych měl větší pochybnosti, je vymýšlení nových SIMD instrukcí pro neuronový sítě. Pro ty zdá se ASIC akcelerace funguje tak efektivně, že nemá moc význam přidávat míň výkonou alternativu jako general purpose instrukce. V menší míře asi jo, aby to "AI" šlo používat bez přítomnosti těch speciálních akcelerátorů a jejich programovacích modelů, ale má to smysl jenom jako adaptace existujícího vektorových HW, ne do toho zběsile investovat nový tranzistory.x86 se asi ještě udrží ve výkonných strojích ale v low-power segmentu to má IMHO spočítané. Tušilo se to už před skoro třiceti lety, bohužel "řešení" v podobě Itania se ukázalo jako nevhodné...
Jako to se "vědělo" před třiceti lety proto, že existoval stejný způsob uvažování jako dneska: hipsterismus. Vždycky byly lidi, co pro ně byla x86 zlá, škaredá mizerná... protože je cool být fanda alternativ. Ta reálná technická story byla vždycky něco jiného a zrovna před 30 lety byla hodně jiná, tehdy (1990) x86 vypadala jako bezperspektivní legacy fosilie. 1995 přišlo Pentium Pro a ukázalo, že jde udělat out-of-order superskalární CPU, což jakože mělo být možný jenom s RISCama. Během deseti let (2005) x86 už všechny RISCy naopak zmarginalizovalo.
ARMv8 dneska je o dost jiná písnička než ty staré RISCy. Až na to, že nemá variabilní instrukce, tak pochopil, že cesta je používat ne ortodoxní RISC, ale komplexnější operace tak, aby se prostě vydřelo víc výkonu, tam kde to jde. Netlačí na jednoduchost jen kvůli ideologii jako RISC-V, místo to je pragmatickej. Ve výsledku není x86-64 až tak vzdálený (holt se obojí vyvíjelo podle reálných požadavků CPU). Jako tím, jak je 64bit ARM nový, tak ta sada je lepší a má určité výhody (uvidíme, co SVE/SVE2 teda, tam nevím, jestli zvolili správnou cestu...). Ale zatím není jasné, že by ty výhody byly tak zásadní, aby se x86 nemohlo udržet. Třeba 10 % výkonu navíc, když budou proces, sofistivanost jádra a cena cca stejné, bych nepovažoval za důvod vybodnout se na x86.
Tiskni
Sdílej: