Americký výrobce čipů Intel propustí 15 procent zaměstnanců (en), do konce roku by jich v podniku mělo pracovat zhruba 75.000. Firma se potýká s výrobními problémy a opouští také miliardový plán na výstavbu továrny v Německu a Polsku.
MDN (Wikipedie), dnes MDN Web Docs, původně Mozilla Developer Network, slaví 20 let. V říjnu 2004 byl ukončen provoz serveru Netscape DevEdge, který byl hlavním zdrojem dokumentace k webovým prohlížečům Netscape a k webovým technologiím obecně. Mozille se po jednáních s AOL povedlo dokumenty z Netscape DevEdge zachránit a 23. července 2005 byl spuštěn MDC (Mozilla Developer Center). Ten byl v roce 2010 přejmenován na MDN.
Wayback byl vydán ve verzi 0.1. Wayback je "tak akorát Waylandu, aby fungoval Xwayland". Jedná se o kompatibilní vrstvu umožňující běh plnohodnotných X11 desktopových prostředí s využitím komponent z Waylandu. Cílem je nakonec nahradit klasický server X.Org, a tím snížit zátěž údržby aplikací X11.
Byla vydána nová verze 6.18 živé linuxové distribuce Tails (The Amnesic Incognito Live System), jež klade důraz na ochranu soukromí uživatelů a anonymitu. Nově se lze k síti Tor připojit pomocí mostu WebTunnel. Tor Browser byl povýšen na verzi 14.5.5. Thunderbird na verzi 128.12.0. Další změny v příslušném seznamu.
Meta představila prototyp náramku, který snímá elektrickou aktivity svalů (povrchová elektromyografie, EMG) a umožňuje jemnými gesty ruky a prstů ovládat počítač nebo různá zařízení. Získané datové sady emg2qwerty a emg2pose jsou open source.
Byla vydána (𝕏) nová verze 25.7 open source firewallové a routovací platformy OPNsense (Wikipedie). Jedná se o fork pfSense postavený na FreeBSD. Kódový název OPNsense 25.7 je Visionary Viper. Přehled novinek v příspěvku na fóru.
Před 40 lety, 23. července 1985, společnost Commodore představila první počítač Amiga. Jednalo se o počítač "Amiga od Commodore", jenž byl později pojmenován Amiga 1000. Mělo se jednat o přímou konkurenci počítače Apple Macintosh uvedeného na trh v lednu 1984.
T‑Mobile USA ve spolupráci se Starlinkem spustil službu T-Satellite. Uživatelé služby mohou v odlehlých oblastech bez mobilního signálu aktuálně využívat satelitní síť s více než 650 satelity pro posílání a příjem zpráv, sdílení polohy, posílání zpráv na 911 a příjem upozornění, posílání obrázků a krátkých hlasových zpráv pomocí aplikace Zprávy Google. V plánu jsou také satelitní data.
Společnost Proxmox Server Solutions stojící za virtualizační platformou Proxmox Virtual Environment věnovala 10 000 eur nadaci The Perl and Raku Foundation (TPRF).
Byla vydána nová verze 2.4.65 svobodného multiplatformního webového serveru Apache (httpd). Řešena je bezpečnostní chyba CVE-2025-54090.
To je pravda! Se starým routerem se dá hodně vyhrát Jenže Raspberry Pi mi mnohem víc připadá jako klasické PC. Dá se připojit monitor, myš atd. To u starého ADSL routeru asi sotva. Na Root.cz pan Krčmář píše: "Vývojáři už předvedli funkční boot Debianu s prostředím LXDE a spuštění hry Quake 3 v plném HD (1080p) rozlišení." Jsem dost zvědavý jak taková kartička utáhne celé grafické prostředí a ještě přehrává HD. To se od ADSL routeru rozhodně očekávat nedá (resp. ani pro to nebyl stvořen)
jak se to snad snazi tvaritNevšiml jsem si že by se to tak tvářit snažilo, od začátku to prezentují spíš jako výukový HW pro školy, případně pro nějaké to kutění. Osobně si z toho udělám emulátor pro staré hry (mame, SNES, mělo by to snad utáhnout i PS1). Případné druhé Pi krásně poslouží s externím diskem + MPD jako domácí přehrávač hudby a noční stahovač (1W spotřeba je luxus)
nebo CAD to není,Čistě pro zajímavost: Nejen pro CAD, ale i pro 3D modeláře by to bohatě stačilo (nemodeluje-li někdo sestavy automobilů nebo něco podobného), kdyby to nebyly sračky napsané v .NETu.
Trochu sem odbočil, sice je takový browsení nepohodlný, ale bude to téměř nutný kvůli šetření pamětí. Na druhý straně muj starej book s 80 MB RAM a Pentiem MMX utáh KMeleon (jádro gecko) a starší Operu (tušim 7 nebo starší) a daly se tam tak ty 3 taby používat bez toho že by to spadlo/vytuhlo. Ale na win 98. Modernější os a prohlížeč prostě chce víc paměti. Myslim si že na těch 256 MB by se desktop dal, když se uživatel uskrovní a změní některý svý návyky (u mě FF se 40 tabama sežral 1 GB paměti tak sem přešel na Chrome a neotvíram jich tolik a nenechávam tam několik měsíců otevřený něco co si chci někdy až bude čas přečíst, prostě to večer všechno pozavíram a druhej den začínam s prázdnou lištou a v případě potřeby si to najdu a otevřu znova, pokud si to ještě pamatuju).
Jako pěknej je, ale ty stránky v něm vypadaj hnusně.Dřív jo. Teď to není až taková hrůza pokud nepočítám nějaké JS skvosty. Třeba jako YouTube. Jinak se do toho už implmentuje i HTML5 nebo co.
To už snad radši links -gTomu nefungují tabulky, ne?
lepší je použít nějaký pořádný jako gecko nebo webkit, to sice žere, ale aspoň v tom stránky vypadají jak mají.Já mám 600Mhz a 750Mhz ARM (dokonce s podobnou pamětí), takže vím o čem mluvím když doporučuju NetSurf. Gecko vůbec a ani WebKit na žádné juchání při takových taktech není. Chromium je výchozí a rychlostně jde, ale žere neurvale moc paměti a padá.
Ono když se vývojáři snaží tak se i s takovym materiálem dá udělat decentní prohlížeč, třeba taková arora a midori.Na prohlížeči nezáleží. Jader je pár. WebKit, KHTML, Gecko a pár těch Tiny. Jinak nevím o ničem.
NetSurf sem posledně zkoušel cca před rokem (a dillo před pár měsícema), moh by dostat druhou šanci. Jo, s prohlížečema a jádrama to je těžký, neni žádný dokonalý který by se hodilo všude. Buď je to lehký a rychlý, ale podporuje to jen ty základní technologie nebo je v tom všechno ale zase si to řekne o svý.
Docela pěknej prohlížeč je WebPositive z Haiku, ale to je taky WebKit, takže sme zas tam kde sme byli.Na prohlížeči přeci jen malinko záleží. Když bude jednoduchej, může trochu paměti (kterou obratem jádro sežere) uspořit. Na druhou stranu když na gui ušetřim pár mega když jich jádro sežere desítky nebo víc tak to asi zas tak smysl nemáTo GUI je jen kolem hlavního okna a na rychlosti nedělá nic a na velikosti jen pár kB. Ten zbytek už je na jádru a většinou to dělá nejvíc. Jestli Epiphany nebo Midori je úplně jedno. Je to jen jiné GUI kolem hlavního okna které v obou případech běží naprosto ze stejné knihovny s naprosto stejnými parametry (jediný rozdíl je možná mezi GTK a QT, ale to je tak všechno).
Ono by nešlo z toho webkitu požít jen část?Samozřejmě můžeš. Je tam snad nějaký konfigurátor. Ale moc z toho stejně nevymáčkneš. Druhá věc je, že musíš někam rozbalit všechny ty JPEGy a PNGčka a tak. Ono se většinou stejně dostaneš zas na ty původní hodnoty. Proč myslíš že se dělají mobilní verze webů a nemají moc obrázků, resp. v malém rozlišení?
Když si v tom otevřu ábíčko nebo roota tak je to dost tragický. NetSurf podle mě neni řešeníTaki najdi deset rozdílů. Já dokonce vidím jeden upgrade.
Tak teď to je už o dost lepší, ale pořád se některý elementy ze stránky nenačtou a některý stránky se mi nepovedlo otevřít vůbec.
ale o výběr programů.Přesně. To bych tesak kdybych měl po ruce dláto.
Ale podívej se, kolik ti teď žere jenom tvůj browser.Pro ARMy (resp pro RISCOS) je dělaný NetSurf. Je to takový trochu vymakanější Links -g (neumí JS), ale je díky tomu i neuvěřitelně malý a neuvěřitelně rychlý (a vedle WebKitu jediný použitelný engine na takových procesorech s takovými takty, osobně vyzkoušeno). Je jasné že si nemůžeš pro něco takového vymyslet cokoliv, ale musíš dbát na to na čem to provozuješ. Existuje velká spousta alternativních (a hlavně dobře naprogramovaných) programů. OpenWRT má tu výhodu, že už je má většinou integrované. Jak jsme prohlíželi Web před 1Ghz AMD netuším (já to zvládl na 90Mhz 486).
A třeba zrovna ten GIMP je aplikace, pro kterou lehká alternativa neexistuje.ImageMagick (dovluje zpracovávat i kousky dat místo celého obrázku). Zas musíš brát na vědomí, že nejvíc prostoru a výpočetního času na něčem takovém sežerou právě data samotné. Jediný způsob jak je zrychlit jsou nějaké matematické optimalizace až přesun práce na DSP. Ale jinak GIMP vcelku na menší obrázky používat jde i na něčem takovém (osobně vyzkoušeno). Grafické editory jsou tu s náma o hodně dýl než jen nějakých 7-10 let a vždycky se nějak používaly.
Jak jsme prohlíželi Web před 1Ghz AMD netuším (já to zvládl na 90Mhz 486).Byli jsme méně nároční a hlavně se neprogramovalo stylem „tak se dokoupí další gigabajt RAM, paměť je přece levná“
Jednoduše, weby byly proti těm dnešním přímo primitivní, jen text, tabulky a sem tam malej obrázek. Měli sme na gymplu poměrně dlouho 486 s win 95 (a IE 4 tušim) a ještě ke konci 90. let se na tom net prohlížel docela dobře, sice se stránky načítali děsně pomalu, ale to bylo dialupem, jeden 54k modem pro celou učebnu. Pak se začli množit reklamy, pop-upy, objevil se flash a tam se to zlomilo. Weby sice líp vypadali, ale byly složitější, bylo tam víc balastu a chtělo to pořád víc MHz a MB aby to běhalo svižně (a takovej flash běhal svižně málokdy, na tom co sme tam měli spíš nikdy, teď už nemyslim ty 486 ale ty durony co přišly po nich, sice byly mnohem výkonější, ale v tý době už to byl taky lowend a ještě to zabili zastaralym softem, takže to byla furt trága). Někdy se mi po tom starym statickym "notepadovskym" webu zasteskne ...
Jak bude probíhat distribuce v čr? Ujme se někdo organizování hromadné objednávky?
Už to vidim -> http://www.raspberypi.cz/doku.php
Tiskni
Sdílej: