Byla vydána verze 4.0 multiplatformního integrovaného vývojového prostředí (IDE) pro rychlý vývoj aplikaci (RAD) ve Free Pascalu Lazarus (Wikipedie). Přehled novinek v poznámkách k vydání. Využíván je Free Pascal Compiler (FPC) 3.2.2.
Podpora Windows 10 končí 14. října 2025. Připravovaná kampaň Konec desítek (End of 10) může uživatelům pomoci s přechodem na Linux.
Již tuto středu proběhne 50. Virtuální Bastlírna, tedy dle římského číslování L. Bude L značit velikost, tedy více diskutujících než obvykle, či délku, neboť díky svátku lze diskutovat dlouho do noci? Bude i příští Virtuální Bastlírna virtuální nebo reálná? Nejen to se dozvíte, když dorazíte na diskuzní večer o elektronice, softwaru, ale technice obecně, který si můžete představit jako virtuální posezení u piva spojené s učenou
… více »Český statistický úřad rozšiřuje Statistický geoportál o Datový portál GIS s otevřenými geografickými daty. Ten umožňuje stahování datových sad podle potřeb uživatelů i jejich prohlížení v mapě a přináší nové možnosti v oblasti analýzy a využití statistických dat.
Kevin Lin zkouší využívat chytré brýle Mentra při hraní na piano. Vytváří aplikaci AugmentedChords, pomocí které si do brýlí posílá notový zápis (YouTube). Uvnitř brýlí běží AugmentOS (GitHub), tj. open source operační systém pro chytré brýle.
Jarní konference EurOpen.cz 2025 proběhne 26. až 28. května v Brandýse nad Labem. Věnována je programovacím jazykům, vývoji softwaru a programovacím technikám.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Před 25 lety zaplavil celý svět virus ILOVEYOU. Virus se šířil e-mailem, jenž nesl přílohu s názvem I Love You. Příjemci, zvědavému, kdo se do něj zamiloval, pak program spuštěný otevřením přílohy načetl z adresáře e-mailové adresy a na ně pak „milostný vzkaz“ poslal dál. Škody vznikaly jak zahlcením e-mailových serverů, tak i druhou činností viru, kterou bylo přemazání souborů uložených v napadeném počítači.
Byla vydána nová major verze 5.0.0 svobodného multiplatformního nástroje BleachBit (GitHub, Wikipedie) určeného především k efektivnímu čištění disku od nepotřebných souborů.
Google zveřejnil informace o svém operačním systému Chromium OS a uvolnil jeho zdrojový kód. Celý OS je webová záležitost, všechny programy jsou webové, běží ve webovém prohlížeči a uživatelé nemusí řešit instalování, správu a aktualizaci programů. Podobně jako v případě Google prohlížeče Chrome je i zde Chromium OS open-source základem pro Chrome OS.
Tiskni
Sdílej:
Celý OS je webová záležitost, všechny programy jsou webové, běží ve webovém prohlížečiBlééé. Byl spáchán trestný čin znásilnění technologie, která měla sloužit k prezentaci obsahu HTML, a JS.
a uživatelé nemusí řešit instalování, správu a aktualizaci programů.A ani svá data, která má někdo, někde… Proč je teď tak strašně in používat „aplikace“ v JavaScriptu v prohlížeči? Vždyť jejich desktopové obdoby mají mnohokrát víc funkcí, jsou rychlejší a člověk je má pod kontrolou. No nic…
Vime ovsem, ze urcite aplikace, treba Firefox nebo Java pamet ve skutecnosti neuvolnuji, ale ponechavaji si ji pro pristi pouziti. Klidne se tak muzem dostat do situace, kdy Firefox a treba NetBeans kazdy zerou 1GB (nic nerealneho) a pritom potrebuji kazdy jen 100MB. OS se ony 2GB zdaji jako alokovane a nemuze je nulovat, tim padem ani komprimovat (efektivne). Pak ti muze vyjit STD pomalejsi nez boot plus plne obnoveni prace. Netvrdim, ze je to casty scenar, ale urcite to neni principialne nemozne.Zajímavá myšlenka. To by mohlo být možné.
(spotřeba <20W)To dneska splní kdejaký notebook, ne? :)
Pračka bliká půl dne, že doprala, ale protože nemá profil na Facebooku, tak si toho nikdo nevšimne...Mám pocit, že za pár let by se tomu nikdo nesmál, naopak by mu bylo divné, proč naopak ten profil ještě nemá
Hlavně mi vadí, kdo tuto společnost k takovým řešením (všechno na webu) dohnal – diletanti, kteří neumí psát software a fašističtí správci sítí, kteří zakáží, co mohou. Problém desktopových aplikací jsou dvě věci:
A místo aby se odstranila příčina (která už vlastně odtsraněná je, stačí změnit OS a zaměstnat kompetentní lidi místo debilů), tak se řeší následky a problém se obchází (což vytváří zase problémy jiné, na tom se ale může přiživit řada dalších lidí, takže jim to vlastně vyhovuje).
emerge --sync
emerge -DubN world
Ano, je to trivialni :)
aptitude safe-upgrade
poslat novou funkcionalitu, nic tomu nebrání. Akorát je potřeba testování, ale to je potřeba i když aktualizuješ webovou aplikaci na serveru, v tom není rozdíl.
- po par letech jiz nejde upgradovat vetsina software nijak, ani kompilaci, kvuli dependency hell. To se vyskytuje i na Windows, ale v mnohem mensi mire - zda se, ze na Windows nejsou vyvojari zvykli okamzite prechazet na nejnovejsi verzi knihoven.Není to tím, že si na Windows většina aplikací tahá knihovny s sebou?
- vetsina distribuci nebackportuje nove verze programu do svych starsich vydani. Ty ostatni maji pak jine nevyhody a nejsou vetsinou pro BFU.A to necemu vadi? Debian Testing je fakticky moje prvni distro. Fakt, ze pro BFU neni bleeding edge je uplne v poradku a nic divneho na tom nevidim. Budto dostanu aplikaci novou nebo otestovanou. Jednoduche. Komu se nelibi, ma tu Debian Testing/Unstable apod.
- vetsina OSS software vychazi pouze v podobe zdrojaku a ocekava se od distributoru, ze si to uz nejak zkompiluji a zabali. Pokud už si vývojáři dají práci a udělají balíček, ignorují repozitáře a člověk si musí software vyhledat, stáhnout a nainstalovat "ručně". Nijak se to pak neliší od WindowsZe tohleto nema byt duvod pro pouziti webove aplikace?
- po par letech jiz nejde upgradovat vetsina software nijak, ani kompilaci, kvuli dependency hell. To se vyskytuje i na Windows, ale v mnohem mensi mire - zda se, ze na Windows nejsou vyvojari zvykli okamzite prechazet na nejnovejsi verzi knihoven.Tohle je blabol. Jak muze byt vetsina software kvuli dependency hell neaktualizovatelna? Tohle jsem nezazil.
Klidne tedy pokracuj a vysvetluj mi, ze technicky tomu nic nebrani ... faktem ale je, ze upgrade software na vyssi verze je na Linuxu casto peklo (opomijim Arch, Gentoo apod.)Clovek, ktery si nevybere rolling updates distribuci k tomu ma patrne nejaky duvod. On taky neni az takovy problem provest dist upgrade na vyvojove Ubuntu a pak jen updatovat baliky. Onanii nad vyssim cislem verze jsem nepochopil. A z vubec jsem enpochopil jestli to ma byt vyhoda zastinujici omezenejsi funkcnost a vetsi pomalost webovychl aplikaci.
Chci si nainstalovat na RedHat Linux 7.2 z roku 2001 novy Krusader. Novy Krusader potrebuje KDE4, ktery potrebuje Qt4, ktery potrebuje Glibc 2.X, ktery potrebuje jadro 2.6 a to do toho RedHatu asi nenainstaluju. Na WinXP (bez aktualizaci) z roku 2001 novy Total Commander nainstaluju bez problemu.Což je ale dané hlavně tím, že Windows jsou za peníze a autor aplikace nemůže počítat s tím, že uživatel je blbec a poběží pokaždé vyhodit peníze za novou verzi – tudíž je potřeba, aby aplikace fungovala i na starších verzích Windows. Zatímco v Linuxu můžeš s klidem předpokládat, že uživatel aktualizuje, protože to má zadarmo, je tu prostě jiná atmosféra, takže není potřeba* podporovat nějaké historické verze OS – kdyby to potřeba bylo, technicky tomu nic nebrání, můžeš aplikace linkovat staticky a můžou si tahat potřebné knihovny s sebou (pak budou fungovat i na starých verzích Linuxu).
Pouzivat rolling updates nebo dist upgrade na vyvojove ubuntu je casto zbytecne, kdyz clovek chce mit aktualni jen par programu.Chce to trochu změnu uvažování – připustit, že není potřeba dělat rolling updates a mít nějaké bleeding edge distribuce k tomu, abychom do aplikace v rámci běžných aktualizací přidávali nové funkce. Samozřejmě, pokud se jedná o balíček nějaké knihovny, na které je závislá spousta dalších věcí, je lepší ji moc neaktualizovat a jen záplatovat, protože kvůli nějaké nové funkci v knihovně by se toho mohlo hodně moc rozbít. Ale pokud jde o koncovou aplikaci, na které nic závislého není (např. desktopový klient ke GMailu, nebo Facebooku nebo jakékoli dnešní webové kravině), nemá se tu co rozbít a je možné v rámci běžných aktualizací dotlačit k uživateli i novou funkcionalitu. Nemám nic proti tomu, aby mi v desktopové aplikaci v rámci běžných aktualizací přibyly nové funkce – akorát se nesmí rozbít ty staré – ale stejně tak to funguje u webových aplikací, tam taky přibývají nové funkce, aniž bys to nějak ovlivnil a ani s tím nemůžeš nic dělat, prostě se jen přihlásíš a je to tam, akorát to musel někdo předem otestovat, aby se uživatelům nerozbily funkce, na které byli zvyklí (ale v tom se webové a desktopové aplikace neliší). Můžou vedle sebe v jedné distribuci fungovat aplikace – některé budou konservativnější (hlavně knihovny) a některé (ty které nahrazují dnešní webové aplikace) se naopak budou aktualizovat i o nové funkce.
Ale o tom tato diskuse neni ... bavili jsme se o snadnosti aktualizace, konkretne o tom, ze ve Windows je aktualizace software bohuzel mnohem snazsi nez v Linuxu.Spor Windows vs. Linux jsi do toho zatáhl ty – bavili jsme se obecně o webových vs. desktopových aplikacích. *) i když se to dělá – u serverových aplikací, které jsou přece jen konzervativnější, obecně serverové distribuce a aplikace mají delší podporu než desktopy.
pokud by meli aktualni aplikace, ktere pouzivaji, vubec by upgrade nedelaliV tom případě by měli být spíš vděční za to, že je aplikace k aktualizaci systému „pošťouchne“, než aby se o systém „nezajímali“ a měly ho děravý
Ono se vetsinou co rozbit maPokud aplikace není napsaná vyloženě idiotsky*, tak nemá co rozbít – leda samu sebe – ale to je ostatně její chyba – přece např. Google nebo Facebook nedodá distributorům aplikaci, která se sama rozbije a nefunguje, to by pro ně bylo kontraproduktivní – oni sami si to předem pořádně otestují. Znovu opakuji, že mluvím o koncových aplikacích (náhrady dnešních webových), ne o knihovnách, na kterých je závislá půlka systému.
To by bylo pekne ... dela to tak nejaka distribuce?Spíš jde o to, aby někdo psal takové aplikace. Ostatně i teď si můžeš přidat zdroje softwaru, který se ti bude aktualizovat častěji než běžný distribuční. (A prakticky na jedno kliknutí). *) což bych považoval spíš za vir než za aplikaci, např. kdyby přepisovala konfigurační soubory jiných programů, nebo mazala systémové soubory, přepisovala knihovny. (BTW: takové všivárny by aplikace mohla dělat i při své běžné bezpečnostní aktualizaci, takže tím si nijak nepomůžeš, že nepřipustíš upgrady spočívající v nové funkcionalitě)
Jo, ja spis myslel, ze rozbije samu sebe ... proto se takove balicky nebudou aktualizovat "automaticky" v update-manageru - nikdo nema rad, kdyz se mu neco rozbije bez jeho pricineni.Bez čího přičinění? Autor aplikace má zájem, aby aplikace fungovala – tudíž bude fungovat jen žádně otestované verze. Uživatel si v případě aplikace nemůže rozhodovat o ničem – nová funkcionalita (nová verze) mu tam prostě přibude a basta, nijak to nemůže ovlivnit. Pokud mu autor webovou aplikaci rozbije, tak s tím uživatel prostě nic nenadělá.
ale zdaleka ne na vsechnoA proč by měly být na všechno? Dejme tomu, že děláš nějakou webovou aplikaci a k ní (nebo místo ní) uděláš desktopovou aplikaci – stačí jen tahle jedna, nemusí existovat balíčky/úložiště pro milion dalších aplikací.
jsou pouze pro nejnovejsi verze distribuciS tím problém nemám. Když to vztáhnu na Ubuntu, tak považuji za normální, když aktuální verze aplikace budou mít balíčky pro poslední dvě verze (dnes 9.10 a 9.04), ostatní uživatelé, ať si svůj systém upgradují. Testovat* aplikaci pro rok nebo dva roky staré distribuce je zbytečná práce – je lepší se soustředit, aby aplikace perfektně fungovala v posledních verzích distribucí, než plýtvat svojí energií (výsledkem bude, že aplikace bude fungovat i ve starších verzích, ale mizerně**). (jen pro pořádek: mluvím o desktopových aplikacích a distribucích) *) a upravovat – kvůli starým knihovnám. **) pokud má někdo čas a peníze, aby aplikaci odladil např. i pro tři roky staré verze distribuce, budiž, je to jeho věc (ale většina autorů na to nemá, a pak je lepší aplikaci perfektně odladit pro poslední verze).
Uzivatel nema na vyber ani v jednom pripade, rozdil je ale v tom, jestli ma nebo nema aktualni verzi (pro poradek, webova aplikace - aktualni, desktopova aplikace - neaktualni).Desktopová aplikace si může zkontrolovat, jestli má poslední verzi a v krajním případě se může odmítnout spustit (odstraní se tím problémy, že server a klient jsou v jiné verzi) – nebo (což je vhodnější) aplikace používá nějaké stabilnější API pro komunikaci se serverem a uživatel má možnost používat starší i novější verzi, podle svého uvážení. (Vynutit upgrade se dá vždycky.)
Dovolim si tvrdit, ze webove aplikace to maji co do testovani snazsi, protoze musi pocitat pouze s ruznymi klienty, server zustava stejny. Kdezto desktopove aplikace musi pocitat s tim, ze cely runtime muze byt jiny.uff, jeden z největších opruzů při tvorbě webových aplikací je právě testování a optimalizace pro různé prohlížeče. Takže to „pouze s ruznymi klienty“ je celkem vážný problém. Hlavně předem nevíš, jaký prohlížeč uživatel použije, může to být cokoli – ale když děláš balíček pro nějakou distribuci, víš, jaké Qt/GTK tam bude.
Moc te nechapu, ale jde o to, ze chci mit aktualni danou aplikaci. Proto chci mit k ni dispozici repozitar s nejnovejsimi verzemi. Pro Ubuntu ale mam s najitim takovych repozitaru casto problem.Bavíme se o desktopových verzích aplikací, které jsou dnes webové. Tyhle aplikace musí někdo napsat* – a když už je napíše, tak je může aktualizovat jak často chce. Třeba vydat verzi po přidání každého tlačítka, každé jedné funkce a tuhle verzi procpat k uživateli přes balíčkovací systém.
Je mi jasne, proc to tak je, ale stejne se mi to nelibi. Jak v pripade webovych aplikaci, tak i treba Windows nejsem kvuli update jedne aplikace nucen instalovat/upgradovat cely system.Zřejmě po nic není poptávka – jinak tomu nic nebrání, aplikace se dají linkovat staticky, mohou si tahat knihovny s sebou (jako na Windows) a budou běhat i na starých verzích OS. Ale asi o to stojí moc málo lidí, tak se tyhle verze programů většinou nevyplatí dělat. Možná když budeš prudit vývojáře e-maily o tom, jak tyhle verze chceš, tak je pro tebe udělají… *) tzn. přenést se přes předsudky k desktopovým aplikacím, že se obtížně instalují aktualizují, obtížně komunikují přes zkriplené sítě atd.
Můžou vedle sebe v jedné distribuci fungovat aplikace – některé budou konservativnější (hlavně knihovny) a některé (ty které nahrazují dnešní webové aplikace) se naopak budou aktualizovat i o nové funkce. To by bylo pekne ... dela to tak nejaka distribuce?Debian?
Potenciální nebezpečí tu je, jistě. Taky je tu potenciální nebezpečí psychózy pro uživatele marihuany.A proto nesvěřuji svá data do cizích rukou a neužívám marihuanu
Goodle Docs nabízí výrazně méně funkcinonality než OOo. Má to vůbec nějakou systematickou podporu stylů? Table of contents? Osnova? Stránkově orientovaná funkcionalita. Tiskové nastavení? Různé natočení stránek. Typografické záležitosti jako kerning?Tak co jsem teď zkusil, tak styly tam jsou jenom odstavcové a je jich tam 8 (heading 1-6, paragraph a quote) a nejdou (nebo nevím jak) upravit. Styly znaků, odrážek a stránek jsem tam nikde nenašel. Kerning dělá Firefox, aplikace to neřeší. ToC to tak nějak umí, natočení stránek ne. A navíc je to na mém staříkovi strašně pomalé. Stručně – pro mě nepoužitelné. Ale BFU si s tím vystačí. Ti stejně typografii neřeší. Viz.
Mění uvolnění těchto zdrojáků situaci? Můžu si snadno na svůj centos dát Google Reader? Nebo Analytics? Nezabývali jste se tím někdo?To je ironie? Tohle jsou zdrojáky něčeho, co bych přirovnal ke klientovi.
Koncept toho mít všechno na serveru je v zásadě logickým pokračovánímNení to trvalý trend nebo logické pokračování, naopak, IT se spíš točí v kruhu, nebo po spirále, což dokládá, že neexistuje jediná správná cesta, že jsou různé možnosti. Už kdysi tu byla centralizace, všechno bylo na serverech a uživatelé používali jen hloupé terminály připojené po sériové lince, pak přišla decentralizace v podobě osobních počítačů, pak distribuovaná C/S řešení, teď zase více centralizace… Takhle to bude pořád dokola, jednou tak a jednou onak. Podobně je to s outsourcingem a vlastním vývojem – byly časy, kdy i výrobní podniky měly programátorská oddělení a vyvíjeli si i vlastní účetnictví, nebo (dříve) zase nikdo neměl počítače a data se dávala ke zpracování jiným firmám do jejich výpočetních center, dneska se zase outsourcuje kde co, kupuje se krabicový software nebo se dělá SaaS, ale zároveň se rozmáhá i vlastní vývoj, protože ne každému totiž padne jedna konfekční velikost, kterou nabízejí velcí dodavatelé. Zase doklad toho, že neexistuje nějaká jediná správná cesta, jeden směr, kterým by se trvale IT ubíralo… Částečně je to i tím, že peníze se vydělávají při změnách, jsou potřeba nové projekty, někdo si vybuduje kariéru na tom, že outsourcuje veškeré IT a tím uspoří (nebude přece platit ty mizerné a líné interní programátory), pak přijde jiný a ten vybuduje vlastní vývojářské oddělení a tím taky uspoří (nebude přece platit těm vydřiduchům dodavatelům). S centralizací a decentralizací je to podobné – jednou budeš prodávat centralizované řešení (protože když ti ukradnou notebook/mobil, data máš krásně na serveru) a jednou zase decentralizované (protože když tvůj server spadne, není všechno v háji a máš to ještě na desktopu/mobilu/notebooku, nebo máš jistotu, že ti do tvých dat nehrabe vláda nebo zvědavý zaměstnanec poskytovatele služby). A tak pořád dokola
Obávám se, že toto nelze srovnávat. Sálové počítače byla jediná možnost, jak zpracovávat velká data. PC ještě neexistovalo, nebo mělo velmi nízký výkon. Toto přetrvalo dodnes, jsou úlohy, které se stále zpracovávájí na "sálových počítačích" (ač se jim dnes říká jinak), protože jinde to nejde.
Dále bylo to sice centralizované, ovšem nikoliv globálně. Jedno výpočetní centrum mělo x klientů. Navzájem bez propojení. Dnes se to vše tlačí na "jedno místo". Nikoliv z hlediska topologie sítě, fyzických serverů je více než kdykoliv předtím, ale z hlediska majitele. A to je špatně.
Takže ano, z hlediska technologie je vhodné to centralizovat a tamto lokalizovat, což se neustále mění, ale prosím, ať je těch "center" co možná nejvíce. Internet vznikl jako peer to peer a dnes se dělá vše proto, aby to bylo master a slave (client a server nejsou vhodné termíny, centralizovaný server není služebník, nýbrž diktátor).
Internet vznikl jako peer to peer a dnes se dělá vše proto, aby to bylo master a slave (client a server nejsou vhodné termíny, centralizovaný server není služebník, nýbrž diktátor).Když to máš težký. Ono peer to peer se dost blbě udržuje, když má připojení k Internetu jenom pár desítek procent lidí, kteří jsou připojeni k „internetu“. Snad se to změní s nástupem IPv6.
Dále bylo to sice centralizované, ovšem nikoliv globálně. Jedno výpočetní centrum mělo x klientů. Navzájem bez propojení. Dnes se to vše tlačí na "jedno místo". Nikoliv z hlediska topologie sítě, fyzických serverů je více než kdykoliv předtím, ale z hlediska majitele. A to je špatně.jj, tohle mi taky vadí, ta centralizace z hlediska vlastníka-provozovatele.
/dev/
jsou víceméně natvrdo, hotplug dělá obdoba initu a XServer má taktéž konfiguraci natvrdo (žádná pomalá autodetekce), tak odhaduju rychlost bootu okolo deseti sekund do nahození Chrome. Pak už to nejspíš bude záležet na rychlosti připojení ...
/dev/
, ale nemusí zavádět žádné moduly (mimo jiné se tím dá ušetřit natahování initramdisku). Jen USB je vhodné inicializovat později, protože čekání na probuzení se připojených zařízení se moc zkrátít nedá. Třeba tím, že se blacklistuje ovladač řadiče (a udev ho pri coldplugu ignoruje) a pak se zavede ručně přes modprobe na pozadí během startu ostatních programů.
Ma to uz svuj vlastni web http://www.chromium.org/chromium-os.
Na tom webu je i navod jak si to sestavit doma vc. bootovatelnych imagu, ale ze by to slo zkompilovat zcela bez problemu se rict neda, skoncil jsem u vytvareni balicku hotoveho systemu. Tedkon na to nemam cas, ale v prubehu dne to zkousim zkompilovat, sam jsem zvedavy jak to vypada.
Tvrdí že nepoužívají init ram disk image, ale mezi balíčky jsem našel busybox-initramfs."Nová" jádra (2.6+) mají něco lepšího než initramdisk - initramfs. Je to vlastně do jádra vestavitelný (není to povinné)
.cpio
archiv, který se rozbalí do interního ramfs
(coz je vlastně jen mountovatelná disková cache), který je vždy přítomen a namountovaný jako rootfs
, a spustí /init
. Ten pak může dělat co hrdlo ráčí, pokud chce spustit "skutečný" /sbin/init
, musí ho exec()nout (u initramdisku stačilo ukončit linuxrc
). Narozdíl od initramdisku také není třeba žádný filesystém a i vytváření položek v /dev/
je jednodušší.
Více viz Introducing initramfs, a new model for initial RAM disks, osobně nechápu, proč se to zatím tak málo používá.