Homebrew (Wikipedie), správce balíčků pro macOS a od verze 2.0.0 také pro Linux, byl vydán ve verzi 4.5.0. Na stránce Homebrew Formulae lze procházet seznamem balíčků. K dispozici jsou také různé statistiky.
Byl vydán Mozilla Firefox 138.0. Přehled novinek v poznámkách k vydání a poznámkách k vydání pro vývojáře. Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 138 je již k dispozici také na Flathubu a Snapcraftu.
Šestnáctý ročník ne-konference jOpenSpace se koná 3. – 5. října 2025 v Hotelu Antoň v Telči. Pro účast je potřeba vyplnit registrační formulář. Ne-konference neznamená, že se organizátorům nechce připravovat program, ale naopak dává prostor všem pozvaným, aby si program sami složili z toho nejzajímavějšího, čím se v poslední době zabývají nebo co je oslovilo. Obsah, který vytvářejí všichni účastníci, se skládá z desetiminutových
… více »Richard Stallman přednáší ve středu 7. května od 16:30 na Technické univerzitě v Liberci o vlivu technologií na svobodu. Přednáška je určená jak odborné tak laické veřejnosti.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.04.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
TmuxAI (GitHub) je AI asistent pro práci v terminálu. Vyžaduje účet na OpenRouter.
Byla vydána nová verze R14.1.4 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5, Wikipedie). Přehled novinek i s náhledy v poznámkách k vydání. Podrobný přehled v Changelogu.
Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
Problematiku je přitom třeba vidět v širších souvislostech. Například dříve si každý průměrný automechanik-amatér byl schopen opravit spoustu závad na autě, dnes však musí do servisu, vybaveného diagnostickým zařízením ..Trend je zadávat služby třetím stranám, doba "kutilů" je již definitivně za námi ..
A nyní se dostáváme k problematice cloud computingu. Firma má možnost zadat péči i svá data i síť někomu vzdálenému, který se bude starat i o chod serveru, zálohování dat apod. Firma ušetří za běžnou údržbu, ale bude platit pravidelný poplatek někomu dalšímu. Lidé, kteří cloud computing propagují říkají, kolik se ušetří peněz, času a nervů, když třeba lokální server selže. Poskytovatel cloudu zajistí obnovu serveru sám.
Je to právě tahle cesta, kterou se bude ubírat logistika menších i větších firem? Odzvonilo lokálním firemním serverům? Ano, řada otázek je na místě: Jak jsou data uložená třeba na druhém konci světa bezpečná? Nemůže je poskytovatel zneužít, případně nedojde k prolomení ochrany? Nebudou vzdálené servery třeba v málo bezpečných teritoriích?
V neposlední řadě je tu také spolehlivost připojení. Ta stále stoupá, dnes je situace jiná, než třeba před 5 lety. Ale budou data dostupná třeba právě v okamžiku, kdy dojde ke klíčovému jednání se zákazníkem? Ano - zálohování dat. Ale to samo o sobě není triviální záležitost a někdo se mu musí věnovat.
Některé přední IT firmy dávají cloudu zelenou. V první řadě Microsoft. Bude to další krok ke změně světa ve stylu "Big Brother"? Firemní data hromadně v cizích rukou, trochu mě z toho mrazí, domýšlím-li si různé katastrofické scénáře, počínaje ještě větším zneužíváním cílených reklam. Ale já jsem ze starého světa - uznávám to. Rád bych znal názory mladších a v IT branži kompetentnějších osob v této záležitosti.
Tiskni
Sdílej:
Pokud o HW, obnova škáluje pouze s velikostí databáze.No jo, pouze...
Pokud aplikační problém, proboha, jak se ti to mohlo stát, nepoužíváte QA?Samozřejmě, že zákazníci mají QA systém, ale to neznamená, že ten kdo ty systémy spravuje nemůže uděla chybu, nebo že se něco při testování nepodaří odhalit.
A jak se dělá QA systém? Hmm, jak by se asi dělal, udeláš dump z produktivního systému, instalace s importemAha, jak dlouho chceš exportovat tu 8TB velkou databázi? A jaký to bude mít performace impact na výkon? U velkých systémů by si udělal klasický bare metal disaster recovery, udělal post stepy na tom systému a pak připojil do sítě. To že ty děláš ve společnosti kde jsou 4 IT specialisti a databáze má 200GB je sice pěkné, ale zkus začít přemýšlet ve větších měřítcích, databáze co se sizují po TB, prostředí, kde se dodržuje ITIL. Zkus si taky představit situaci, že se nejedná o přeplácnutí starého QA systému, ale že zákazník chce klon svého rok starého produkčního SAPu. Takže musíš deploynout nový server, udělat storage provisioning, network konfiguraci, OS deployment a pak restore s post stepy.
8TB z pásek 4 dny? teda nevim co tam v tom helsinki používáte vy, ale..zastaralá LTO3 mechanika dává běžně 80-140MB/s (záleží na kompresi atd.)To sice jo, ale jen pokud je po FCčku připojená přímo k tomu serveru a ne přes sdílený backup ethernet po kterém teče hromada dalšího trafficu. A taky bych nezapomínal na to, že je potřeba ještě přehrát archivní logy, což si taky vezme nějaký ten čas.
klony dneska umí kdejakej midrangeJak přesně chceš klonovat systém, který si zazálohoval na pásky a na poli ho už nemáš?
ITIL je sada velice obecných doporučení, která se zhusta aplikují tak, aby prostě jen byla, ne aby něčemu pomohla.ITIL je sada doporučení, které se implementují u service providerů aby měli alespoň nějaké procesy na které se zákazník může spolehnout a ne aby každý dělal co se mu zlíbí, nebo třeba taky nic. A můžeš mi říct, kde přesně jsem řekl, že ITIL je něco skvělého a úžasného? Já totiž ITIL (respektive ITSM nějaké procesy) považuju za sice nutné, ale velké zlo bez kterých se velké společnosti neobejdou.
Za jak dlouho je server nasazen do prostředí, není fce vyjádřená počtem zaměstnanců, spíš platí - čím víc jsi zaoutsourcován, tím víc čekáš.Čím více má firma zaměstnanců tím více má zpravidla restriktivnější pravidla a procesy, které se při takovém nasazování musí dodržet - tedy více administrativy kolem, proto to trvá déle.
To sice jo, ale jen pokud je po FCčku připojená přímo k tomu serveru a ne přes sdílený backup ethernet po kterém teče hromada dalšího trafficu.
To je ovšem amaterismus nejhrubšího zrna Vše záleží na tom, jak moc si dat (a rychlosti případné následné obnovy) ceníš. Každý si snad spočte, že pokud mají data nějakou cenu, vezmu raději zálohu a letím s ní na druhý konec světa tryskáčem, kde provedu rychlou obnovu, než abych to cpal přes sdílený ethernet...
Čím více má firma zaměstnanců tím více má zpravidla restriktivnější pravidla a procesy, které se při takovém nasazování musí dodržet - tedy více administrativy kolem, proto to trvá déle.
Právě z toho důvodu, že jsou pravidla restriktivnější a procesy jednotné, přesně popsané a v principu jednoduché, trvá jejich nasazení kratší dobu. Nevím kde jsi vyčetl, že to trvá déle...
Právě z toho důvodu, že jsou pravidla restriktivnější a procesy jednotné, přesně popsané a v principu jednoduché, trvá jejich nasazení kratší dobu. Nevím kde jsi vyčetl, že to trvá déle...V praxi, protože ne každý požadavek zákazníka bude v service description partiřné služby. :)
To je ovšem amaterismus nejhrubšího zrnaVšechno je to o penězích, zkus si spočítat kolik by tě stála dedikovaná LTO4 mechanika pro každý server v datacentru kde máš 10 000 serverů :) A taky nevím kde si vzal to, že ta serverovna je na druhém konci světa. A je to sdílený backup ethernet (tedy ethernet dedikovaný pro zálohování, ale sdílený mezi všemy servery co se zálohují) a i po něm to jede 60MB/s, zkus si spočítat cenový rozdíl mesi SANem a tím Ethernetem a možná zjistíš, že těch 20MB/s rozdíl ti za to ve většině případů nestojí. Jistě, pokud máš pár serverů a jeden SAN, tak není problém do toho SANu do jiné zóny připojit ještě tu jednu páskovou knihovnu a zálohovat přímo po SANu. A BTW hodně štěstí s nakládáním StorageTek Enterprise páskových knihoven do tryskáče a s následnou instalací v cílovém datacentru. :) Nebo si fakt myslíš, že si prostě z té knihovny ty pásky vytáhneš, pošleš a tam je do nějaké jiné knihovny strčíš? Hodně štěstí s podporou od vendorů...Vše záleží na tom, jak moc si dat (a rychlosti případné následné obnovy) ceníš. Každý si snad spočte, že pokud mají data nějakou cenu, vezmu raději zálohu a letím s ní na druhý konec světa tryskáčem, kde provedu rychlou obnovu, než abych to cpal přes sdílený ethernet...
Pravda, záměr může být to, že je ani vědět nechci, ale to je jiná story.Pokud je tam kde pracuješ korporátní jazyk angličtina, je pochopitelné, že český termín je pro Tebe zbytečně zabraná kapacita v paměti..:)
Je to záměr. On se k tomu hrdě hlásí.Mohu požádat o link? Ať jsem v obraze...
Nuz velke objekty ktore nerobia v IT obycajne (imo 98% pripadov) zaplatia service providera.Jemu akurat povedia ze co chcu
Hranica medzi outsourcingom a cloudom je nejasna: obcas hardware vlastni service provider, obcas jeho zakaznik a casto je vlastnictvo hardweru tazko definovatelne (rozne druhy leasingu ... ) - rovnako sa aj lisi co este je pod spravou offshoringu.
Hlavní benefit za cloudem ve velkých společnostech je business agility, jak dlouho si myslíš, že trvá deploynout nový server ve společnosti s 20 000 zaměstnanci? I virtualizovaný server se do produkce dává třeba 2 měsíce, s cloud infrastrukturou se dá tohle snížit třeba na 2 dny, nebo i na pár hodin.Co se dá reálně stihnout je jedna věc, dohodnuté SLA věc druhá
Pokud jsou data nějakým způsobem šifrovaná je skoro jedno kde jsou.Pokud to nebylo myšleno jako vtip, tak doporučuju se trochu víc zamyslet. Prvně ta věta tak příšerně zjednodušuje, že je už od začátku jasné, že je to kec. Druhá věc je, že ta data jsou aktivně používána, tudíž v rozšifrované podobě.
... Bohužel v podobě, jak je zákazníkům dnes vnucován je to IMHO největší katastrofa v dějinách IT a počátek cesty společnosti do otroctví.Napriek mojmu zvysenemu prahu paranoie a nutnej davke opatrnosti som sa rozhodol presunut 3 mnou spravovane firmy pod google apps. Zatial (!) som na ziaden problem nenarazil a neregistrujem ziaden naznak toho, ze by nejake interne informacie boli zneuzite. Je pravda, ze cas ukaze, firmy mozu lahko podlahnut politickym tlakom a data vydat, ale to mi pride pravdepodobnejsii nasrany zamestnanec, ktory vytrubi tajne veci svetu. A to je potom jedno, kde tie data lezia.
... být závislý na připojení do InternetuHm? Kolko % ceskych firiem by lahlo popolom, alebo sa otriaslo v zakladoch, keby im vypadla konektivita dajme tomu na rok? Odhadujem dobrych 20-40%.
... nemít pořádnou kontrolu nad aplikacemi, které s těmi daty pracujíPocitace zamestnancov velkeho mnozstva firiem ( chce sa mi povedat vacsiny ) su plne aplikacii, ktore nie su pod kontrolou a nikto poriadne nevie, co v skutocnosti robia ( preslaveny skype, rozne picovinky a hry, samotny windows ako taky, virusy, alebo akykolvek closedsource software nepochadzajuci od dobre znameho dodavatela ).