Portál AbcLinuxu, 30. dubna 2025 16:33
Až do dnešního dne jsem si myslel, že Windows nerozlišují velikost písmen, ale to jsem se šeredně spletl. Potřeboval jsem, aby se počítač vypínal od pondělí do pátku ve 21 hodin, i když na něho není nikdo přihlášený a jen zapnutý. Dělá se to pomocí příkazu AT s parametry. Žel lokalizátoři mají takový blbý zvyk, že překládají i parametry příkazů (viz také Excel). Takže na anglických Windows je parametr "M" (jako Monday) a na českých "Po". Pondělí je ještě v pohodě, ale představte si pátek a nebo dokonce čtvrtek a úterý.
Napřed jsem příkaz vyzkoušel na pondělku. Dal jsem tam "po" a pěkně to fungovalo. Totéž středa, pátek i sobota, ale úterý a čtvrtek ani ťuka. Na webu se mi k tomu nepodařilo nic najít. Měl jsem to rozdělané několik dní a už se smiřoval, že PC nebudu v úterý a ve čtvrtek vypínat :).
A dneska se zadařilo. Prostě u úterý a čtvrtka musí být na začátku velké písmeno (u ostatních dní ne) Dobře, že lokalizátor nebyl někde nablízku.
Jo a ten příkaz? AT 21:00 /EVERY:Po,Út,St,Čt,Pá,So shutdown -s
Tiskni
Sdílej:
Prostě u úterý a čtvrtka musí být na začátku velké písmeno (u ostatních dní ne)Haha, tohle je geniální trolling. Představ si, jak se museli nasmát, když to tam přidávali.
wchar_t
(Windows nedodrzuje)
Unicode nema nic spolecneho s lokalizaci/nebo locales.Nesouhlasím, že nemají nic společného.
jeden znak = jeden wchar_t (Windows nedodrzuje)Není obecně potřeba.
pri praci s cimkoliv mimo 7bit ASCII se pouzivaji siroke znaky a odpovidajici funkceNení obecně potřeba.
Pouzivani locales je naprosto v poradku a bezproblemove, pokud… dusledne se pouzivaji locales tak kde se maji pouzivatNic neříká.
To jestli nektera je nektera cast kodovana v UnicodeAž na to, že Unicode je dnes především znaková sada.
(at uz UTF-8,UTF-16 nebo UTF-32) je uplne sumak.Nevím, na co narážíš. Všechny uvedené dokážou reprezentovat všechny code pointy Unicode. Nějak nevidím smysluplný spor, snad kromě toho, že popíráš jakoukoli souvislost mezi Unicode a locales.
Není obecně potřeba.Pokud tohle neplati, neni mozne pouzivat standardizovane API (pokud se teda bavime o C99/POSIX a ne C++11).
Nějak nevidím smysluplný spor, snad kromě toho, že popíráš jakoukoli souvislost mezi Unicode a locales.Ano popiram, protoze ANSI C++ (C++03), C99 a POSIX jsou agnosticke vuci znakove sade/kodovani.
Pokud tohle neplati, neni mozne pouzivat standardizovane API (pokud se teda bavime o C99/POSIX a ne C++11).Non sequitur. Jako důkaz snad postačí, že se toto API pro non-ASCII řetězce používá.
Ad 1) Není to můj počítač, ale v jedné neziskovce, kde se to kupuje od Boxed už s Windows a tak se jiný systém neřeší.
Ad 2) Jedu přes vzdálený přístup a přes commandline mi to přišlo jednodušší. Navíc když to vytvořím přes commandline, tak se to vytvoří s takovými právy, že to Task Scheduler neumí editovat a musí si to přeuložit s jinými právy. Nechtěl jsem zbytečně měnit něco, co funguje - potřebuji to vypínat, i když není uživatel přihlášený.
Ad 3) Viz Ad 1).
Ad 4) :).
Já jsem o těch průšvizích věděl - už jsem na to jednou narazil ve Windows XP. Tam byl problém s diakritikou a pořešil se editováním přes "edit" vestavěný editor. Tady ho jednak nemůžu najít a jednak byl průšvih v něčem jiném.
Neobviňujme POSIX a ostatní.
Problém je v Microsoft. Proč vymýšleli v MS nějaké kódové stránky pro českou diakritiku (od DOS po Windows snad 4 varianty), když od 60tých let minulého století měla česká i slovenská kódová stránka ISO - standard?
Pokusili se o to i v Německu, ale tam si dupli a museli jim ISO ihned zavést.
Stačí si s českou diakritikou pojmenovávat soubory/adresáře/složky a jejich vlastní vyhledávač je v některých případech ignoruje. Mám ověřeno vůči Copernic Desktop Search-vyhledávači. CDS to umí.
No ale oboje normy jsou standardy ISO International Organization for Standardization nebo novější Unicode is a computing industry standard
ISOA Unicode vychází z ISO-8859:
Unicode has the explicit aim of transcending the limitations of traditional character encodings, such as those defined by the ISO 8859 standard ...
Samozřejmě rozumím a souhlasím.
Problém MS vytvořil v tom, že než se rozběhlo Unicode, tak vygeneroval několik kódovacích stránek pro obrovské množství informačních databází a znalostních databank.
Ve vzniklé kódovací džungli se potom vyhledávací roboti ztrácí a dohledání informací je problematické.
Bohuzel dokud budeme mit Windows tak 8bit kodove stranky nebudou nikdy zbytecne.To by nic neměnilo na tom, že na ně už není potřeba pohlížet jako na znakové sady a redefinují se jako neúplná kódování unicode. Ale ani tak si nemyslím, že máš pravdu. Windows nemají ani tak problém s absencí unicode, jako s provedením. Ale zdaleka v tom nejsou samy. A zdaleka to není jen vina Microsoftu.
Windows vs. Unicode je velmi smutny a dlouhy pribeh.Neměl MS už v době win3.11 něco jako unicode? Pamatuju si, že během vrtání v binárkách byly některé textové řetězce tvořené nulou a normálním znakem.
Tvůj předchozí komentář se zdá být mimo téma.Nejsem o tom přesvědčen.
Pro pořádek: psal jsi ho ve vztahu k současnosti, nebo ve vztahu k té době kdy MS vytvářel cp1250?K současnosti, tedy časově spíše vzhledem k obsahu blogpostu než komentáře. Použité slovo navíc mělo značit, že se snažím informaci podpořit a doplnit, nikoli popřít.
Non-ISO extended-ASCII text, with very long lines, with CRLF line terminators
Vypadá to jako cp1250, ale není, je to nějaký jeho paskvil. Nakonec jsem nevydržel se s tím babrat a načetl jsem to ve Wmvare do Widlí, přeuložil do UTF-8 a pohoda.
A jak píše autor, překlady funkcí stojí za dvě věci ..
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.