Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
IBM kupuje společnost HashiCorp (Terraform, Packer, Vault, Boundary, Consul, Nomad, Waypoint, Vagrant, …) za 6,4 miliardy dolarů, tj. 35 dolarů za akcii.
Byl vydán TrueNAS SCALE 24.04 “Dragonfish”. Přehled novinek této open source storage platformy postavené na Debianu v poznámkách k vydání.
Nazdar. Střípky znalostí, jak už název napovídá, jsou určeny k sbírání různých útržků, které bych si jinam asi nezapsal. Tady je na ně vhodné místo. Ale píšu sem jenom občas. Jinak, další zajímavé informace najdete na mých stránkách.
Vyrobil jsem si jednoduchý PHP skriptík na zálohování databáze na svých stánkách. Na požádání vyexportuje databázi (mysql) do souboru, volitelně ho zkomprimuje a vypíše URL zálohy. Nic složitého, ale někomu by se to mohlo hodit. (Třeba mě, až na něj zapomenu. ;)
Při spuštění se to zeptá na typ komprese (bzip2, gzip, bez komprese). Jakmile to ví typ komprese, databázi vyexportuje, zkompimuje a uloží do souboru a zobrazí odkaz na něj. Např. databaze-2005_05_18-21_30.sql.bz2
.
Co si s tím dál uživatel udělá je na jeho fantazii. Někomu stačí si ten soubor jednoduše stáhnout a uložit někam do archivu. Lepší by ale bylo si napsat shellový skriptík (nejlépe volaný pravidelně z cronu), který tuhle stránku zavolá, soubor stáhne a uloží. Případně by se ten soubor dal ještě automaticky nahrát do lokalního mysql serveru pro vývoj doma. Fantazii se meze nekladou.
<?php
/* Skript na jednoduche zalohovani mysql databaze.
* Autor: Bohumir Zamecnik - zamecnik.org
* Licence: GNU LGPL
*/
$host = "pocitac";
$user = "uzivatel";
$pass = "heslo";
$db = "databaze";
$path = getcwd();
$file="$path/$db-".date('Y_m_d-H_i').'.sql';
$self = basename($_SERVER["SCRIPT_NAME"]);
switch($_GET["c"]){
case "gz"; case "gzip":
$compress = "|gzip -c"; $file .= ".gz"; break;
case "bz2"; case "bzip2":
$compress = "|bzip2 -c"; $file .= ".bz2"; break;
case "none":
$compress = "";break;
default:
$ask = true;
?>
<p>Typ komprese:</p>
<ul>
<li><a href="./<?=$self?>?c=bz2">bzip2</a></li>
<li><a href="./<?=$self?>?c=gz">gzip</a></li>
<li><a href="./<?=$self?>?c=none">žádná</a></li>
</ul>
<?
}
if(!$ask){
echo "<a href='./".basename($file)."'>".basename($file)."</a>";
exec("/usr/bin/mysqldump -u $user -p$pass -h $host --opt $db $compress > $file");
}
?>
Ještě může být vhodné si do adresáře na serveru, kde je onen zálohovací skript, pokud tam teda běží Apache, dát vhodně nastavené soubory .htacces
a .htpasswd
:
$cat .htaccess
Options +Indexes
AuthUserFile /cesta/k/adresari/kde/lezi/.htpasswd
AuthName "Backup"
AuthType Basic
Require user uzivatel
$htpasswd -c .htpasswd uzivatel
$cat .htpasswd
uzivatel:ja_jsem_sifovane_heslo_bla_bla_bla
První řádek v htaccessu nám povolí ukazovat obsah adresáře, pokud tam není výchozí soubor (většinou index.html nebo index.php). To je proto, abychom mohli vidět i staré zálohy. Zbylé řádky se starají o zaheslování pomocí HTTP autorizace. Přece nenecháme naše zálohy ani přístup ke skriptu otevřený veřejnosti. Nakonec si vytvoříme soubor se šifrovaným heslem. K tomu slouží program htpasswd
(přibalený k Apachovi), který se nás zeptá na heslo a celé to zašifrovaně uloží do souboru.
Ani to nebolelo, co? No snad tam někde nejsou překlepy v tom kódu. Jinak, asi existuje dost sofistikovanějších skriptů a programů, ale já jsem potřeboval něco úplně jednoduchého. A pokud se to někomu hodí (byť jako inspirace), budu rád.
Tiskni Sdílej:
InnoDB does locking on the row level and also provides an Oracle-style consistent non-locking read in SELECT statements.
Podivej se na zdrojaky phpmyadmina jak to tam resi, je tam presne to co delas ty, akorat je to klikaci.hm, na phpMyAdmin jsem taky pomyslel, a když jsem četl:
Někomu stačí si ten soubor jednoduše stáhnout a uložit někam do archivu.tak jsem pak chvíli dumal, na co vlastní skript ...?
mysqldump
nemusí být o moc lepší…
mysqldump
volám proto s parametrem --opt
, což je zkratka pro mysqldump --quick --add-drop-table --add-locks --extended-insert --lock-tables
. Právě pomocí --lock-tables
se před vlastním dumpem zamknou tabulky, aby se v nich nic nemohlo měnit. Dále je tam volba --add-locks
, která do dumpu přidá příkazy pro opětovné zamknutí tabulek, při nahrávání do databáze. Tak jsem to alespoň pochopil z manuálu.
Kdyby se jednalo o web s třeba tisíci a více přístupů za den, kde to opravdu žije, databáze a konzistence dat by mě asi trochu zajímala více. Ale tohle jsou zatím obyčejné osobní stránky se skromným trafficem. Takže mě to zatím nějak moc netrápí. A nouzi nejhorší můžu použít nějakou starší zálohu a zkusit to mergnout s tou nejnovější, která by byla poškozená tak, aby se ztratilo, co nejméně informací.