V pořadí šestou knihou autora Martina Malého, která vychází v Edici CZ.NIC, správce české národní domény, je titul Kity, bity, neurony. Kniha s podtitulem Moderní technologie pro hobby elektroniku přináší ucelený pohled na svět současných technologií a jejich praktické využití v domácích elektronických projektech. Tento knižní průvodce je ideální pro každého, kdo se chce podívat na současné trendy v oblasti hobby elektroniky, od
… více »Linux Foundation zveřejnila Výroční zprávu za rok 2025 (pdf). Příjmy Linux Foundation byly 311 miliónů dolarů. Výdaje 285 miliónů dolarů. Na podporu linuxového jádra (Linux Kernel Project) šlo 8,4 miliónu dolarů. Linux Foundation podporuje téměř 1 500 open source projektů.
Jean-Baptiste Mardelle se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 25.12.0 editoru videa Kdenlive (Wikipedie). Ke stažení také na Flathubu.
OpenZFS (Wikipedie), tj. implementace souborového systému ZFS pro Linux a FreeBSD, byl vydán ve verzi 2.4.0.
Kriminalisté z NCTEKK společně s českými i zahraničními kolegy objasnili mimořádně rozsáhlou trestnou činnost z oblasti kybernetické kriminality. V rámci operací OCTOPUS a CONNECT ukončili činnost čtyř call center na Ukrajině. V prvním případě se jednalo o podvodné investice, v případě druhém o podvodné telefonáty, při kterých se zločinci vydávali za policisty a pod legendou napadeného bankovního účtu okrádali své oběti o vysoké finanční částky.
Na lepší pokrytí mobilním signálem a dostupnější mobilní internet se mohou těšit cestující v Pendolinech, railjetech a InterPanterech Českých drah. Konsorcium firem ČD - Telematika a.s. a Kontron Transportation s.r.o. dokončilo instalaci 5G opakovačů mobilního signálu do jednotek Pendolino a InterPanter. Tento krok navazuje na zavedení této technologie v jednotkách Railjet z letošního jara.
Rozšíření webového prohlížeče Urban VPN Proxy a další rozšíření od stejného vydavatele (např. 1ClickVPN Proxy, Urban Browser Guard či Urban Ad Blocker) od července 2025 skrytě zachytávají a odesílají celé konverzace uživatelů s AI nástroji (včetně ChatGPT, Claude, Gemini, Copilot aj.), a to nezávisle na tom, zda je VPN aktivní. Sběr probíhá bez možnosti jej uživatelsky vypnout a zahrnuje plný obsah dotazů a odpovědí, metadata relací i
… více »QStudio, tj. nástroj pro práci s SQL podporující více než 30 databází (MySQL, PostgreSQL, DuckDB, QuestDB, kdb+, …), se stal s vydáním verze 5.0 open source. Zdrojové kódy jsou k dispozici na GitHubu pod licencí Apache 2.0.
Byla vydána nová verze 259 správce systému a služeb systemd (Wikipedie, GitHub).
Cloudflare Radar poskytuje aktuální informace o globálním internetovém provozu, útocích nebo trendech. Publikován byl celkový přehled za rok 2025. Globální internetový provoz vzrostl v roce 2025 o 19 %.
Nedavno jsem musel prevadet nekolik druaplu z postgres (databaze, kterou mam rad) do mysql (databaze, kterou nemam tolik rad). Ackoliv tvrdim, ze postgres je pro mne o moc lepsi nez mysql, tak v pripade drupalu to bohuzel plati obracene. Mnoho tvurcu modulu pro drupal pouziva specificke dotazy, ktere funguji jen na mysql a tak se mi casto stava, ze pri instalaci modulu mam neustale potize a neustale priohybam moduly pro pouziti s postgres databazi.
Priohybani modulu je spatna vec, protoze mi to znemoznuje updaty. Priohybani modulu je rovnez otravna vec a odvadi mne to od puvodniho zameru (pouzit modul a pokracovat v praci). Dale je potreba vzit v uvahu fakt, ze pokud ma drupal podporovat (take) mysql, tak jsme omezeni maximalne tim, co poskytuje mysql. Tedy nelze cekat vyuzivani schopnosti dospelejsich databazi (uzivani nestandardnich konstrukci jeste nic nerika o tom, ze je mysql "lepsi" databaze - mel jsem na mysli relace, nebo provadeni kodu v databazi a jine veci, ktere by dokazaly delat aplikace mnohem rychlejsi nez ty, ktere pouzivaji databazi jen na ulozeni a poskytnuti obsahu tabulky).
Ukazalo se, ze prevod smerem z postgres do mysql neni uplna samozrejmost (google tvrdi, ze obracene to lze celkem snadno).
Tedy kdyz uz mam za sebou nekolikaty uspesny pokus a vzdy to bylo badani, tak jsem se rozhodnul, ze si ten postup zazalohuju sem na abicko, kde mozna muze byt i dalsim k uzitku.
Tedy postup:
- mame bezici drupal na pg
- mame jiz vytvorenou mysql databazi a nejsou v ni zatim vytvorene zadne tabulky
Konverze tabulek z pg do mysql se zda byt pomerne osemetna a fakt dost pracna zalezitost. Existuje na to jakesi udelatko, ale nefunguje spravne a konverze dopadla vzdy spatne - tedy bylo zapotrebi velmi mnoho rucni prace, kterou mohl udelat ten script a chybely indexy, primarni klice atd... Nebyly spravne nastavene default hodnoty a spousta dalsiho...
Kdyz uz se mi konecne podarilo doladit import a vytvorit pracne vsechny indexy a predtim samozrejme poopravovat definice tabulek tak, aby je mysql zkouslo, tak se nakonec stejne ukazalo, ze nekde zustaly nejake chyby a aplikaci se mi ve finale nepodarilo rozbehat.
Z vyse popsanych duvodu se na to muselo jit jinak:
- v puvodnim drupalu (bezicim na pg) jsem pro jistotu povypinal vsechny cache a vycistil cache
- v administraci modulu (/admin/build/modules) jsem si zaznamenal kazdy zapnuty modul (toto je dulezite!)
- potom jsem v settings.php zmenil $db_url = 'pgsql://..... na $db_url = 'mysqli://..... - spustil jsem drupal (toho casu jiz nad prazdnou mysql databazi) a povolil jsem instalaci (drupal zacal vytvaret tabulky) a tu jsem dokoncil
- po prilogovani do noveho drupalu jsem skocil opet do administrace modulu (/admin/build/modules) a vsechny (ty, ktere byly v pg verzi zapnute) jsem je pozapinal (to jedulezite kvuli tomu, ze se zacnou vytvaret tabulky v db a tentokrat se vytvori spravne - ne jako ty moje pokusy s konverzemi)
Nyni bychom meli mit v obou tabulkach stejny pocet tabulek stejnych struktur.
Stalo se mi, ze se mi nevytvorila tabulka upload (cert vi proc), ale nebyl problem, protoze po presunu dat mezi db se to projevilo (do te doby jsem to nevedel) a pak stacilo jen vypnout modul upload a nechat ho drupalem odinstalovat (tohle je dulezite!) - drupal se zaroven pokusil smazat tu tabulku (neuspesne, ale to nevadi nicemu) a od te chvile si myslel, ze tam neni nainstalovan modul upload (to jsme chteli). Opetovne zapnuti tohoto modulu zpusobilo take jeho spravne vytvoreni v databazi. Neocekavam, ze by se to melo zopakovat, ale demonstruje to postup pri podobnem problemu.
Podstatne je, ze nize prilozeny script si nacte tabulky v mysql a ty, ktere najde, prochazi v pg a taha z nich data. Pred pouzitim tabulku promaze (ale muzeme je pro jistotu vyprazdnit i my).
Nasledne jsem, v puvodni postgres zcela vyprazdnil tabulky, ktere zacinaly na search_ (po presunu staci jen spustit cron.php a search tabulky se zacnou opet plnit a vse pojede - me to bohuzel pri vsech prechodech zpusobovalo duplicitu klicu pri importu dat, takze jsem musel search_ tabulky vyprazdnit vzdy).
Nasledne jsem jiz jen do prilozeneho scriptu spravne vyplnil udaje o obou databazich a script jsem spustil: php -f ./migrate_tables.php Tento script jsem vycenichal nekde na netu a nepsal jsem ho ja. Rad bych uvedl odkaz na zdroj, ale jelikoz jsem ho nemohl najit predtim, tak mne to donutilo si zapsat tento zapisek jako zalohu postupu a nastesti jsem ho alespon nasel z drivejska na stroji, kde jsem delal prevod kdysi davneji a nemusel jsem ho psat/hledat znovu (i kdyz nic sloziteho to neni, ale cas by to sezralo, takze jsem fakt rad, ze se nasel).
<?php
$my_host = 'localhost';
$my_user = 'mysqluser';
$my_pass = 'mysqlpwd';
$my_db = 'mydb';
$count_all = 0;
error_reporting ( E_ALL );
ini_set("display_errors", 1);
ini_set("display_startup_errors", 1);
$pg_conn = pg_connect( "dbname='pgdb' host='localhost' user='pguser' password='pgpwd' options='--client_encoding=UTF8'" );
$my_conn = mysql_connect( $my_host, $my_user, $my_pass );
if( !mysql_select_db($my_db) ){
echo "Unable to select mydbname: " . mysql_error();
exit;
}
mysql_query("SET character_set_results = 'utf8', character_set_client = 'utf8'");
mysql_query("SET character_set_connection = 'utf8', character_set_database = 'utf8', character_set_server = 'utf8'");
$tables = array();
$res = mysql_query( 'show tables' );
while ($row = mysql_fetch_assoc($res)) {
$tables[] = array_pop($row);
}
foreach( $tables as $table ){
$columns = array();
$res = mysql_query( 'desc '.$table );
while ($row = mysql_fetch_assoc($res)) {
$columns[ $row['Field'] ] = $row['Type'];
}
$inserts = array();
$data_res = pg_query( "select * from ".$table.";" );
while( $row = pg_fetch_assoc($data_res) ){
$cols = '';
$data = '';
$joiner = '';
foreach( $row as $key => $val ){
$cols .= $joiner.$key;
// we need a hack if column is tinyint and we insert t/f then convert
if( $columns[$key] == 'tinyint(1)' && ($val == 't' || $val =='f') ){
if( $val == 't' ){
$data .= $joiner."1";
}elseif( $val == 'f' ){
$data .= $joiner."0";
}
}else{
$data .= $joiner."'".mysql_escape_string($val)."'";
}
// this will set joiner to , so only the first one does not have coma in front
$joiner = ",";
}
$inserts[] = "INSERT INTO ".$table." (".$cols.") VALUES (".$data.");";
}
mysql_query( "DELETE FROM $table;" );
echo "\n".$table."\n";
foreach ( $inserts as $insert ){
# echo $insert."\n";
mysql_query( $insert );
if( mysql_errno() != 0 ){
print_r( mysql_error() );
die();
}
if( $count_all % 101 == 0 ){
echo '.';
}
}
}
Tiskni
Sdílej:
Verim, ze tim se ty problemy s db nadobro vytrati. Soude dle dbapi v .install v sestce se dalo tusit, ze to bude smerovat k vyreseni problemu s kompatibilitou databazi. Drupal je uzasny!
Trosku trva si na to zvyknout, ale kdyz se nad tim clovek zamysli, je to jasny.
$query = db_select('node', 'n')->fields('n', array('nid', 'comment', 'promote', 'sticky', 'uid', 'status', 'created', 'changed' ));
$query->fields('nrs', array('title', 'body', 'teaser', 'format'));
$query->condition('n.type', 'blog');
$query->leftJoin('term_node', 'tn', 'tn.nid = n.nid');
$query->leftJoin('term_data', 'td', 'tn.tid = td.tid');
$query->leftJoin('node_revisions', 'nrs', 'nrs.vid = n.vid');
$query->leftJoin('files', 'f', 'f.nid = n.nid');
// Gives a single comma-separated list of related terms
$query->groupBy('tn.nid');
$query->groupBy('f.nid');
$query->addExpression('GROUP_CONCAT(td.name)', 'terms');
$query->addExpression('GROUP_CONCAT(f.filepath)', 'files');