Byl vydán Nextcloud Hub 8. Představení novinek tohoto open source cloudového řešení také na YouTube. Vypíchnout lze Nextcloud AI Assistant 2.0.
Vyšlo Pharo 12.0, programovací jazyk a vývojové prostředí s řadou pokročilých vlastností. Krom tradiční nadílky oprav přináší nový systém správy ladících bodů, nový způsob definice tříd, prostor pro objekty, které nemusí procházet GC a mnoho dalšího.
Microsoft zveřejnil na GitHubu zdrojové kódy MS-DOSu 4.0 pod licencí MIT. Ve stejném repozitáři se nacházejí i před lety zveřejněné zdrojové k kódy MS-DOSu 1.25 a 2.0.
Canonical vydal (email, blog, YouTube) Ubuntu 24.04 LTS Noble Numbat. Přehled novinek v poznámkách k vydání a také příspěvcích na blogu: novinky v desktopu a novinky v bezpečnosti. Vydány byly také oficiální deriváty Edubuntu, Kubuntu, Lubuntu, Ubuntu Budgie, Ubuntu Cinnamon, Ubuntu Kylin, Ubuntu MATE, Ubuntu Studio, Ubuntu Unity a Xubuntu. Jedná se o 10. LTS verzi.
Na YouTube je k dispozici videozáznam z včerejšího Czech Open Source Policy Forum 2024.
Fossil (Wikipedie) byl vydán ve verzi 2.24. Jedná se o distribuovaný systém správy verzí propojený se správou chyb, wiki stránek a blogů s integrovaným webovým rozhraním. Vše běží z jednoho jediného spustitelného souboru a uloženo je v SQLite databázi.
Byla vydána nová stabilní verze 6.7 webového prohlížeče Vivaldi (Wikipedie). Postavena je na Chromiu 124. Přehled novinek i s náhledy v příspěvku na blogu. Vypíchnout lze Spořič paměti (Memory Saver) automaticky hibernující karty, které nebyly nějakou dobu používány nebo vylepšené Odběry (Feed Reader).
OpenJS Foundation, oficiální projekt konsorcia Linux Foundation, oznámila vydání verze 22 otevřeného multiplatformního prostředí pro vývoj a běh síťových aplikací napsaných v JavaScriptu Node.js (Wikipedie). V říjnu se verze 22 stane novou aktivní LTS verzí. Podpora je plánována do dubna 2027.
Byla vydána verze 8.2 open source virtualizační platformy Proxmox VE (Proxmox Virtual Environment, Wikipedie) založené na Debianu. Přehled novinek v poznámkách k vydání a v informačním videu. Zdůrazněn je průvodce migrací hostů z VMware ESXi do Proxmoxu.
R (Wikipedie), programovací jazyk a prostředí určené pro statistickou analýzu dat a jejich grafické zobrazení, bylo vydáno ve verzi 4.4.0. Její kódové jméno je Puppy Cup.
Nedavno jsem musel prevadet nekolik druaplu z postgres (databaze, kterou mam rad) do mysql (databaze, kterou nemam tolik rad). Ackoliv tvrdim, ze postgres je pro mne o moc lepsi nez mysql, tak v pripade drupalu to bohuzel plati obracene. Mnoho tvurcu modulu pro drupal pouziva specificke dotazy, ktere funguji jen na mysql a tak se mi casto stava, ze pri instalaci modulu mam neustale potize a neustale priohybam moduly pro pouziti s postgres databazi.
Priohybani modulu je spatna vec, protoze mi to znemoznuje updaty. Priohybani modulu je rovnez otravna vec a odvadi mne to od puvodniho zameru (pouzit modul a pokracovat v praci). Dale je potreba vzit v uvahu fakt, ze pokud ma drupal podporovat (take) mysql, tak jsme omezeni maximalne tim, co poskytuje mysql. Tedy nelze cekat vyuzivani schopnosti dospelejsich databazi (uzivani nestandardnich konstrukci jeste nic nerika o tom, ze je mysql "lepsi" databaze - mel jsem na mysli relace, nebo provadeni kodu v databazi a jine veci, ktere by dokazaly delat aplikace mnohem rychlejsi nez ty, ktere pouzivaji databazi jen na ulozeni a poskytnuti obsahu tabulky).
Ukazalo se, ze prevod smerem z postgres do mysql neni uplna samozrejmost (google tvrdi, ze obracene to lze celkem snadno).
Tedy kdyz uz mam za sebou nekolikaty uspesny pokus a vzdy to bylo badani, tak jsem se rozhodnul, ze si ten postup zazalohuju sem na abicko, kde mozna muze byt i dalsim k uzitku.
Tedy postup:
- mame bezici drupal na pg
- mame jiz vytvorenou mysql databazi a nejsou v ni zatim vytvorene zadne tabulky
Konverze tabulek z pg do mysql se zda byt pomerne osemetna a fakt dost pracna zalezitost. Existuje na to jakesi udelatko, ale nefunguje spravne a konverze dopadla vzdy spatne - tedy bylo zapotrebi velmi mnoho rucni prace, kterou mohl udelat ten script a chybely indexy, primarni klice atd... Nebyly spravne nastavene default hodnoty a spousta dalsiho...
Kdyz uz se mi konecne podarilo doladit import a vytvorit pracne vsechny indexy a predtim samozrejme poopravovat definice tabulek tak, aby je mysql zkouslo, tak se nakonec stejne ukazalo, ze nekde zustaly nejake chyby a aplikaci se mi ve finale nepodarilo rozbehat.
Z vyse popsanych duvodu se na to muselo jit jinak:
- v puvodnim drupalu (bezicim na pg) jsem pro jistotu povypinal vsechny cache a vycistil cache
- v administraci modulu (/admin/build/modules) jsem si zaznamenal kazdy zapnuty modul (toto je dulezite!)
- potom jsem v settings.php zmenil $db_url = 'pgsql://..... na $db_url = 'mysqli://..... - spustil jsem drupal (toho casu jiz nad prazdnou mysql databazi) a povolil jsem instalaci (drupal zacal vytvaret tabulky) a tu jsem dokoncil
- po prilogovani do noveho drupalu jsem skocil opet do administrace modulu (/admin/build/modules) a vsechny (ty, ktere byly v pg verzi zapnute) jsem je pozapinal (to jedulezite kvuli tomu, ze se zacnou vytvaret tabulky v db a tentokrat se vytvori spravne - ne jako ty moje pokusy s konverzemi)
Nyni bychom meli mit v obou tabulkach stejny pocet tabulek stejnych struktur.
Stalo se mi, ze se mi nevytvorila tabulka upload (cert vi proc), ale nebyl problem, protoze po presunu dat mezi db se to projevilo (do te doby jsem to nevedel) a pak stacilo jen vypnout modul upload a nechat ho drupalem odinstalovat (tohle je dulezite!) - drupal se zaroven pokusil smazat tu tabulku (neuspesne, ale to nevadi nicemu) a od te chvile si myslel, ze tam neni nainstalovan modul upload (to jsme chteli). Opetovne zapnuti tohoto modulu zpusobilo take jeho spravne vytvoreni v databazi. Neocekavam, ze by se to melo zopakovat, ale demonstruje to postup pri podobnem problemu.
Podstatne je, ze nize prilozeny script si nacte tabulky v mysql a ty, ktere najde, prochazi v pg a taha z nich data. Pred pouzitim tabulku promaze (ale muzeme je pro jistotu vyprazdnit i my).
Nasledne jsem, v puvodni postgres zcela vyprazdnil tabulky, ktere zacinaly na search_ (po presunu staci jen spustit cron.php a search tabulky se zacnou opet plnit a vse pojede - me to bohuzel pri vsech prechodech zpusobovalo duplicitu klicu pri importu dat, takze jsem musel search_ tabulky vyprazdnit vzdy).
Nasledne jsem jiz jen do prilozeneho scriptu spravne vyplnil udaje o obou databazich a script jsem spustil: php -f ./migrate_tables.php Tento script jsem vycenichal nekde na netu a nepsal jsem ho ja. Rad bych uvedl odkaz na zdroj, ale jelikoz jsem ho nemohl najit predtim, tak mne to donutilo si zapsat tento zapisek jako zalohu postupu a nastesti jsem ho alespon nasel z drivejska na stroji, kde jsem delal prevod kdysi davneji a nemusel jsem ho psat/hledat znovu (i kdyz nic sloziteho to neni, ale cas by to sezralo, takze jsem fakt rad, ze se nasel).
<?php $my_host = 'localhost'; $my_user = 'mysqluser'; $my_pass = 'mysqlpwd'; $my_db = 'mydb'; $count_all = 0; error_reporting ( E_ALL ); ini_set("display_errors", 1); ini_set("display_startup_errors", 1); $pg_conn = pg_connect( "dbname='pgdb' host='localhost' user='pguser' password='pgpwd' options='--client_encoding=UTF8'" ); $my_conn = mysql_connect( $my_host, $my_user, $my_pass ); if( !mysql_select_db($my_db) ){ echo "Unable to select mydbname: " . mysql_error(); exit; } mysql_query("SET character_set_results = 'utf8', character_set_client = 'utf8'"); mysql_query("SET character_set_connection = 'utf8', character_set_database = 'utf8', character_set_server = 'utf8'"); $tables = array(); $res = mysql_query( 'show tables' ); while ($row = mysql_fetch_assoc($res)) { $tables[] = array_pop($row); } foreach( $tables as $table ){ $columns = array(); $res = mysql_query( 'desc '.$table ); while ($row = mysql_fetch_assoc($res)) { $columns[ $row['Field'] ] = $row['Type']; } $inserts = array(); $data_res = pg_query( "select * from ".$table.";" ); while( $row = pg_fetch_assoc($data_res) ){ $cols = ''; $data = ''; $joiner = ''; foreach( $row as $key => $val ){ $cols .= $joiner.$key; // we need a hack if column is tinyint and we insert t/f then convert if( $columns[$key] == 'tinyint(1)' && ($val == 't' || $val =='f') ){ if( $val == 't' ){ $data .= $joiner."1"; }elseif( $val == 'f' ){ $data .= $joiner."0"; } }else{ $data .= $joiner."'".mysql_escape_string($val)."'"; } // this will set joiner to , so only the first one does not have coma in front $joiner = ","; } $inserts[] = "INSERT INTO ".$table." (".$cols.") VALUES (".$data.");"; } mysql_query( "DELETE FROM $table;" ); echo "\n".$table."\n"; foreach ( $inserts as $insert ){ # echo $insert."\n"; mysql_query( $insert ); if( mysql_errno() != 0 ){ print_r( mysql_error() ); die(); } if( $count_all % 101 == 0 ){ echo '.'; } } }
Tiskni Sdílej:
$query = db_select('node', 'n')->fields('n', array('nid', 'comment', 'promote', 'sticky', 'uid', 'status', 'created', 'changed' )); $query->fields('nrs', array('title', 'body', 'teaser', 'format')); $query->condition('n.type', 'blog'); $query->leftJoin('term_node', 'tn', 'tn.nid = n.nid'); $query->leftJoin('term_data', 'td', 'tn.tid = td.tid'); $query->leftJoin('node_revisions', 'nrs', 'nrs.vid = n.vid'); $query->leftJoin('files', 'f', 'f.nid = n.nid'); // Gives a single comma-separated list of related terms $query->groupBy('tn.nid'); $query->groupBy('f.nid'); $query->addExpression('GROUP_CONCAT(td.name)', 'terms'); $query->addExpression('GROUP_CONCAT(f.filepath)', 'files');