Portál AbcLinuxu, 12. května 2025 07:55
LISTDIR=/adresar/plny/suborov;
COUNTER=0;
IFS='
'
find $LISTDIR -type f | while read i; do
# echo "insert into....$i" | mysql ....;
COUNTER=`expr $COUNTER + 1`;
echo "$COUNTER";
echo "$i";
done
Řešení dotazu:
find "$LISTDIR" -type f -exec echo "INSERT INTO ... {} ...;" \; | mysql ...
Dal jsem pryč výpis (bo to je jistě brzda), dopřebastlil(je to jen na odzkoušení) a výsledky z přílohy mám takovéto:
TEST >time ./kuk.bash 1 COUNT(*) 0 COUNT(*) 38711 real 5m15.801s --------------------- TEST >time ./kuk.bash 10 COUNT(*) 0 COUNT(*) 38711 real 0m35.810s --------------------- TEST >time ./kuk.bash 100 COUNT(*) 0 COUNT(*) 38711 real 0m34.757s --------------------- TEST >time ./kuk.bash 1000 COUNT(*) 0 COUNT(*) 38711 real 6m7.704s ---------------------Třeba to pomůže.
Trochu to zabije COUNTER=`expr $COUNTER + 1`;
z 5:15 to dá 6:10
opravou na COUNTER=$(($COUNTER + 1))
z 5:15 to dá 5:15
Jen projetí ve smyčce se ti to nepotáhne jako sopel, zesoplí se to tím co tam ještě děláš :)
import os import MySQLdb db=MySQLdb.connect('localhost', '', '', 'test') db.query("CREATE TABLE soubor(nazev text);") curs=db.cursor() for line in os.popen('find "/adresar/plny/suborov" -print0').read().split('\0'): curs.execute("INSERT INTO soubor VALUES (%s)", (line,)) db.commit()
foreach (new RecursiveIteratorIterator(new RecursiveDirectoryIterator('/adresar/plny/suborov',RecursiveDirectoryIterator::FOLLOW_SYMLINKS)) as $fullfilepath)
{
$pathparts = pathinfo($fullfilepath);
....
z "15 bash minut" som sa dostal na "36 php sekund" (teda ak nehladam v pripade mp3 suborov ID3tags, nechcekujem duplicitne subory, ktore uz v DB su, apod.), takze spokojnost, uz len odladit zvysok aktivit.
No nic, cas ist spat.
Dobru noc a vdaka.
&
a jedním wait
lze ještě nějakou sekundičku nahnat.
find
pustil předem, aby cache eliminovala vliv FS (bo s tím člověk moc nepohne).
find ... | while ... echo "insert ..." done | mysql ...
Kouzlo (na MySql) je v multi insertu a je putna jak se použije, pokud se vkládá velké množství řádků tak samostatné inserty jsou výrazně pomalejší než jeden multi insert, ale má to určité zlomové body, dle nastavení serveru a výkonu, protože multi insert je jeden dotaz a když je moc velký, tak to analýza zabije a i prostor pro mezi-oddych SQL serveru přichází za moc dlouho.
Tady jsem to upravil na na první pohled divně, na druhý lehce pochopitelné:
echo -n "('$xy')" >> /dev/shm/kuk ... mysql -u test -ptest test < /dev/shm/kukTedy eliminace spojováni v bash-i přes soubor, ale v paměti:
TEST >time ./kuk.bash 10 COUNT(*) 0 COUNT(*) 38712 real 0m33.569s ---------------------- TEST >time ./kuk.bash 100 COUNT(*) 0 COUNT(*) 38712 real 0m7.211s ---------------------- TEST >time ./kuk.bash 1000 COUNT(*) 0 COUNT(*) 38712 real 0m5.419s ---------------------- TEST >time ./kuk.bash 10000 COUNT(*) 0 COUNT(*) 38712 real 0m6.777sA jsem s 60k v bash-i pod 9 sec, kazí mi to jen ty 0.4GHz
find -print0 | xargs -0 id3tag
Tiskni
Sdílej:
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.