abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
dnes 15:55 | Komunita

V Soluni probíhá GUADEC 2019, tj. konference uživatelů a vývojářů desktopové prostředí GNOME (GNOME Users and Developers European Conference). Na programu je řada zajímavých přednášek. Sledovat je lze online. Dění na konferenci lze sledovat na Twitteru.

Ladislav Hagara | Komentářů: 0
dnes 14:22 | Komunita

Bylo oznámeno, že webová služba Bitbucket podporující vývoj softwaru končí s podporou verzovacího nástroje Mercurial. Vývojáři požadující Mercurial mohou přejít například na Sourcehut.

Ladislav Hagara | Komentářů: 1
dnes 11:11 | IT novinky

Google oznámil, že následující verze operačního systému Android už nebude pojmenována po některé sladkosti začínající na písmeno Q, ale bude to pouze Android 10. Současně byla oznámena změna loga (YouTube).

Ladislav Hagara | Komentářů: 6
včera 22:22 | Zajímavý článek

Příspěvek na blogu Kali Linuxu popisuje změny v metabalíčcích, jež přijdou s vydáním Kali Linuxu 2019.3. Cílem změn je optimalizace Kali Linuxu, zmenšení velikosti instalačního ISO a lepší organizace metabalíčků. Vývojáři vytvořili nové metabalíčky a celou řadu stávajících metabalíčků přejmenovali. Například metabalíček kali-linux-full byl přejmenován na kali-linux-large a vytvořen byl nový metabalíček s názvem kali-linux-default.

Ladislav Hagara | Komentářů: 0
včera 10:44 | Nová verze

UBports, nadace a komunita kolem Ubuntu pro telefony a tablety Ubuntu Touch (seznam podporovaných zařízení), vydala Ubuntu Touch OTA-10. Z novinek lze zmínit například lepší podporu telefonů Nexus 5, Fairphone 2 a Oneplus One.

Ladislav Hagara | Komentářů: 0
včera 05:55 | Zajímavý článek

Martin Kleppe ukázal, jak lze obfuskovat JavaScript pouze pomocí dvou různých znaků. Podrobný rozbor a online obfuskace do hranatých závorek na jeho stránce.

Ladislav Hagara | Komentářů: 24
včera 04:44 | Bezpečnostní upozornění

Byly zveřejněny informace o backdooru ve webovém rozhraní pro administraci linuxových systému Webmin. V dubnu 2018 vývojářům Webminu někdo naboural build server a backdoor vložil do zdrojových kódů. V červenci 2018 se útok opakoval. Minulý týden byli vývojáři informováni o 0-day exploitu. Vývojáři backdoor odstranili a vydali opravnou verzi Webminu 1.930.

Ladislav Hagara | Komentářů: 2
včera 03:33 | IT novinky

Mozilla a Google společně oznámili, že jejich prohlížeče Firefox a Chrome nedůvěřují certifikátu vydanému kazašskou vládou. Nelze tedy pomocí něj provádět vládní MITM útok.

Ladislav Hagara | Komentářů: 5
21.8. 22:44 | Komunita

Neziskové technologické konsorcium Linux Foundation představilo svou další aktivitu. Jedná se o Confidential Computing Consortium, jehož cílem je spolupráce na vývoji "důvěryhodného výpočetního prostředí". Zakládajícími členy jsou společnosti Alibaba, Arm, Baidu, Google Cloud, IBM, Intel, Microsoft, Red Hat, Swisscom a Tencent.

Ladislav Hagara | Komentářů: 0
21.8. 12:55 | Komunita

Přesně před rokem Valve představilo nový Steam Play s integrovaným forkem Wine s názvem Proton umožňující v Linuxu přímo ze Steamu hrát hry do té doby běžící pouze ve Windows. Aktuální přehled her pro Windows běžících na Linuxu díky Protonu na stránkách ProtonDB.

Ladislav Hagara | Komentářů: 0
Používáte ještě 32bitový software na PC?
 (21%)
 (16%)
 (17%)
 (42%)
 (6%)
 (29%)
Celkem 462 hlasů
 Komentářů: 36, poslední 18.8. 21:46
Rozcestník

Open source business intelligence – Pentaho: ETL

21. 12. 2010 | Vratislav Beneš | Návody | 5657×

Pentaho – ETL (Extract, Transform, Load), aneb jak získávat a automatizovat nahrávání dat z rozličných zdrojů a formátů. V minulém díle jsme si rozběhli Pentaho a nyní se (nejen) do něj naučíme nahrávat data.

Výchozí znalosti a předpoklady

Úspěšné zvládnutí instalace a následné upravení systému vyžaduje:

  1. Základní znalost prostředí Linux
  2. Základní znalost SQL
  3. Nainstalovanou Javu
  4. Základní znalost JavaScriptu
  5. Běžící PostgreSQL s právy pro vytváření databází
  6. Znalost administračních nástrojů pro PostgreSQL

O systému business intelligence se dále budeme bavit jako o BI.

Cíl

Po této kapitole budete vědět, jak se vytváří a spouští ETL v aplikaci Kettle. Zároveň se naučíte nastavit automatické spuštění ETL pomocí crontab.

Obsah

  1. Obecně o ETL
  2. Jak ETL funguje
  3. Pentaho a ETL
  4. Konfigurace Pentaho Data Integration
  5. Práce s Pentaho Data Integration
  6. Vzhůru do našeho prvního ETL

Obecně o ETL

Jedením z poslání BI je zpracovávat a analyzovat aktuální data, která se po čase stanou historickými. Do BI vstupují různorodé typy systémů a s tím je spojen i problém s rozdílností datových formátů a přenosových médií. Vstupy mohou poskytovat svá data v různých intervalech. Některé produkční systémy generují denní data, státní úřady/výzkumné agentury mohou poskytovat data měsíčně, kvartálně nebo také pouze adhoc. Vstupní data nemusejí být ve stejné datové formě (textový soubor, XLS, databáze ...) nebo kódování. Kupříkladu produkční systém může umožňovat přístup přímo ke své relační databázi, data z banky přijdou e-mailem v textovém souboru a státní instituce vystaví svá data na web v excelovém souboru. V praxi existuje nesčetné množství forem, v nichž se data doručují ke zpracování. Se všemi se musí vypořádat vstupní brána každého BI systému, a to ETL. Jedná se o kriticky důležitou oblast, která častokrát determinuje schopnosti celého BI řešení. Ono nelze reportovat data, která nemáte v systému :-)

ETL nebo-li Extract Transform Load je sada nástrojů, která z nesourodých datových zdrojů separuje adekvátní data, upravuje je a poté nahrává do datového skladu. Tuto činnost provádí buď manuálně nebo automaticky podle časového plánu. O výsledku by mělo ETL podat zprávu (e-mail, log) administrátorovi systému BI.

Jak ETL funguje

Zdroje pro ETL

Mezi základní zdroje, z nichž může ETL čerpat data, jsou věškeré formy hromadného skladování dat. Mohou to být soubory, tabulky, databáze (relační, souborové), OLAP systémy anebo také webové stránky, či prostý text.

E – Extract

Jak jsme uvedli výše, tak ETL je zkratka pro Extract, Transform, Load. Sled písmen ve zkratce také vystihuje posloupnost jednotlivých kroků v celém procesu nahrávání dat. Extract znamená něco vyjmout, vytáhnout. V případě ETL tím „něco“ jsou zdrojová data pro budoucí data datového skladu. Ve zdrojových datech je nutné zmapovat výskyt námi požadovaných dat. V praxi se ve většině případů jedná o sloupce v databázích nebo excelových tabulkách. Je nutné mít na zřeteli kódování textů a regionální nastavení formátů čísel.

T – Transform

Mnohokrát je třeba některé informace rozdělit na dílčí nebo převést jejich formát. Příkladem může být datum ukrytý v názvu souboru nebo složený kód pro místo.

Příklady: Sběr dat z poboček firmy. Data se generují každý den a ukládají se do souboru podle klíče město_datum.txt

Název souboru: brno_20101028.txt 
Cíl: město = brno, datum='28-10-2010' 

Jiným požadavkem může být třeba převod dat ve formě kontingenčních tabulek do normalizované formy.

Tyto požadavky jsou v ETL řešeny pomocí transformací, čili převodů. Děje se tak uvnitř samotného ETL. Transformací může být několik a mohou probíhat paralelně. Výsledkem jsou zpracovaná data pro konečné nahrávání do datového skladu/databáze.

L – Load

Zpracovaná data po transformaci se ukládají do datového skladu/databáze.

Popsaný proces platí pro nahrávání dat do BI. Pokud naopak exportujeme data z BI, pak je proces obrácený. Data se čtou z datového skladu/OLAPu a ukládají se do formátů vhodných k výměně dat (txt, XLS, DBF ...) nebo přímo do externích databází. I v tomto případě mohou probíhat transformace dat.

Pentaho a ETL

V Pentaho jsou ETL řešena pomocí aplikace Kettle, alias Pentaho Data Integration. Jedná se o stand-alone aplikaci běžící v Javě, která umožňuje stavět, spravovat a spouštět jednotlivé ETL. Svoje data ukládá do relační DB nebo do souborů XML. Pro zvýšení výkonu je možné sestavit cluster a ETL spouštět na více strojích současně.

Instalace Kettle

Ze sourceforge.net si stáhněte Pentaho data integration a rozbalte ji do libovolného adresáře.

wget http://sourceforge.net/projects/pentaho/files/Data%20Integration/4.1.0-stable/pdi-ce-4.1.0-stable.tar.gz/download
tar xzf pdi-ce-4.1.0-stable.tar.gz

Vytvoří se vám podadresář data-integration, do kterého si přejděte a vypište si všechny .sh soubory.

Výsledkem je:

carte.sh*
encr.sh*
generateClusterSchema.sh*
kitchen.sh*
pan.sh*
runSamples.sh*
set-pentaho-env.sh*
spoon.sh*

V tento okamžik jsou pro nás důležité soubory spoon.sh, pan.sh a kitchen.sh. Prvně jmenovaný spoon.sh spouští grafické prostředí pro návrh a provoz vlastních ETL, která se skládají z transformací a jobů (více o nich o malou chvilku později). Pan.sh a kitchen.sh nám umožní nakonfigurované transformace (pan) a joby (kitchen) spouštět z příkazové řádky. Pojďme si ale nejdříve nakonfigurovat samotný PDI.

Konfigurace PDI

PDI k běhu vyžaduje úložiště. To může být řešeno buď souborovým systémem nebo relační databází. My si sestavíme PDI proti relační databázi PostgreSQL. Konfigurace se souborovým datovým úložištěm je velmi podobná. Na změny upozorním.

1. Spušťení spoon.sh

./spoon.sh*

V případě souborového úložiště pokračujte bodem 4

2. Vytvoření nové databáze pentaho_pdi (název může být libovolný)

postgres=# CREATE DATABASE pentaho_pdi  WITH OWNER = pentaho_user;

3. Vytvoření nové repository

  1. V repository connection klikněte v pravém horním rohu na zelené plus
  2. Pentaho


  3. Vyberte první volbu – Kettle database repository a stiskněte OK
  4. Pentaho

  5. Vytvořte databázové připojení
    1. Pojmenujte si připojení - „pentaho pdi“
    2. Ze seznamu vyberte databázový systém - „PostgreSQL“
    3. Host name – stoj na kterém běží databáze
    4. Database name - název námi vytvořené databáze – pentaho_pdi
    5. Port number – port databázového stroje „5432“
    6. User anem - uživatel s právy vytvářet objekty - „penthao_user“
    7. Password – heslo pro daného uživatele „password“
    8. Access – typ připojení „JDBC“
    9. Otestuje připojení stisknutím Test
    10. A závěrečné OK :-)

    Pentaho

  6. K nově vytvořenému připojení vytvoříme vlastní repository. Doplňte info o ID a Name a stiskněte Create or Upgrade

    Pentaho

  7. Pokud opravdu chcete vytvořit repository a databázové objekty, 2x kladně odpovězte, až se dostanete po výpisu SQL kódu ke spuštění :-) Buď můžete daný kód spustit přímo z PDI nebo si SQL zkopírujte a spusťte z konzole, kde si jej múžete také odkrokovat

    Pentaho

  8. Zavřete okno SQL editoru (i když vše proběhne jak má, tak editor zůstane otevřený a svádí k opětovnému spuštění)

  9. Nyní se můžeme připojit k nové repository – stisknutím OK
  10. Zadejte defaultní heslo „admin“ a stiskněte OK

    Pentaho


Práce s Pentaho Data Integration

Nyní máme vytvořenou vlastní repository, kam se nám budou ukládat výsledky naší práce. PDI pracuje s dvěma typy objektů: transaformation a job.

Transformation – jsou výkonné prvky, které zajišťují převod importovaných dat do toku, na něm spouštění skriptů a jeho výsledného exportu do cílového úložiště.

Job – je soubor transformací a k nim přiřazených obslužných nástrojů (přístup na FTP, odesílání e-mailů, zipování souborů apd), které tvoří ucelené ETL.

Na jednoduchém příkladě si předvedeme jak sestavit ETL a spustit jej.

Z menu File nebo si pomocí stisknutí Ctrl+N vyberte Transformation. V levé části se objevila řada položek začínajících Input. Jedná se komponenty, které můžete použít ve své transformaci. Každá transformace musí obsahovat nějaký vstup Input a výstup Output. Kettle zná velké množství vstupních/výstupních formátů a technik. Vedle běžně používaných textových souborů a XLS souborů to jsou relační a MS Access databáze, dbase, OLAP (pomocí mdx), a také umí spouštět dotazy na SAPu. V případě, že je nutné mezi vstupem a výstupem data upravit, pak nám Spoon nabízí nástroje pro úpravu dat Transform. Můžeme tak upravovat jednotlivé pole, spojovat řádky, upravovat řetězce a mnohé další. Nástroje pro řízení toku (spojování dávek z několika souborů, filtrování řádků apod.) naleznete pod položkou Flow. Velkou silou Kettlu je možnost vytváření vlastních skriptů. Konkrétně se jedná o JavaScript, SQL a Javu. Tuto vlastnost oceníte zejména při konsolidaci dat z cizích zdrojů (od dodavatelů, výzkumných agentur apod.).

Vzhůru do našeho prvního ETL

Naším cílem bude importovat textový soubor ve formátu csv do databáze. Nejdříve si vytvoříme cílovou databázi

postgres=# CREATE DATABASE pentaho_data  WITH OWNER = pentaho_user;

Vstup

Do libovolného adresáře si stáhněte tento soubor a rozbalte jej. Obsahuje smyšlená denní data ze třech poboček.

Ve spoon si z nabídky Input myškou přetáhněte na plochu vpravo položku Text file input a z nabídky Output položku Table output.

Výsledek by měl být následující:

Pentaho

Nyní si pojďme nakonfigurovat vstup naší transformace. Dvojklikem na Text file input se vám otevře nabídka konfigurace komponenty textového souboru.

1. Nejdříve si pomocí Browse vyberte jeden z rozbalených souborů – třeba brno_20101128.csv. Tlačítkem Add jej přidáte do seznamu zpracovávaných souborů

Pentaho

2. Jelikož se jedná o strukturovaná data, musíme pospat obsah vstupního souboru. To učiníme v záložce Content. V našem případě se jedná o tyto položky

  1. Filetype – CSV
  2. Separator – ;
  3. Enclosure – "
  4. Header – ano
  5. Number of header lines – 1
  6. Format – Unix
  7. Encoding – UTF-8

Pentaho

3. Pole, které budeme ze souboru číst, jsou popsány právě hlavičkou ze souboru. Jejich přesnou definici určíme v záložce Fields. Uprostřed dole stiskněte tlačítko Get fields, čímž se na základě prvních 100 řádků odhadne datový typ a rozsah jednotlivých polí. V našem případě je výsledek následující

Pentaho

4. Vstup máme nastavený a zbývá nám říct výstupu Table output, kde má vzít data a jak je má ukládat. Při stisknutém shiftu klikněte myškou na Text file input a táhněte na Table output, kde myšku pusťte. Tím vytvoříte propojení mezi oběma komponentami.

Pentaho

Výstup

Obdobně jako při přípravě repozitory si vytvoříme konektor do cílové databáze. Dvojklik na Table output nám otevře konfigurace výstupu. Vedle položky Connection stiskněte tlačítko New a nastavte konektor. Výsledek by měl být následující:

Pentaho

Databáze je prázdná, takže do jména cílové tabulky Table target můžeme vepsat libovolné jméno. Zvolme třeba pobocky_data. Jelikož tato tabulka neexistuje, neexistují ani její sloupce. Snadno si je můžeme vytvořit přímo ze Spoon. Zaškrtněte checkbox Specify database fields, běžte do záložky Database fields a stiskněte tlačítko Get fields. Tím se nám načtou pole definované ve vstupu.

Pokud vám tento popis vyhovuje, zvolte tlačítko SQL a Spoon vám vygeneruje patřičný sql dotaz pro vytvoření tabulky pobocky_data.

CREATE TABLE pobocky_data
(
  smena BIGINT
, stroj VARCHAR(2)
, pocet_vyrobenych_kusu BIGINT
)
;

Vzhledem k povaze dat je vhodné daný dotaz mírně upravit, a to takto:

CREATE TABLE pobocky_data
(
  smena SMALLINT
, stroj VARCHAR(12)
, pocet_vyrobenych_kusu INT
)
;

Stiskněte OK a Spoon spustí příkaz.

Nyní máme definované jednoduché ETL, které nám nahraje právě jeden soubor do cílové tabulky. Pojďme si ho spustit.

Transformaci si uložte File/Save as třeba jako import_datapobocky. Z horní lišty stiskněte zelenou šipku a nebo stiskněte F9. Otevře se vám formulář s informacemi o dané transformaci. Jednotlivými detaily se budeme zabývat později. Zvolte Launch. Výsledek by měl být následující

Pentaho

Data máme nahraná :-)

Automatizace procesu nahrávání dat

Vytvořili jsme si tranformaci, která nám importuje obsah pouze jednoho souboru. V našem případě, ale potřebujeme importovat data za každý den a je nemyslitelné s každým souborem ručně přepisovat cestu v Text file input. Název importovaného souboru potřebujeme měnit parametricky. Kettle na toto myslí a poskytuje aparát parametrů, které fungují jak v transformacích, tak i v úlohách.

Vytvoření parametru

Do libovolného místa na pracovní ploše klikněte pravou myškou a zvolte Transformation settings nebo stiskněte Ctrl+T. V záložce Parameters vytvořte nový parametr filename s výchozí hodnotou „brno_20101129.csv“ a dejte OK. Tím jsme vytvořili dynamickou položku, kterou můžeme ovládat vně naší transformace. Výchozí hodnotu jsme nastavili na název jiného souboru pouze pro náš cvičný případ.

Pentaho

Aplikace parametru

V našem případě potřebujeme měnit název nahrávaného souboru pomocí parametru filename. Otevřete si vlastnosti objektu Text file input, vyberte soubor ze seznamu souborů ke zpracování a dejte Edit. V cestě k souboru nahraďte jeho jméno takto ohraničeným parametrem ${filename} a dejte znovu Add.

Pentaho

Spuštění transformace s parametrem

Nyní si uložte transformaci a spusťte ji. Než stiskněte tlačítko Launch, tak si v levé části formuláře povšimněte nového parametru filename a u něj uvedené výchozí hodnoty.

Pro zjištění stavu běhu transformace se můžete podívat do logu v Execution Results - Logging, kde jedna z položek bude následující:

Text file input.0 - Opening file: /home/vratidlo/pentaho/brno_20101129.csv

To nám říká, že námi nastavený parametr zafungoval.

Použití parametru

Aby nám byl parametr užitečný, je třeba zajistit jeho pohodlné nastavování. Nejčastěji je parametr transformace ovládán z nadřazené úlohy. Něky ale není úlohu třeba vytvářet a postačí nám pouhá transformace. My si náš parametr zavoláme z shellu, a to pomocí skriptu pan.sh

./pan.sh 
Options:
  -rep        = Repository name
  -user       = Repository username
  -pass       = Repository password
  -trans      = The name of the transformation to launch
  -dir        = The directory (dont forget the leading /)
  -file       = The filename (Transformation in XML) to launch
  -level      = The logging level (Basic, Detailed, Debug, Rowlevel, Error, Nothing)
  -logfile    = The logging file to write to
  -listdir    = List the directories in the repository
  -listtrans  = List the transformations in the specified directory
  -listrep    = List the available repositories
  -exprep     = Export all repository objects to one XML file
  -norep      = Do not log into the repository
  -safemode   = Run in safe mode: with extra checking enabled
  -version    = show the version, revision and build date
  -param      = Set a named parameter =. For example -param:FOO=bar
  -listparam  = List information concerning the defined named parameters in the specified transformation.

Výpis jednotlivých parametrů je výmluvný, takže se pojďme podívat do naší repository

./pan.sh -rep pentaho_pdi -user admin -pass admin  -listtrans
INFO  09-12 11:13:40,191 - Using "/tmp/vfs_cache" as temporary files store.
INFO  09-12 11:13:41,115 - Pan - Start of run.
INFO  09-12 11:13:41,213 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
import_datapobocky

Tímto jsme si vypsali veškeré transformace, které v naší repozitory máme uložené. Vidíte, že je pouze jedna, a to import_datapobocky. Pojďme se podívat na její parametry:

./pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -listparam
INFO  09-12 11:16:40,272 - Using "/tmp/vfs_cache" as temporary files store.
INFO  09-12 11:16:41,152 - Pan - Start of run.
INFO  09-12 11:16:41,250 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
Parameter: filename=, default=brno_20101129.csv : Soubor k importovani

Podle očekávání se vypsal pouze jeden, a to filename. Nyní pomocí parametru importujeme další soubor.

./pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -param:filename=brno_20101130.csv
INFO  09-12 11:18:39,540 - Using "/tmp/vfs_cache" as temporary files store.
INFO  09-12 11:18:40,404 - Pan - Start of run.
INFO  09-12 11:18:40,501 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
INFO  09-12 11:18:40,900 - import_datapobocky - Dispatching started for transformation [import_datapobocky]
INFO  09-12 11:18:40,967 - import_datapobocky - This transformation can be replayed with replay date: 2010/12/09 11:18:40
INFO  09-12 11:18:40,975 - Table output - Connected to database [Pentaho data] (commit=1000)
INFO  09-12 11:18:40,979 - Text file input - Opening file: /home/vratidlo/pentaho/brno_20101130.csv
INFO  09-12 11:18:40,984 - Text file input - Finished processing (I=35, O=0, R=0, W=34, U=1, E=0)
INFO  09-12 11:18:41,075 - Table output - Finished processing (I=0, O=34, R=34, W=34, U=0, E=0)
INFO  09-12 11:18:41,076 - Pan - Finished!
INFO  09-12 11:18:41,077 - Pan - Start=2010/12/09 11:18:40.405, Stop=2010/12/09 11:18:41.076
INFO  09-12 11:18:41,077 - Pan - Processing ended after 0 seconds.
INFO  09-12 11:18:41,082 - import_datapobocky -  
INFO  09-12 11:18:41,082 - import_datapobocky - Step Text file input.0 ended successfully, processed 34 lines. ( - lines/s)
INFO  09-12 11:18:41,083 - import_datapobocky - Step Table output.0 ended successfully, processed 34 lines. ( - lines/s)

Naše transformace importovala 34 řádků ze souboru brno_20101130.csv


Takto nakonfigurovaný skript pan.sh můžeme vložit do crontabu, a tím velmi jednoduše vytvořit plán automatického spuštění.

Příkaz může vypadat následovně:

0 4 1 12 *  /home/vratidlo/pentaho/data-integration/pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -param:filename=brno_20101130.csv

Určitě si dokážete představit, že lze pomocí bash sestavit i vkládaní parametru, tak aby se nám měnil v čase.

V dalších dílech si ještě ukážeme, jak lze Kettle ovládat z jiných aplikací Pentaho.


Ukázali jsme si jak lze poměrně jednoduše vytvořit základní prvek ETL, transformaci. K plnohodnotnému ETL to má však ještě daleko. Takovouto jednoduchou transformaci je vhodné spouštět/opakovaně spouštět, plnit parametry a kontrolovat z nějakého nadřazeného objektu. Tím je úloha – job. O té si ale povíme příště.

Na shledanou s Pentaho


Autor je pracovníkem společnosti OptiSolutions s.r.o.

Společnost OptiSolutions s.r.o. se zabývá poskytováním řešení v oblasti CRM a Business Intelligence založených na Open Source technologiích SugarCRM a Pentaho.

       

Hodnocení: 100 %

        špatnédobré        

Nástroje: Tisk bez diskuse

Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

Komentáře

Vložit další komentář

21.12.2010 01:49 Tomáš Srnka | skóre: 7 | Bratislava/Praha
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
/mnt/abclinuxu/data/abclinuxu_data/abclinuxu/images/clanky/benes/pdi_repository_connection_new.png (Permission denied)
21.12.2010 01:50 Tomáš Srnka | skóre: 7 | Bratislava/Praha
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
pozeram, ze ta chyba je asi na vsetkych obrazkoch
Luboš Doležel (Doli) avatar 21.12.2010 03:46 Luboš Doležel (Doli) | skóre: 98 | blog: Doliho blog | Kladensko
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
Proč ty KIO-based aplikace nikdy nedokážou správně udělat to, co po nich chci? Opakovaně jsem zkusil přes SFTP hromadně změnit oprávnění a nic. Někdy to ale funguje. Tak jsem to udělal v konzoli.

Díky za upozornění.
21.12.2010 08:41 Aleš Kapica | skóre: 49 | blog: kenyho_stesky | Ostrava
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
..aneb jak na jednoduché věci použít něco složitého jak žebř.
23.12.2010 18:04 andy
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
děkuji za výborné přiblížení, zdá se, že OSS BI řešení začíná být opravdu nasaditelné v komerční sféře!
27.12.2010 08:09 vratidlo007 | skóre: 21
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
Penthao je moc dobry SW, na kterem se da postavit vyborne reseni. A co je krasne, tak to je za zlomek ceny ciste komercni konkurence.
10.2.2011 10:28 pase
Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
Prosím o info o cenách pro komerční využití, cca 5 - 20 users, případně training, zatím jsem nenašel.

Založit nové vláknoNahoru

ISSN 1214-1267   www.czech-server.cz
© 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.