Společnost Oracle představila sadu nástrojů a skriptů pro sběr a analýzu dat o stavu linuxových systémů a jejich ladění pod společným názvem Oracle Linux Enhanced Diagnostics (OLED). K dispozici pod licencí GPLv2.
OpenZFS (Wikipedie), tj. implementace souborového systému ZFS pro Linux a FreeBSD, byl vydán ve verzi 2.3.0. Přináší RAIDZ Expansion, Fast Dedup, Direct IO, JSON a Long names.
Společnost PINE64 stojící za telefony PinePhone nebo notebooky Pinebook publikovala na svém blogu lednový souhrn novinek.
Baví vás bastlení, fyzika, IT a nebo prostě cokoliv technického? Proseděli jste celé Vánoce v záři obrazovky počítače a nebo jste o tom alespoň snili? Chcete se pochlubit technickými vánočními dárky? Pak doražte na Virtuální Bastlírnu - online pokec (nejen) techniků a bastlířů!
… více »Desktopové prostředí Enlightenment bylo vydáno ve verzi 0.27.0, provázejí ho knihovny EFL 1.28. Jde o převážně opravné vydání opět po roce.
Lazygit byl vydán ve verzi 0.45.0. Jedná se o TUI (Text User Interface) nadstavbu nad gitem.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Byla vydána nová verze 2.48.0 distribuovaného systému správy verzí Git. Přispělo 93 vývojářů, z toho 35 nových. Přehled novinek v příspěvku na blogu GitHubu a v poznámkách k vydání.
Byl vydán Debian 12.9, tj. devátá opravná verze Debianu 12 s kódovým názvem Bookworm. Řešeny jsou především bezpečnostní problémy, ale také několik vážných chyb. Instalační média Debianu 12 lze samozřejmě nadále k instalaci používat. Po instalaci stačí systém aktualizovat.
Před dvanácti lety, ve svých šestadvaceti letech, navždy odešel Aaron Swartz, výjimečný americký hacker (programátor), spisovatel, archivář, politický organizátor a internetový aktivista. Aaron Swartz založil Demand Progress, spolupracoval na projektech Open Library, Internet Archive a Reddit. Ve svých čtrnácti se podílel na specifikaci RSS 1.0. Vytvořil webový framework web.py, pracoval na tor2web a rozšíření HTTPS Everywhere
… více »>>>Zaroven se tam musi data nahravat jen prostrednictvim prohlizece
O jake uloziste jde ?
Tezko Vam nekdo poradi jak na upload pres webove rozhrani kdyz nevi o jakou sluzbu se jedna.
Osobne bych prozkomal moznosti uloziste a pokud nebude k dispozici aspon ftp tak bych sel ke konkurenci.
Kazdy hosting nabizi standardne pristup pres ftp ci nekdo dokonce scp.
Pro vytvoreni archivu se da pouzit tar a pripadne gzip
Pomuze Vam tento manual.
S tim limitem pro velikost souboru Vam pomuze nastroj split.
Nebo komercni rar (je i pro Linux systemy)
>>>ktery navic (a to je dulezite) pujde rozbalit i v pripade, ze prijdu o nektere jeho casti
To jste nemyslel doufam vazne.
No jestli vite jak tam uploadovat a stahovat soubory treba pres ftp ci http s autentizaci tak budeme jiste vsichni radi za navod ac se jedna o sluzbu nejmenovane spolecnosti.
Pokud budete o necem vedet tak to sem hodte.
Dekuji.
>>>ktery navic (a to je dulezite) pujde rozbalit i v pripade, ze prijdu o nektere jeho casti To jste nemyslel doufam vazne.Vazne jsem to myslel. A neni duvod, proc by to nemelo jit. Predstavte si, ze mam tri soubory: A (velikost 60MB), B (10MB) a C (20MB). Limit uloziste na jeden soubor je 50MB, postaci tedy rozdelit soubory do zaloh o dvou castech (part1 a part2). V part1 bude prvnich 50MB souboru A, v part2 bude konec souboru A a soubory B a C. Pokud prijdu o jen part1, prijdu nutne o soubor A, ale stale chci mit moznost obnovit soubory B a C. Pokud prijdu o part2, ztratil jsem vsechno. Pokud bych zvolil jine rozdeleni souboru do casti (napr. B,A- a -A,C), mam zaruceno, ze at ztratim part1 nebo part2, zustane mi alespon jeden soubor (B nebo C). Vami navrhovany
rar
nebo tar
ale tuto vlastnost (pokud je mi znamo) bohuzel nesplnuje.
Part 2 ze souboru A zatarujete se souborem B a C
Co je na tom neresitelneho.
Mj proc to nemuzete nechat takto ?
Soubor A - rozdelit na 50 + 10 MB pomoci split
Soubor B - se vleze do limitu
Soubor C - se vleze do limitu
Proc spojovat soubor B a C kdyz muze byt kazdy uploadovan zvlast ?
Lepe kazdy soubor uploadovat dvakrat pro sichr.
Pokud budete mit soubor o velikosti dejme tomu 700 MB (napr install CD nejakeho systemu) a rozdelite jej po 7 x 100 MB a kterykoli ze 100 MB partu Vam potom bude chybet tak je zcela nemozne dat onen puvodni 700 MB soubor dohromady neb chybi 1/7 dat.
Nevim jak by jste vyresit ztratu 1/7 dat ci vice pokud nebudete jednotlive party uploadovat jeste jednou pro pripad ztraty.
tar
u. Jenze ani ta algoritmicka stranka se mi nezda lehka.
$ for i in 1 2 3 4 5;do head -20 /dev/urandom > test$i.bin ; done $ tar cvf backup.tar test* test1.bin test2.bin test3.bin test4.bin test5.bin $ split -b 5000 backup.tar parts $ cat partsa* | tar tvf - -rw-r--r-- tom/users 6047 2010-01-31 16:52 test1.bin -rw-r--r-- tom/users 6434 2010-01-31 16:52 test2.bin -rw-r--r-- tom/users 4354 2010-01-31 16:52 test3.bin -rw-r--r-- tom/users 5882 2010-01-31 16:52 test4.bin -rw-r--r-- tom/users 5580 2010-01-31 16:52 test5.bin $ dd if=/dev/zero of=partsac bs=5000 count=1 $ cat partsa* | tar --ignore-zeros -tvf - -rw-r--r-- tom/users 6047 2010-01-31 16:52 test1.bin -rw-r--r-- tom/users 6434 2010-01-31 16:52 test2.bin tar: Skipping to next header -rw-r--r-- tom/users 5882 2010-01-31 16:52 test4.bin -rw-r--r-- tom/users 5580 2010-01-31 16:52 test5.bin tar: Exiting with failure status due to previous errorsTomas
Tiskni Sdílej: