abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
včera 22:00 | Komunita

Portál Stack Overflow po roce opět vyzpovídal své uživatele, jedná se především o vývojáře softwaru, a zveřejnil (podcast) detailní výsledky průzkumu. Průzkumu se letos zúčastnilo více než 64 tisíc vývojářů. Jejich nejmilovanější platformou je linuxový desktop. Ten je také druhou nejpoužívanější platformou vývojářů.

Ladislav Hagara | Komentářů: 0
24.3. 11:55 | Komunita

Vývojový tým OpenSSL ve spolupráci s iniciativou Core Infrastructure konsorcia Linux Foundation spustil proces přelicencování této kryptografické knihovny ze současné licence na licenci Apache Licence v 2.0 (ASLv2). Nová licence usnadní začleňování OpenSSL do dalších svobodných a open source projektů. Všichni dosavadní vývojáři OpenSSL (Authors) obdrží v následujících dnech email s prosbou o souhlas se změnou licence.

Ladislav Hagara | Komentářů: 15
24.3. 01:11 | Komunita

Před třemi týdny Mozilla.cz představila projekt Photon, jehož cílem je návrh a implementace nového vzhledu Firefoxu. Včera zveřejnila první náhled vzhledu Photon. Práce na projektu Photon jsou rozděleny do pěti týmů, které celkem čítají 19 lidí. Zaměřují se na zlepšení prvního spuštění Firefoxu a zaujetí nových uživatelů, celkovou úpravu vzhledu, zlepšení animací, zrychlení odezvy uživatelského rozhraní a také upravení nabídek. Vývoj lze sledovat v Bugzille.

Ladislav Hagara | Komentářů: 42
23.3. 20:00 | Komunita

OneDrive pro firmy je již ve webových prohlížečích na Linuxu stejně rychlý jako na Windows. Microsoft opravil chybu z listopadu loňského roku. OneDrive pro firmy běžel na Linuxu mnohem pomaleji než na Windows. V popisu chyby bylo uvedeno, že stačilo v prohlížeči na Linuxu nastavit v user-agentu Windows a vše se zrychlilo. Odpovědí Microsoftu bylo (Internet Archive: Wayback Machine), že Linux není podporován. Po bouřlivých diskusích na redditu i Hacker News byla chyba nalezena a opravena.

Ladislav Hagara | Komentářů: 6
23.3. 19:00 | Zajímavý projekt

Byla vyhlášena soutěž Hackaday Prize 2017. Soutěž je určena vývojářům open source hardwaru. Pro výherce je připraveno celkově 250 tisíc dolarů. Každý ze 120 finalistů získá tisíc dolarů. Nejlepší pak navíc 50, 30, 20, 15, 10 a 5 tisíc dolarů. Jedná se již o čtvrtý ročník soutěže. V roce 2014 zvítězil projekt globální sítě open source pozemních satelitních stanic SatNOGS. V roce 2015 zvítězil open source systém pro řízení elektrických invalidních vozíků pohybem očí Eyedriveomatic. V roce 2016 zvítězil modulární robot Dtto.

Ladislav Hagara | Komentářů: 0
23.3. 15:00 | Bezpečnostní upozornění

Byla vydána Samba ve verzích 4.6.1, 4.5.7 a 4.4.12. Řešen je bezpečnostní problém CVE-2017-2619. Pomocí symbolických odkazů a souběhu (symlink race) lze "teoreticky" získat přístup k souborům, které nejsou sdíleny. Linuxové distribuce jsou postupně aktualizovány (Debian).

Ladislav Hagara | Komentářů: 0
23.3. 07:43 | Nová verze

Na Steamu se objevil port hry Arma: Cold War Assault (Operation Flashpoint) pro Mac a Linux. … více »

creon | Komentářů: 30
23.3. 05:55 | Nová verze

Po 18 měsících od vydání verze 8.0 byla vydána verze 9.0 open source alternativy GitHubu, tj. softwarového nástroje s webovým rozhraním umožňujícího spolupráci na zdrojových kódech, GitLab. Představení nových vlastností v příspěvku na blogu a na YouTube.

Ladislav Hagara | Komentářů: 0
23.3. 03:33 | Komunita

Platnost posledního patentu souvisejícího s Dolby Digital (AC-3) vypršela. Po MP3 se tak do Fedory oficiálně dostane také kodek AC-3.

Ladislav Hagara | Komentářů: 5
23.3. 00:44 | Komunita

Feral Interactive, společnost zabývající se vydáváním počítačových her pro operační systémy macOS a Linux, nabízí své hry na Steamu vývojářům open source 3D grafické knihovny Mesa zdarma. Podmínkou je minimálně 25 commitů za posledních 5 let. Stejnou nabídku dostali vývojáři knihovny Mesa v roce 2015 od Valve. O rok dříve dostali od Valve tuto nabídku vývojáři Debianu a Ubuntu.

Ladislav Hagara | Komentářů: 0
Jak se stavíte k trendu ztenčování přenosných zařízení (smartphony, notebooky)?
 (14%)
 (2%)
 (71%)
 (3%)
 (10%)
Celkem 935 hlasů
 Komentářů: 72, poslední 1.3. 11:16
    Rozcestník

    Dotaz: Terabytove IDE pole

    11.11.2004 14:14 Johny 5
    Terabytove IDE pole
    Přečteno: 572×
    Provozujete nekdo file server na IDE (PATA/SATA) o velikosti v radu Terabytu? Planujeme postavit pro nasi komunitni sit centralni ftp server. Dulezitym prvkem je v tomto pripade cena .

    Jedna se nam jak o sw tak hw. Ukazky fungujicich reseni vitany.

    cya Johny 5

    Odpovědi

    11.11.2004 14:35 jm
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Hmm, tak jsem nejak nepochopil, na co se ptate. Kupte par nejlepe stejnych disku a udelejte z toho v Linuxu SW RAID (linear nebo RAID-0).
    Petr Krčmář avatar 11.11.2004 14:39 Petr Krčmář | skóre: 60 | Liberec
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    No, na první pohled dobrá rada, ale nevím nevím. Takhle jde spolehlivost do háje a pokud na to bude ukládat 100 lidí a klekne jeden z těch disků, tak budou mít radost.
    Amatéři postavili Noemovu archu, profesionálové Titanic ...
    11.11.2004 14:42 jm
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    No kdyz jim jde o cenu, tak jina rada asi neni. RAID-10 nebo RAID-50 bude holt vzdycky drazsi. O skutecne hardwarovych radicich nemluve.
    11.11.2004 15:25 Johny 5
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Linear Raid bych vyradil z vyberu neb pri vypadku jednoho disku kleknou vsechny. To uz je lepsi JBOD, ktery se da jakz takz zachranit.

    Rikal jsem si ci nepouzit SW Raid 5. Se SW RAID mirrorem mam velmi dobre zkusenosti.

    Pouzit SATA radic na deske a k tomu pridat SATA radice do PCI a zde bych se nebal i neznackovych SATA PCI radicu.

    Na trhu je Hitachi 400GiB disk ale jeho cena je velka v porovnani s ekvivalentem v 200GiB discich.

    FS dame nejspise ReiserFS pro jeho dobrou podporu pod Gentoo.

    Jde o volnou diskuzi na toto tema...je to v ranne fazi...shromazdujeme penize...tedy zvazujeme co vse budeme potrebovat. Jak rikam potesilo by nejake info o podobnem realizovanem projektu.
    11.11.2004 15:44 makak | skóre: 16
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    No ja som z financnych dovodov kupil 120Gb disky asi pred 3 mesiacmi.. dal som to do raid10.. pri pokusoch s roznymi kernelmi (mam 2 rozne radice na doske (SATA)..) sa mi stalo, ze mi nenasel jeden radic a pole by definitivne zblblo, ak by tam bolo nieco ine ako raid 10 alebo 0+1 .. resp bol by problem to nakopnut spatky... takto to islo len degradovanom rezime.. (!! md vzdy mezdi diskami roznych radicov !! aspon podla mna je to bezpecnejsie ako viazat ich na jednom radici.. ..) zalezi aku dosku tam chcete mat... Jo a este treba prestudovat kernel 2.6.9 - ten ma pridanu podporu raid10 .. ale myslim ze to este nebude zdokumentovane.. ale urcite viem ze na to treba mat aj minimalne mdadm 1.7.0 .. skontrolujte si verziu v distribucii..
    11.11.2004 15:47 makak | skóre: 16
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    (!! md vzdy mezdi diskami roznych radicov !! ) som myslel na raid1 -> md1 (sda1 [raidc 1] + sdc1 [radic2]) , md2 (sdb1 [radic1] + sdd1 [radic2]) a tieto z viazat do raid0 -> md3 = raid 10
    11.11.2004 15:49 makak | skóre: 16
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    a este poznamocka ze mdadm 1.8.0 ma uz fixovanu podporu nad 2TB pre RAID0..
    11.11.2004 23:17 jm
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Eh, muzu se zeptat jak se lisi linear RAID a JBOD? :-D
    27.4.2007 09:59 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    http://searchstorage.techtarget.com/sDefinition/0,,sid5_gci343350,00.html

    dost. pokud pocitate s tim, ze "linear raid" neni standardizovany a uznavany tudiz to neni raid a museli tomu vymyslet jiny nazev.
    14.11.2004 17:39 Celaskon
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Tohle bylo postly na nekde na internetu: 3TB IDE Software Raid-5 Server!!! ( post #1) I just finished a server build that involved a large amount of time, effort, and research to complete. I think the details are worth posting here for others to benefit. The Mission : Build a reliable and massively large linux file server for less than $1K/TB. The Result : 3 Terabytes of disk storage for $3100.00!!! Mission Accomplished!!!! System Specs: Used Unisys/ALR Server chassis (circa 1999) - 15 hot swap slots ***
    Used ASUS P4T-533 MB with 1GB RIMM 4200 RDRAM (6 PCI Slots) P4B @ 3.06Ghz
    2 Promise TX 133 ATA Cards
    2 Promise TX 100 ATA Cards
    2 Netgear GA-620 Fiber Gigabit adapters
    12 250gb Hitachi ATA-100 Drives
    This machine has a total of 12 IDE ports with NO interrupt sharing!!! You may think this to be impossible, but, I assure you, it works. After much trial and error, I discovered the key to get all of these cards to work together. Here is the deal.....Promise ATA adapters of the SAME model only have enough rom address space for two cards for a total of 4 ports.... more than two cards results in the machine locking up or not seeing the additional drives. However, other Promise models use different address space, but, also are limited to two cards for the same reason. Soooo, my servers IDE ports are as follows: 4 IDE ports on 133Tx2 Cards
    4 IDE ports on 100Tx2 Cards
    2 Ports on the motherboard IDE ports (Intel ICH2)
    2 Ports on the motherboard Raid ports (Promise 20276 in JBOD mode) I disabled every other on-board serial, usb, parallel, audio, etc...to free up as many IRQ's as possible. As far as IRQ's are concerned, I learned a lot about the idiotic way in which intel based architecture/bios assigns interrupts. I still do not understand it, only through luck did I discover a mother board that did not gang up a bunch of devices on 1 IRQ (which absolutely KILLS raids performance)----The ASUS P4T-533. I tried 9 other boards from Abit, DFI, Giga-Byte, IWILL, Intel, etc.... all of them had interrupt conflicts and other sharing related IRQ issues. Intel oem boards are the worst by far!!??!! The P4T-533 with bios revision 1007 boots with the following assignments: Video - IRQ 11
    On board IDE - IRQ 14/15
    Network Adapter - IRQ 4
    Network Adapter - IRQ 9
    Mass Storage Device - IRQ 3
    Mass Storage Device - IRQ 10
    Mass Storage Device - IRQ 12
    Mass Storage Device - IRQ 7
    Mass Storage Device - IRQ 5
    The important concept for linux raid is : 1 drive per channel ONLY!! Slave devices kill performance, and, in raid-5 disk groups, if one drive fails, it will most likely take the entire channel down including any slave devices....say bye bye to your data. So I needed a BIG case to house all of those drives, but, did not want to pay big $$$ to get one. Down to the local PC recycling warehouse I go. After digging for about an hour, I find in the corner, a big, black, Unisys/ALR Revolution Quad-6 Pentium-Pro Server with 16 hot swap slots (love those old tower servers), and, dual redundant 750 watt power supplies for $35.00....about 3 feet high and 18 inched wide. Total of 12 aluminum framed cooling fans. :-) Anyway, the key to finding an older, high-end server chassis, is the power supplies MUST have 3.3 volt outputs. Most older pre-ATX power supplies were 5 and 12vdc only. This chassis puts out 75 amps of current at 3.3 volts, 80 amps at 5 volts and 55 amps at 12 volts....more than enough, plus redundancy. The drive cages were fully populated with 2gb SCA SCSI drives. I removed the rails from all the SCSI drives, tossed the SCSI disks into the trash and mounted the rails on the big Hitachi's. The SCA backplanes on the cages came out with 4 screws exposing the back of the cages for the IDE power and data cables....Voila!!!
    Just like it was designed that way. I decided to use Redhat 9, 2.4.20-x due to the $hitty performance of 2.6.x software raid. After patching the kernel to use EVMS, I created the md device and made some volume groups. Formatting took a little over 7 hours, but, when I saw 3,046,233,510,000 bytes free, I felt it was worth 2 weeks work.....LOL
    27.4.2007 10:27 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    na 3 TB je tam malo RAM. Takova uvaha je:

    rychlost site 1GB/s na s NFS pres UDP na kvalitnim hardware - nejaky soucasny dual core dual cpu HP a sitofka s dynamickou spravou preruseni a maximalnima DMA bufferama na servrove Intel sitovce udelate asi i neco kolem 105MByte/s a kdyz bude bondovana 4portova sitofka v tom serveru treba v 4 slotech, tak to je 1600GByte/s... todle teda asi uz neutahne procesor pres NAPI a zacne to na prijmu dropovat... otazka taky jak ucinne se budou data zpracovavat... jestli se nebude nejaka cast pameti cist treba 5krat a tak.

    Potom ta mensi z rychlosti cteni a zapisu a jeste ji podelit promennou rychlosti seekovani disku.

    Odhadnout pocet uzivatelu. Nastrelim 80 soucasne? = pak neni potreba takovy zelezo ;-) Nevim jak moc mala sit to je... Od toho spocitat velikost zabrane pameti procesy co obsluhuji pripojeni klientu.

    No a po tom vsem vzit rychlost site / rychlost disku a vypadne z toho procento. To procento vzit z cele velikosti diskoveho pole a je to ta pamet, ktera ma zustat volna pro cache/buffery a nebudou ji zabirat uzivatelske procesy...
    27.4.2007 10:44 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Jinak takovy jeden pomalejsi "domaci" pro malou sit.

    2 roky zpet...

    stary 3 kusy Maxtory SATA 1 + NCQ po 250GB = 10tis

    nForce 4 ultra (CK804) nejobycejnejsi pameti atd atd - polodesktop = 10tis

    Layout... partition - lvm - raid (a) - lvm (b) - filesystem
    Linearni cteni z toho v bode (a) dela:
     Timing buffered disk reads:  306 MB in  3.01 seconds = 101.62 MB/sec
     Timing buffered disk reads:  314 MB in  3.02 seconds = 103.93 MB/sec
     Timing buffered disk reads:  318 MB in  3.01 seconds = 105.54 MB/sec
    
    Linearni cteni z toho v bode (b) dela:
     Timing buffered disk reads:  330 MB in  3.02 seconds = 109.39 MB/sec
     Timing buffered disk reads:  298 MB in  3.00 seconds =  99.32 MB/sec
     Timing buffered disk reads:  332 MB in  3.01 seconds = 110.35 MB/sec
    
    Takze to v podstate staci vyizit 1 klienta na gigabitu. Vic lidi paralelne by to uz asi nezvladalo tak pekne.

    RAID 10 v degradovanym rezimu to umi jen 63MB/sec

    RAID 5 v degradovanym rezimu umi mezi 44 az 55MB/sec podle zateze na desktopu to klesa az pod 20MB/sec

    a jeste ze jsem se podival :) ... jak se to pred mesicem upeklo, tak jeden disk prestal reagovat na a vytuhl system a bylo to degradovany :)
    14.11.2004 18:23 Celaskon
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    A absolutni silenost :)

    http://www6.tomshardware.com/storage/20030425/70tb_backup-03.html
    14.11.2004 18:28 Celaskon
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    http://www.finnie.org/terabyte/
    11.11.2004 15:51 Jiří Veselský | skóre: 30 | blog: Jirkovo | Ostrava
    Rozbalit Rozbalit vše Prakticky odzkoušeno
    Používáme toto, osazeno na 1 TB a zkušenosti veskrze kladné. Nicméně se obávám, že to nebude vyhovovat té větě "Dulezitym prvkem je v tomto pripade cena" ;-)
    11.11.2004 18:09 Zdeněk Štěpánek | skóre: 57 | blog: uz_mam_taky_blog | varnsdorf
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Zdravim

    Podle me neni co resit, jelikoz server potrebuje taky z neceho bootovat (bootovat z toho pole te doufam nenapadlo) a mozna tam mas i cdromku, tak bych koupil PATA 133 radic do PCI a na nej 4 identicky disky, treba 200GB nebo vetsi. Bud na tom udelej RAID0 nebo muzes i RAID5 a ten patej disk dej na integrovanej radic.

    Zdenek
    www.pirati.cz - s piráty do parlamentu i jinam www.gavanet.org - czfree varnsdorf
    11.11.2004 21:22 Jarek Šeděnka
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    co je spatneho na bootovani z RAID pole? pokud to bude nejaky RAID5 nebo neco podobneho, mohlo by to byt odolnejsi proti vypadkum..
    11.11.2004 23:16 jm
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Spatneho na tom neni nic, ale muselo by to nejdriv nabootovat, coz je s vyjimkou RAID-1 docela dost problem. :-)
    27.4.2007 11:07 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    ehm ehm.
    fdisk -l /dev/sda
    
    Disk /dev/sda: 251.0 GB, 251000193024 bytes
    255 heads, 63 sectors/track, 30515 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes
    
       Device Boot      Start         End      Blocks   Id  System
    /dev/sda2   *           1          19      151199+  fd  Linux raid autodetect
    Partition 2 does not end on cylinder boundary.
    /dev/sda3            1294       30516   234729936   8e  Linux LVM
    Partition 3 does not end on cylinder boundary.
    
    md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
          151104 blocks [4/4] [UUUU]
    
    mount
    /dev/mapper/r5-stable on / type reiserfs (rw)
    /dev/md1 on /boot type ext3 (rw)
    /dev/mapper/r10-var on /var type reiserfs (rw)
    /dev/mapper/r5-data on /data type reiserfs (rw)
    /dev/mapper/r6-home on /home6 type reiserfs (rw)
    /dev/mapper/r10-home on /home type reiserfs (rw)
    
    
    Jinak zbytek systemu:
    
    cat /proc/mdstat
    Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
    md10 : active raid10 dm-10[3] dm-1[0] dm-7[2] dm-4[1]
          31457152 blocks 64K chunks 2 near-copies [4/4] [UUUU]
    
    md6 : active raid6 dm-0[0] dm-9[3] dm-6[2] dm-3[1]
          20971392 blocks level 6, 64k chunk, algorithm 2 [4/4] [UUUU]
    
    md5 : active raid5 dm-11[4] dm-2[0] dm-8[2] dm-5[1]
          597688128 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
          [====>................]  recovery = 21.0% (41840592/199229376) finish=50.8min speed=51553K/sec
    
    md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
          151104 blocks [4/4] [UUUU]
    
    unused devices: 
    /opt/initrd/sbin/lvm.static vgs
      VG   #PV #LV #SN Attr  VSize   VFree
      a      1   3   0 wz--n 223.86G  8.86G
      b      1   3   0 wz--n 223.86G  8.86G
      c      1   3   0 wz--n 223.86G  8.86G
      d      1   3   0 wz--n 223.86G  8.86G
      r10    1   3   0 wz--n  30.00G  2.00G
      r5     1   2   0 wz--n 570.00G 16.00G
      r6     1   1   0 wz--n  20.00G     0
    
    to jen pro mapovani cisel dm-# na vg-lv
    ls -l -1 /dev/mapper/* | sed -e 's/[[:space:]]\+/ /g' | cut -d " " -f 6,9 | sort -n
    0 /dev/mapper/a-raid6
    1 /dev/mapper/a-raid10
    2 /dev/mapper/a-raid5
    3 /dev/mapper/b-raid6
    4 /dev/mapper/b-raid10
    5 /dev/mapper/b-raid5
    6 /dev/mapper/c-raid6
    7 /dev/mapper/c-raid10
    8 /dev/mapper/c-raid5
    9 /dev/mapper/d-raid6
    10 /dev/mapper/d-raid10
    11 /dev/mapper/d-raid5
    12 /dev/mapper/r5-data
    13 /dev/mapper/r5-stable
    14 /dev/mapper/r6-home
    15 /dev/mapper/r10-swap
    16 /dev/mapper/r10-var
    17 /dev/mapper/r10-home
    
    jinak na disku je rezerva pro uplne novy druh partition. vsechny 4 disky vypadaji stejne.

    kazdej disk je resenej samostatne, aby se dal jednotlive vyhodit bez velkyho stvani. proto je kazda LVM partition ve vlstani VG .

    Nad VG jsou delany LV raidX tak aby se dal delat enlargement podle potreb. Dany LV raidX pouzivam v mdX o levelu X.

    No a kdybych nahodou chtel neco jako limit pro adresar bez kvot, ruzny FS nebo mount optiony, tak v kazdym raidu je opet LVM s VG rX.
    27.4.2007 11:16 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    bootovani je trivka.
    ramdisk:
    
    find | grep -ve '\.\/dev'
    .
    ./etc
    ./etc/lvm
    ./lib
    ./lib/libdevmapper.a.1.01
    ./lib/libdevmapper.so.1.01
    ./lib/libdevmapper.so
    ./lib/libdevmapper.a
    ./man
    ./man/man5
    ./man/man5/lvm.conf.5
    ./man/man8
    ./man/man8/lvreduce.8
    ./man/man8/vgexport.8
    ./man/man8/vgextend.8
    ./man/man8/vgrename.8
    ./man/man8/vgremove.8
    ./man/man8/lvextend.8
    ./man/man8/lvrename.8
    ./man/man8/lvremove.8
    ./man/man8/lvm.8
    ./man/man8/lvs.8
    ./man/man8/pvs.8
    ./man/man8/vgs.8
    ./man/man8/vgmerge.8
    ./man/man8/vgsplit.8
    ./man/man8/lvresize.8
    ./man/man8/pvremove.8
    ./man/man8/vgdisplay.8
    ./man/man8/vgchange.8
    ./man/man8/vgcfgrestore.8
    ./man/man8/dmsetup.8
    ./man/man8/pvmove.8
    ./man/man8/lvchange.8
    ./man/man8/pvscan.8
    ./man/man8/pvchange.8
    ./man/man8/lvmdiskscan.8
    ./man/man8/lvmchange.8
    ./man/man8/vgconvert.8
    ./man/man8/pvdisplay.8
    ./man/man8/vgck.8
    ./man/man8/vgmknodes.8
    ./man/man8/lvdisplay.8
    ./man/man8/vgcreate.8
    ./man/man8/vgimport.8
    ./man/man8/vgscan.8
    ./man/man8/vgcfgbackup.8
    ./man/man8/lvcreate.8
    ./man/man8/pvcreate.8
    ./man/man8/lvscan.8
    ./man/man8/vgreduce.8
    ./sys
    ./var
    ./var/lock
    ./var/lock/lvm
    ./usr
    ./usr/share
    ./usr/share/man
    ./usr/share/man/man4
    ./usr/share/man/man4/md.4
    ./usr/share/man/man5
    ./usr/share/man/man5/mdadm.conf.5
    ./usr/share/man/man8
    ./usr/share/man/man8/mdadm.8
    ./busy
    ./proc
    ./sbin
    ./sbin/lvm
    ./sbin/lvs
    ./sbin/pvs
    ./sbin/vgs
    ./sbin/vgck
    ./sbin/lvm.static
    ./sbin/lvconvert
    ./sbin/mdadm
    ./sbin/dmsetup
    ./sbin/lvdisplay
    ./sbin/pvchange
    ./sbin/pvcreate
    ./sbin/vgmknodes
    ./sbin/pvremove
    ./sbin/pvresize
    ./sbin/lvmchange
    ./sbin/lvmsadc
    ./sbin/vgcfgrestore
    ./sbin/lvmdiskscan
    ./sbin/pvdisplay
    ./sbin/lvmsar
    ./sbin/lvscan
    ./sbin/vgchange
    ./sbin/vgcreate
    ./sbin/pvmove
    ./sbin/pvscan
    ./sbin/vgexport
    ./sbin/vgextend
    ./sbin/vgimport
    ./sbin/vgscan
    ./sbin/vgmerge
    ./sbin/vgsplit
    ./sbin/lvchange
    ./sbin/lvcreate
    ./sbin/lvextend
    ./sbin/dmsetup.static
    ./sbin/vgreduce
    ./sbin/vgrename
    ./sbin/vgremove
    ./sbin/vgconvert
    ./sbin/vgcfgbackup
    ./sbin/lvreduce
    ./sbin/lvrename
    ./sbin/lvremove
    ./sbin/lvresize
    ./sbin/vgdisplay
    ./sbin/busybox
    ./linuxrc
    ./include
    ./include/libdevmapper.h
    ./lost+found
    
    start skript
    #!/sbin/busybox sh
    
    PATH=/sbin
    alias lvm=lvm.static
    mount -t sysfs none /sys
    mount -t proc none /proc
    lvm pvscan
    lvm vgscan
    lvm lvscan
    lvm lvchange -a y a
    lvm lvchange -a y b
    lvm lvchange -a y c
    lvm lvchange -a y d
    mdadm --assemble /dev/md5 /dev/a/raid5 /dev/b/raid5 /dev/c/raid5 /dev/d/raid5
    mdadm --assemble /dev/md6 /dev/a/raid6 /dev/b/raid6 /dev/c/raid6 /dev/d/raid6
    mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/c/raid10 /dev/d/raid10
    mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/d/raid10
    lvm pvscan
    lvm vgscan
    lvm lvscan
    lvm lvchange -a y r5
    lvm lvchange -a y r6
    lvm lvchange -a y r10
    #echo 64522 > /proc/sys/kernel/real-root-dev
    real-root-dev /dev/mapper/r5-stable
    umount /sys
    umount /proc
    
    real-root-dev je taky trivka. vraci jen device cislo z lstatu struct_fs - jen pro jistotu, aby to bootovalo i kdyz nahodou nekdo zmeni jadro a zmeni se cislo zarizeni.

    akorat kdyz disk uplne chcipne neob se vytahne, tak se nedostane pres: mdadm --assemble /dev/md5 /dev/a/raid5 /dev/b/raid5 /dev/c/raid5 /dev/d/raid5 mdadm --assemble /dev/md6 /dev/a/raid6 /dev/b/raid6 /dev/c/raid6 /dev/d/raid6 mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/c/raid10 /dev/d/raid10 mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/d/raid10

    mdadm v te verzi co mam rve, ze mu chybi zarizeni... mozna by stalo za to provist upgrade a checknout jak jsou na tom.

    pro cistku, aby system po nabehnuti odpovidal tomu co se delo v ramdisku...
    rcS.d# cat S05moje_lvm
    #!/bin/sh
    
    echo "LVM hack pre-init tmpfs mounts and config"
    mount -nt tmpfs -o size=5m none /etc/lvm;
    mount -nt tmpfs -o size=1m none /var/lock/lvm;
    cp /etc_cust/lvm/lvm.conf /etc/lvm/
    echo "LVM hack rescanning LVs";
    /opt/initrd/sbin/lvm.static lvscan;
    echo "LVM hack recreating device mapper block device nodes";
    /opt/initrd/sbin/lvm.static vgmknodes;
    echo "LVM hack post cleanup tmpfs unmounts"
    umount -n /etc/lvm
    umount -n /var/lock/lvm
    echo "LVM hack finished";
    
    27.4.2007 11:19 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Proboha, nechte už toho. Opravdu jste přesvědčen, že pokud tazatele problém opravdu zajímal, více než dva roky čekal, až vy mu odpovíte?
    27.4.2007 11:23 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    hele je to tady pro archivaci jak se to da resit.
    27.4.2007 11:23 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    a hlavne ze to funguje
    27.4.2007 11:31 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    To je sice hezké, ale když se někdo na podzim 2004 zeptá, jak sestavit pole z IDE disků, a na jaře 2007 mu lidé začnou o závod vysvětlovat, že IDE je out, ať jde do SATA, opravdu nevím, co si mám o tak hodnotné odpovědi myslet.
    27.4.2007 11:34 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    reagujete na spatnou osobu.
    27.4.2007 11:46 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Reaguji všeobecně. Kdybych to měl psát zvlášť ke každému příspěvku, jehož autor se neobtěžoval podívat na datum toho, na co odpovídá, nebudu dělat nic jiného. Vy jste z nich ale zdaleka nejaktivnější, proto jsem to napsal k vašemu.
    27.4.2007 11:26 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    cat real-root-dev.c
    #define _GNU_SOURCE
    #include stdio.h
    #include stdlib.h
    #include sys/types.h
    #include sys/stat.h
    #include unistd.h
    #include errno.h
    #include fcntl.h
    
    extern int errno;
    
    int main(int argc, char **argv) {
            int r=-1,d=-1;
            FILE *p=NULL;
            struct stat st;
            char *strp=NULL;
    
            /* arg check */
            if (argc !=2) {
                    fprintf(stderr, "Need just one block device\n");
                    exit(1);
            }
    
            /* prevent argument moving during/after checks */
            d= open(argv[1],O_RDONLY);
            if (-1==d) {
                    perror("opening parameter");
                    exit(1);
            } else if (0>d) {
                    fprintf(stderr,"Opened parameter with invalid ret\n");
                    close(d);
                    exit(1);
            }
    
            /* get the locked argument's properties */
            r= fstat(d, &st);
            if (0==r) {
            } else if (-1== r) {
                    perror("fstating parameter");
                    close(d);
                    exit(1);
            } else {
                    fprintf(stderr, "Stated parametr with invalid ret\n");
                    perror("fstating parameter");
                    close(d);
                    exit(1);
            }
    
            /* inspect the properties */
            if (! (S_ISBLK(st.st_mode))) {
                    fprintf(stderr, "Parameter is not block device\n");
                    close(d);
                    exit(1);
            }
    
            close(d);
    
            /* get the proc file */
            p= fopen("/proc/sys/kernel/real-root-dev", "w");
            if (NULL==p) {
                    perror("opening proc");
                    exit(1);
            }
    
            /* write it */
            d= fprintf(p,"%d", st.st_rdev);
            fclose(p);
    
            /* memorize it */
            r= asprintf( &strp, "%d", st.st_rdev);
    
            /* compare the result !!! */
            if ((-1 == r) || (-1 == d) || (r != d)) {
                    fprintf(stderr, "Trying to sleep for 2 minutes before shit happens\n");
                    fprintf(stderr, "It's up to you to push the button and reboot into rescue\n");
                    usleep(120000000);
                    fprintf(stderr, "Woke up and going to see the shit.\n");
                    fprintf(stderr, "...hope you have the interactive rescue on my error\n");
                    exit(1);
            }
            exit(0);
    }
    
    27.4.2007 11:29 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    To soutěžíte o titul exhumátora roku nebo o co se vlastně snažíte? A proč tím zdrojákem odpovídáte mně?
    27.4.2007 17:58 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    klidne. nemusi prset, staci kdyz kape.
    27.4.2007 11:22 *
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    jo ale ten vytazenej/mrtvej disk neni problem protoze vedle je hned v bootloaderu jadro s podobnym ramdiskem co ma sash jako /linuxrc a ramdisky jsou v ext2 formatu, takze se rucne poskladat z toho rescue ramdisku md1 a v nem loopnountnout z "busybox sh" ten druhy ramdisk a zmenit v nem ten load skript a nebo se da z toho rescue snadno poskladat cely system a dobootovat a pak pohodlne fixnout uz z beziciho systemu...
    12.11.2004 09:01 wocis
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    koupili jsme komponenty a poskladali je do celkem levneho reseni (aspon myslim - oproti jinym)
    server case - supermicro
    (http://www.supermicro.com/products/chassis/3U/833/SC833T-R760.cfm)
    - 8 pozic na SATA disky - jsou to hotswap supliky, tripple redundant 760W zdroj hotswap, prodavaji ten samy case i v provedeni s jednim 550W zdrojem.
    -disky jsme do toho koupili 8x200G seagate (zapojeny do raid5).
    jako raidovou kartu tam mame highpoint rocketraid (karta di pci-x, ma na sobe chip na paritu - je to skutecny "hw" raid)
    deska je intel torey pines - entry level server board
    - ma na sobe adaptec SATA raid na kterem jsou poveseny dva disky 80G seagate v mirroru, dale dve sitovky (100mbit + 1gbit) daji se dat do teamu.
    procesor 3.2 p4 HT, pameti 2GB (4x512).
    zatim nam to ve firme jede v testovacim rezimu, ale zatim dojmy jenom kladne. nesrovnatelne vyssi rychlost, propustnost nez vedle "sedici" hp server + fibre channel pole.
    vyslo nas to na cca 90 bez dane.
    ke vsemu jsou linuxovy drivery (intel, adaptec, highpoint)
    kdyby nekdo chtel muzu to vyfotit :)
    12.11.2004 10:11 Beda
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    raid5? dekuji nikdy vice. je to neskutecne pomale pokud to srovnate s raid10 pod vyvazenou zatezi cteni:zapis
    12.11.2004 10:06 Beda
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Pata nebo sata2. Se sata jste bez smartu nebo ne? (podle toho jakou tu mam umrtnost disku nutno rict ze scsi (atlasy) prumerna zivotnost tri ctvrte roku pri pretezovani systemu 14 hodin denne si nemyslim, ze to nejaka lacina prehrivajci se sata prezije dyl - tech ~100 uzivatelu soucasne)

    Podle poctu soubeznych uzivatelu to bude chtit i obrovske mnozstvi ram pro tcp/diskove buffery/cache. Velky readahead. Pokud maji byt i relativne castejsi zapisy, tak velkou cache na discich a pokud maji byt hodne caste, tak obrovske hodnoty elvtune pro zapis a potom samozrejme upsku s baterkou na dobu aspon 100x vetsi nez je hodnota v elvtune. No a pokud ma byt i obrovske mnozstvi lidi, kteri budou soucasne cist, tak bud male kapacity disku v velkem poctu menekrat mirrorovane nebo velke kapacity disku v mensim poctu vicekrat mirrorovane - ale to pak musite vyladit elvtune a mit dost ramky, aby jste uspokojili zapisy.

    Jo a jeste rozmyslete si co je u toho fileserveru dulezitejsi, jestli cteni nebo zapisy. Podle me interaktivnost cteni jinak se lidi vybodnou na to to pouzivat, takze kratsi casy v elvtune pro cteni a mnohonasobne delsi pro zapis.
    14.11.2004 17:50 Celaskon
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Velice pekna prace:

    http://www.pasternak.net/boris/fileserver.shtml
    14.11.2004 18:19 Celaskon
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    http://www.sr5tech.com/building_reliable_storage.htm
    20.4.2007 13:12 ONDREJ DUCHON
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Delat velke pole na IDE je nesmysl. A je celkem jedno na jakym OS to pole pobezi. Jakmile se ti tam pripoji vic jak 50 lidi a zacne tam delat rotyku se zapisem a ctenim, tak to ten buffer nezvladne a praskne ty data kam se mu hodi. Pak po pul roce zjistit ze treba ISO image jsou uplne v haji, ikdyz se zdaji byt vporadku. Tot ma vlastni zkusenost s mym zamestnavatelem, ktery nehodlal investovat do SCSI technologie.
    20.4.2007 13:15 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Na to jsme tady všichni dva roky netrpělivě čekali…
    27.4.2007 11:57 Peter Lehotsky
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Stavime podobny system a informace prisli vhod (ackoliv to neni na IDE). Jde o principy, napady a tech nikdy neni dost.

    Na druhou stranu si myslim ze nikdo tady 2 roky netrpelive necekal ani na vase vylevy. Proc probuh komentujete kazdy thread?
    27.4.2007 12:09 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Protože se snažím, aby tento dávno mrtvý a dávno vyřešený thread neustále noví a noví nepozorní komentátoři nevynášeli nahoru, čímž přilákají další a další. Bohužel marně… :-(
    27.4.2007 12:16 Peter Lehotsky
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Ale zatim ho nejvice vynasite vy :-). Jeste jednou, jde tady o obecne principy a zkusenosti pri stavbe velkeho diskoveho pole, nebral bych to jako mrtvou zalezitost a jeste jednou opakuji TATO INFORMACE MI (castecne) POMOHLA.

    Pokud vam uz jde o cistotu abicka, co takhle http://www.abclinuxu.cz/hledani?dotaz=windows&advancedMode=true&typ=poradna&typ=diskuse

    plati i pro zdejsi cenzory (Dolezel, Kratky), tohle vam panove nevadi, neni tam nejak moc windowsu na ciste linuxovy server?
    27.4.2007 12:25 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Tak přesně tato větev diskuse dokládá, jak nesmyslné je oživování extrémně starých dotazů. Někdo se na podzim 2004 zeptá na detaily realizace pole z IDE disků, načež mu na jaře 2007 někdo jiný přemoudřele vysvětlí, že stavět to z IDE disků je přece blbost. To je opravdu podnětné. Takže teď počkáme dalších půl roku, než nám jiný mudrc vysvětlí, že na terabyte stačí jeden disk, takže netřeba stavět pole, a pak za další tři roky někdo přijde s objevem, že na tak malou kapacitu netřeba harddisku, protože stačí flashdisk?
    27.4.2007 12:27 Peter Lehotsky
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Ehmmm, to uz je ale otazka inteligence dotycneho.
    27.4.2007 00:49 janiksvc
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    To je samozrejme nesmysl, provozuji priblizne 4 roky pole s IDE a SATA disky o celkove raw kapacite 40TB a neni s tim nejmensi problem. Stejne tak kolegove z ostatnich instituci, se kterymi spolupracujeme, provozuji diskova pole v uhrne kapacite v radu stovek TB az 1.2PB (zalozene na Infortrend, SunFire X4500, ...) a take bez problemu. SCSI a FC disky jsou hezka vec, ale SATA jsou take dobre pouzitelne. Budou odchazet casteji, ale kdyz se s tim smirite, ziskate levne a dnes jiz i velmi rychle pole.
    Jiří Němec avatar 21.4.2007 00:24 Jiří Němec | skóre: 22 | blog: BluPix | Horní Smrčné
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Co tam planujete ukladat? Nebylo by lepší třeba DC++?
    Spock: "Logic, logic, logic. Logic is the beginning of wisdom, not the end.
    21.4.2007 01:36 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Mrkněte se na datum, kdy byl dotaz položen…
    Jiří Němec avatar 21.4.2007 08:23 Jiří Němec | skóre: 22 | blog: BluPix | Horní Smrčné
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    Pardon, vypadalo to nevyřešené, nějak datum moc nesleduji když je to ve výpisu na hlavní stránce a navíc bez značky vyřešeno.
    Spock: "Logic, logic, logic. Logic is the beginning of wisdom, not the end.
    27.4.2007 00:21 rpajik | skóre: 18 | blog: rpajikuv_blog
    Rozbalit Rozbalit vše Re: Terabytove IDE pole
    SW RAID5 resp RAID6 fungovat bude, ale nepocitej s nejakou extra rychlosti pri zapisu ( nejhorsi mozna konfigurace je 3x XXXGB disky v RAID5 - vypocetne nejnarocnejsi ). Nicmene fungovat to bude ... zapis v radech desitek MB/s - je dano primarne propustnosti sbernice + rychlosti procesoru ( bude pocitat paritu ). HW reseni ... v Linuxu doporucuji jednoznacne radice 3ware, na ukladani dat bez casteho pristupu je mozne pouzit treba Adaptec ( ale treba pro RAID6 docela pomale ) nebo nejaky ARECA radic, ktery ma ale v linuxu dost nepovedene drivery a osobne bych ho doporucil spis na nejakou storage pro backupy. Ukazky reseni ... cokoli od SW RAIDu (RAID1, RAID5) az po pekne diskove pole napojene k serverum pres FibreChannel ( IBM DS4700 ) v praxi pouzivam ... staci ti fotky, nebo chces exkurzi po serverovne ? :-D
    27.4.2007 00:26 Michal Kubeček | skóre: 71 | Luštěnice
    Rozbalit Rozbalit vše Re: Terabytove IDE pole

    Je to asi marné, ale zkusím to ještě jednou: Ten dotaz je skoro dva a půl roku starý. Opravdu myslíte, že tazatel čekal s realizací toho pole přes dva roky, než mu odpovíte?

    Založit nové vláknoNahoru

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.