abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
AbcLinuxu hledá autory!
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
eParkomat, startup z ČR, postoupil mezi finalisty evropského akcelerátoru ChallengeUp!
Robot na pivo mu otevřel dveře k opravdovému byznysu
Internet věcí: Propojený svět? Už se to blíží...
dnes 11:44 | Zajímavý projekt

Na Indiegogo byla spuštěna kampaň na podporu herní mini konzole a multimediálního centra RetroEngine Sigma od Doyodo. Předobjednat ji lze již od 49 dolarů. Požadovaná částka 20 000 dolarů byla překonána již 6 krát. Majitelé mini konzole si budou moci zahrát hry pro Atari VCS 2600, Sega Genesis nebo NES. Předinstalováno bude multimediální centrum Kodi.

Ladislav Hagara | Komentářů: 0
dnes 00:10 | Nová verze

Byla vydána verze 4.7 redakčního systému WordPress. Kódové označením Vaughan bylo vybráno na počest americké jazzové zpěvačky Sarah "Sassy" Vaughan. Z novinek lze zmínit například novou výchozí šablonu Twenty Seventeen, náhledy pdf souborů nebo WordPress REST API.

Ladislav Hagara | Komentářů: 0
včera 12:00 | Zajímavý projekt

Projekt Termbox umožňuje vyzkoušet si linuxové distribuce Ubuntu, Debian, Fedora, CentOS a Arch Linux ve webovém prohlížeči. Řešení je postaveno na projektu HyperContainer. Podrobnosti v často kladených dotazech (FAQ). Zdrojové kódy jsou k dispozici na GitHubu [reddit].

Ladislav Hagara | Komentářů: 24
včera 11:00 | Bezpečnostní upozornění

Byly zveřejněny informace o bezpečnostní chybě CVE-2016-8655 v Linuxu zneužitelné k lokální eskalaci práv. Chyba se dostala do linuxového jádra v srpnu 2011. V upstreamu byla opravena minulý týden [Hacker News].

Ladislav Hagara | Komentářů: 2
5.12. 22:00 | Komunita

Přibližně před měsícem bylo oznámeno, že linuxová distribuce SUSE Linux Enterprise Server (SLES) běží nově také Raspberry Pi 3 (dokumentace). Obraz verze 12 SP2 pro Raspberry Pi 3 je ke stažení zdarma. Pro registrované jsou po dobu jednoho roku zdarma také aktualizace. Dnes bylo oznámeno, že pro Raspberry Pi 3 je k dispozici také nové openSUSE Leap 42.2 (zprávička). K dispozici je hned několik obrazů.

Ladislav Hagara | Komentářů: 6
5.12. 06:00 | Zajímavý software

OMG! Ubuntu! představuje emulátor terminálu Hyper (GitHub) postavený na webových technologiích (HTML, CSS a JavaScript). V diskusi k článku je zmíněn podobný emulátor terminálu Black Screen. Hyper i Black Screen používají framework Electron, stejně jako editor Atom nebo vývojové prostředí Visual Studio Code.

Ladislav Hagara | Komentářů: 50
5.12. 06:00 | Zajímavý článek

I letos vychází řada ajťáckých adventních kalendářů. QEMU Advent Calendar 2016 přináší každý den nový obraz disku pro QEMU. Programátoři se mohou potrápit při řešení úloh z kalendáře Advent of Code 2016. Kalendáře Perl Advent Calendar 2016 a Perl 6 Advent Calendar přinášejí každý den zajímavé informace o programovacím jazyce Perl. Stranou nezůstává ani programovací jazyk Go.

Ladislav Hagara | Komentářů: 10
3.12. 16:24 | Nová verze

Byla vydána Mageia 5.1. Jedná se o první opravné vydání verze 5, jež vyšla v červnu loňského roku (zprávička). Uživatelům verze 5 nepřináší opravné vydání nic nového, samozřejmě pokud pravidelně aktualizují. Vydání obsahuje všechny aktualizace za posledního téměř půldruhého roku. Mageia 5.1 obsahuje LibreOffice 4.4.7, Linux 4.4.32, KDE4 4.14.5 nebo GNOME 3.14.3.

Ladislav Hagara | Komentářů: 17
3.12. 13:42 | Pozvánky

V Praze probíhá konference Internet a Technologie 16.2, volné pokračování jarní konference sdružení CZ.NIC. Konferenci lze sledovat online na YouTube. K dispozici je také archiv předchozích konferencí.

Ladislav Hagara | Komentářů: 0
2.12. 22:44 | Komunita

Joinup informuje, že Mnichov používá open source groupware Kolab. V srpnu byl dokončen dvouletý přechod na toto řešení. V provozu je asi 60 000 poštovních schránek. Nejenom Kolabu se věnoval Georg Greve ve své přednášce Open Source: the future for the European institutions (SlideShare) na konferenci DIGITEC 2016, jež proběhla v úterý 29. listopadu v Bruselu. Videozáznam přednášek z hlavního sálu je ke zhlédnutí na Livestreamu.

Ladislav Hagara | Komentářů: 26
Kolik máte dat ve svém domovském adresáři na svém primárním osobním počítači?
 (32%)
 (23%)
 (29%)
 (8%)
 (5%)
 (3%)
Celkem 783 hlasů
 Komentářů: 50, poslední 29.11. 15:50
Rozcestník
Reklama

Dotaz: Terabytove IDE pole

11.11.2004 14:14 Johny 5
Terabytove IDE pole
Přečteno: 566×
Provozujete nekdo file server na IDE (PATA/SATA) o velikosti v radu Terabytu? Planujeme postavit pro nasi komunitni sit centralni ftp server. Dulezitym prvkem je v tomto pripade cena .

Jedna se nam jak o sw tak hw. Ukazky fungujicich reseni vitany.

cya Johny 5

Odpovědi

11.11.2004 14:35 jm
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Hmm, tak jsem nejak nepochopil, na co se ptate. Kupte par nejlepe stejnych disku a udelejte z toho v Linuxu SW RAID (linear nebo RAID-0).
Petr Krčmář avatar 11.11.2004 14:39 Petr Krčmář | skóre: 60 | Liberec
Rozbalit Rozbalit vše Re: Terabytove IDE pole
No, na první pohled dobrá rada, ale nevím nevím. Takhle jde spolehlivost do háje a pokud na to bude ukládat 100 lidí a klekne jeden z těch disků, tak budou mít radost.
Amatéři postavili Noemovu archu, profesionálové Titanic ...
11.11.2004 14:42 jm
Rozbalit Rozbalit vše Re: Terabytove IDE pole
No kdyz jim jde o cenu, tak jina rada asi neni. RAID-10 nebo RAID-50 bude holt vzdycky drazsi. O skutecne hardwarovych radicich nemluve.
11.11.2004 15:25 Johny 5
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Linear Raid bych vyradil z vyberu neb pri vypadku jednoho disku kleknou vsechny. To uz je lepsi JBOD, ktery se da jakz takz zachranit.

Rikal jsem si ci nepouzit SW Raid 5. Se SW RAID mirrorem mam velmi dobre zkusenosti.

Pouzit SATA radic na deske a k tomu pridat SATA radice do PCI a zde bych se nebal i neznackovych SATA PCI radicu.

Na trhu je Hitachi 400GiB disk ale jeho cena je velka v porovnani s ekvivalentem v 200GiB discich.

FS dame nejspise ReiserFS pro jeho dobrou podporu pod Gentoo.

Jde o volnou diskuzi na toto tema...je to v ranne fazi...shromazdujeme penize...tedy zvazujeme co vse budeme potrebovat. Jak rikam potesilo by nejake info o podobnem realizovanem projektu.
11.11.2004 15:44 makak | skóre: 16
Rozbalit Rozbalit vše Re: Terabytove IDE pole
No ja som z financnych dovodov kupil 120Gb disky asi pred 3 mesiacmi.. dal som to do raid10.. pri pokusoch s roznymi kernelmi (mam 2 rozne radice na doske (SATA)..) sa mi stalo, ze mi nenasel jeden radic a pole by definitivne zblblo, ak by tam bolo nieco ine ako raid 10 alebo 0+1 .. resp bol by problem to nakopnut spatky... takto to islo len degradovanom rezime.. (!! md vzdy mezdi diskami roznych radicov !! aspon podla mna je to bezpecnejsie ako viazat ich na jednom radici.. ..) zalezi aku dosku tam chcete mat... Jo a este treba prestudovat kernel 2.6.9 - ten ma pridanu podporu raid10 .. ale myslim ze to este nebude zdokumentovane.. ale urcite viem ze na to treba mat aj minimalne mdadm 1.7.0 .. skontrolujte si verziu v distribucii..
11.11.2004 15:47 makak | skóre: 16
Rozbalit Rozbalit vše Re: Terabytove IDE pole
(!! md vzdy mezdi diskami roznych radicov !! ) som myslel na raid1 -> md1 (sda1 [raidc 1] + sdc1 [radic2]) , md2 (sdb1 [radic1] + sdd1 [radic2]) a tieto z viazat do raid0 -> md3 = raid 10
11.11.2004 15:49 makak | skóre: 16
Rozbalit Rozbalit vše Re: Terabytove IDE pole
a este poznamocka ze mdadm 1.8.0 ma uz fixovanu podporu nad 2TB pre RAID0..
11.11.2004 23:17 jm
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Eh, muzu se zeptat jak se lisi linear RAID a JBOD? :-D
27.4.2007 09:59 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
http://searchstorage.techtarget.com/sDefinition/0,,sid5_gci343350,00.html

dost. pokud pocitate s tim, ze "linear raid" neni standardizovany a uznavany tudiz to neni raid a museli tomu vymyslet jiny nazev.
14.11.2004 17:39 Celaskon
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Tohle bylo postly na nekde na internetu: 3TB IDE Software Raid-5 Server!!! ( post #1) I just finished a server build that involved a large amount of time, effort, and research to complete. I think the details are worth posting here for others to benefit. The Mission : Build a reliable and massively large linux file server for less than $1K/TB. The Result : 3 Terabytes of disk storage for $3100.00!!! Mission Accomplished!!!! System Specs: Used Unisys/ALR Server chassis (circa 1999) - 15 hot swap slots ***
Used ASUS P4T-533 MB with 1GB RIMM 4200 RDRAM (6 PCI Slots) P4B @ 3.06Ghz
2 Promise TX 133 ATA Cards
2 Promise TX 100 ATA Cards
2 Netgear GA-620 Fiber Gigabit adapters
12 250gb Hitachi ATA-100 Drives
This machine has a total of 12 IDE ports with NO interrupt sharing!!! You may think this to be impossible, but, I assure you, it works. After much trial and error, I discovered the key to get all of these cards to work together. Here is the deal.....Promise ATA adapters of the SAME model only have enough rom address space for two cards for a total of 4 ports.... more than two cards results in the machine locking up or not seeing the additional drives. However, other Promise models use different address space, but, also are limited to two cards for the same reason. Soooo, my servers IDE ports are as follows: 4 IDE ports on 133Tx2 Cards
4 IDE ports on 100Tx2 Cards
2 Ports on the motherboard IDE ports (Intel ICH2)
2 Ports on the motherboard Raid ports (Promise 20276 in JBOD mode) I disabled every other on-board serial, usb, parallel, audio, etc...to free up as many IRQ's as possible. As far as IRQ's are concerned, I learned a lot about the idiotic way in which intel based architecture/bios assigns interrupts. I still do not understand it, only through luck did I discover a mother board that did not gang up a bunch of devices on 1 IRQ (which absolutely KILLS raids performance)----The ASUS P4T-533. I tried 9 other boards from Abit, DFI, Giga-Byte, IWILL, Intel, etc.... all of them had interrupt conflicts and other sharing related IRQ issues. Intel oem boards are the worst by far!!??!! The P4T-533 with bios revision 1007 boots with the following assignments: Video - IRQ 11
On board IDE - IRQ 14/15
Network Adapter - IRQ 4
Network Adapter - IRQ 9
Mass Storage Device - IRQ 3
Mass Storage Device - IRQ 10
Mass Storage Device - IRQ 12
Mass Storage Device - IRQ 7
Mass Storage Device - IRQ 5
The important concept for linux raid is : 1 drive per channel ONLY!! Slave devices kill performance, and, in raid-5 disk groups, if one drive fails, it will most likely take the entire channel down including any slave devices....say bye bye to your data. So I needed a BIG case to house all of those drives, but, did not want to pay big $$$ to get one. Down to the local PC recycling warehouse I go. After digging for about an hour, I find in the corner, a big, black, Unisys/ALR Revolution Quad-6 Pentium-Pro Server with 16 hot swap slots (love those old tower servers), and, dual redundant 750 watt power supplies for $35.00....about 3 feet high and 18 inched wide. Total of 12 aluminum framed cooling fans. :-) Anyway, the key to finding an older, high-end server chassis, is the power supplies MUST have 3.3 volt outputs. Most older pre-ATX power supplies were 5 and 12vdc only. This chassis puts out 75 amps of current at 3.3 volts, 80 amps at 5 volts and 55 amps at 12 volts....more than enough, plus redundancy. The drive cages were fully populated with 2gb SCA SCSI drives. I removed the rails from all the SCSI drives, tossed the SCSI disks into the trash and mounted the rails on the big Hitachi's. The SCA backplanes on the cages came out with 4 screws exposing the back of the cages for the IDE power and data cables....Voila!!!
Just like it was designed that way. I decided to use Redhat 9, 2.4.20-x due to the $hitty performance of 2.6.x software raid. After patching the kernel to use EVMS, I created the md device and made some volume groups. Formatting took a little over 7 hours, but, when I saw 3,046,233,510,000 bytes free, I felt it was worth 2 weeks work.....LOL
27.4.2007 10:27 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
na 3 TB je tam malo RAM. Takova uvaha je:

rychlost site 1GB/s na s NFS pres UDP na kvalitnim hardware - nejaky soucasny dual core dual cpu HP a sitofka s dynamickou spravou preruseni a maximalnima DMA bufferama na servrove Intel sitovce udelate asi i neco kolem 105MByte/s a kdyz bude bondovana 4portova sitofka v tom serveru treba v 4 slotech, tak to je 1600GByte/s... todle teda asi uz neutahne procesor pres NAPI a zacne to na prijmu dropovat... otazka taky jak ucinne se budou data zpracovavat... jestli se nebude nejaka cast pameti cist treba 5krat a tak.

Potom ta mensi z rychlosti cteni a zapisu a jeste ji podelit promennou rychlosti seekovani disku.

Odhadnout pocet uzivatelu. Nastrelim 80 soucasne? = pak neni potreba takovy zelezo ;-) Nevim jak moc mala sit to je... Od toho spocitat velikost zabrane pameti procesy co obsluhuji pripojeni klientu.

No a po tom vsem vzit rychlost site / rychlost disku a vypadne z toho procento. To procento vzit z cele velikosti diskoveho pole a je to ta pamet, ktera ma zustat volna pro cache/buffery a nebudou ji zabirat uzivatelske procesy...
27.4.2007 10:44 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Jinak takovy jeden pomalejsi "domaci" pro malou sit.

2 roky zpet...

stary 3 kusy Maxtory SATA 1 + NCQ po 250GB = 10tis

nForce 4 ultra (CK804) nejobycejnejsi pameti atd atd - polodesktop = 10tis

Layout... partition - lvm - raid (a) - lvm (b) - filesystem
Linearni cteni z toho v bode (a) dela:
 Timing buffered disk reads:  306 MB in  3.01 seconds = 101.62 MB/sec
 Timing buffered disk reads:  314 MB in  3.02 seconds = 103.93 MB/sec
 Timing buffered disk reads:  318 MB in  3.01 seconds = 105.54 MB/sec

Linearni cteni z toho v bode (b) dela:
 Timing buffered disk reads:  330 MB in  3.02 seconds = 109.39 MB/sec
 Timing buffered disk reads:  298 MB in  3.00 seconds =  99.32 MB/sec
 Timing buffered disk reads:  332 MB in  3.01 seconds = 110.35 MB/sec
Takze to v podstate staci vyizit 1 klienta na gigabitu. Vic lidi paralelne by to uz asi nezvladalo tak pekne.

RAID 10 v degradovanym rezimu to umi jen 63MB/sec

RAID 5 v degradovanym rezimu umi mezi 44 az 55MB/sec podle zateze na desktopu to klesa az pod 20MB/sec

a jeste ze jsem se podival :) ... jak se to pred mesicem upeklo, tak jeden disk prestal reagovat na a vytuhl system a bylo to degradovany :)
14.11.2004 18:23 Celaskon
Rozbalit Rozbalit vše Re: Terabytove IDE pole
A absolutni silenost :)

http://www6.tomshardware.com/storage/20030425/70tb_backup-03.html
14.11.2004 18:28 Celaskon
Rozbalit Rozbalit vše Re: Terabytove IDE pole
http://www.finnie.org/terabyte/
11.11.2004 15:51 Jiří Veselský | skóre: 30 | blog: Jirkovo | Ostrava
Rozbalit Rozbalit vše Prakticky odzkoušeno
Používáme toto, osazeno na 1 TB a zkušenosti veskrze kladné. Nicméně se obávám, že to nebude vyhovovat té větě "Dulezitym prvkem je v tomto pripade cena" ;-)
11.11.2004 18:09 Zdeněk Štěpánek | skóre: 57 | blog: uz_mam_taky_blog | varnsdorf
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Zdravim

Podle me neni co resit, jelikoz server potrebuje taky z neceho bootovat (bootovat z toho pole te doufam nenapadlo) a mozna tam mas i cdromku, tak bych koupil PATA 133 radic do PCI a na nej 4 identicky disky, treba 200GB nebo vetsi. Bud na tom udelej RAID0 nebo muzes i RAID5 a ten patej disk dej na integrovanej radic.

Zdenek
www.pirati.cz - s piráty do parlamentu i jinam www.gavanet.org - czfree varnsdorf
11.11.2004 21:22 Jarek Šeděnka
Rozbalit Rozbalit vše Re: Terabytove IDE pole
co je spatneho na bootovani z RAID pole? pokud to bude nejaky RAID5 nebo neco podobneho, mohlo by to byt odolnejsi proti vypadkum..
11.11.2004 23:16 jm
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Spatneho na tom neni nic, ale muselo by to nejdriv nabootovat, coz je s vyjimkou RAID-1 docela dost problem. :-)
27.4.2007 11:07 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
ehm ehm.
fdisk -l /dev/sda

Disk /dev/sda: 251.0 GB, 251000193024 bytes
255 heads, 63 sectors/track, 30515 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda2   *           1          19      151199+  fd  Linux raid autodetect
Partition 2 does not end on cylinder boundary.
/dev/sda3            1294       30516   234729936   8e  Linux LVM
Partition 3 does not end on cylinder boundary.

md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      151104 blocks [4/4] [UUUU]

mount
/dev/mapper/r5-stable on / type reiserfs (rw)
/dev/md1 on /boot type ext3 (rw)
/dev/mapper/r10-var on /var type reiserfs (rw)
/dev/mapper/r5-data on /data type reiserfs (rw)
/dev/mapper/r6-home on /home6 type reiserfs (rw)
/dev/mapper/r10-home on /home type reiserfs (rw)


Jinak zbytek systemu:

cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md10 : active raid10 dm-10[3] dm-1[0] dm-7[2] dm-4[1]
      31457152 blocks 64K chunks 2 near-copies [4/4] [UUUU]

md6 : active raid6 dm-0[0] dm-9[3] dm-6[2] dm-3[1]
      20971392 blocks level 6, 64k chunk, algorithm 2 [4/4] [UUUU]

md5 : active raid5 dm-11[4] dm-2[0] dm-8[2] dm-5[1]
      597688128 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_]
      [====>................]  recovery = 21.0% (41840592/199229376) finish=50.8min speed=51553K/sec

md1 : active raid1 sdd2[3] sdc2[2] sdb2[1] sda2[0]
      151104 blocks [4/4] [UUUU]

unused devices: 
/opt/initrd/sbin/lvm.static vgs
  VG   #PV #LV #SN Attr  VSize   VFree
  a      1   3   0 wz--n 223.86G  8.86G
  b      1   3   0 wz--n 223.86G  8.86G
  c      1   3   0 wz--n 223.86G  8.86G
  d      1   3   0 wz--n 223.86G  8.86G
  r10    1   3   0 wz--n  30.00G  2.00G
  r5     1   2   0 wz--n 570.00G 16.00G
  r6     1   1   0 wz--n  20.00G     0

to jen pro mapovani cisel dm-# na vg-lv
ls -l -1 /dev/mapper/* | sed -e 's/[[:space:]]\+/ /g' | cut -d " " -f 6,9 | sort -n
0 /dev/mapper/a-raid6
1 /dev/mapper/a-raid10
2 /dev/mapper/a-raid5
3 /dev/mapper/b-raid6
4 /dev/mapper/b-raid10
5 /dev/mapper/b-raid5
6 /dev/mapper/c-raid6
7 /dev/mapper/c-raid10
8 /dev/mapper/c-raid5
9 /dev/mapper/d-raid6
10 /dev/mapper/d-raid10
11 /dev/mapper/d-raid5
12 /dev/mapper/r5-data
13 /dev/mapper/r5-stable
14 /dev/mapper/r6-home
15 /dev/mapper/r10-swap
16 /dev/mapper/r10-var
17 /dev/mapper/r10-home
jinak na disku je rezerva pro uplne novy druh partition. vsechny 4 disky vypadaji stejne.

kazdej disk je resenej samostatne, aby se dal jednotlive vyhodit bez velkyho stvani. proto je kazda LVM partition ve vlstani VG .

Nad VG jsou delany LV raidX tak aby se dal delat enlargement podle potreb. Dany LV raidX pouzivam v mdX o levelu X.

No a kdybych nahodou chtel neco jako limit pro adresar bez kvot, ruzny FS nebo mount optiony, tak v kazdym raidu je opet LVM s VG rX.
27.4.2007 11:16 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
bootovani je trivka.
ramdisk:

find | grep -ve '\.\/dev'
.
./etc
./etc/lvm
./lib
./lib/libdevmapper.a.1.01
./lib/libdevmapper.so.1.01
./lib/libdevmapper.so
./lib/libdevmapper.a
./man
./man/man5
./man/man5/lvm.conf.5
./man/man8
./man/man8/lvreduce.8
./man/man8/vgexport.8
./man/man8/vgextend.8
./man/man8/vgrename.8
./man/man8/vgremove.8
./man/man8/lvextend.8
./man/man8/lvrename.8
./man/man8/lvremove.8
./man/man8/lvm.8
./man/man8/lvs.8
./man/man8/pvs.8
./man/man8/vgs.8
./man/man8/vgmerge.8
./man/man8/vgsplit.8
./man/man8/lvresize.8
./man/man8/pvremove.8
./man/man8/vgdisplay.8
./man/man8/vgchange.8
./man/man8/vgcfgrestore.8
./man/man8/dmsetup.8
./man/man8/pvmove.8
./man/man8/lvchange.8
./man/man8/pvscan.8
./man/man8/pvchange.8
./man/man8/lvmdiskscan.8
./man/man8/lvmchange.8
./man/man8/vgconvert.8
./man/man8/pvdisplay.8
./man/man8/vgck.8
./man/man8/vgmknodes.8
./man/man8/lvdisplay.8
./man/man8/vgcreate.8
./man/man8/vgimport.8
./man/man8/vgscan.8
./man/man8/vgcfgbackup.8
./man/man8/lvcreate.8
./man/man8/pvcreate.8
./man/man8/lvscan.8
./man/man8/vgreduce.8
./sys
./var
./var/lock
./var/lock/lvm
./usr
./usr/share
./usr/share/man
./usr/share/man/man4
./usr/share/man/man4/md.4
./usr/share/man/man5
./usr/share/man/man5/mdadm.conf.5
./usr/share/man/man8
./usr/share/man/man8/mdadm.8
./busy
./proc
./sbin
./sbin/lvm
./sbin/lvs
./sbin/pvs
./sbin/vgs
./sbin/vgck
./sbin/lvm.static
./sbin/lvconvert
./sbin/mdadm
./sbin/dmsetup
./sbin/lvdisplay
./sbin/pvchange
./sbin/pvcreate
./sbin/vgmknodes
./sbin/pvremove
./sbin/pvresize
./sbin/lvmchange
./sbin/lvmsadc
./sbin/vgcfgrestore
./sbin/lvmdiskscan
./sbin/pvdisplay
./sbin/lvmsar
./sbin/lvscan
./sbin/vgchange
./sbin/vgcreate
./sbin/pvmove
./sbin/pvscan
./sbin/vgexport
./sbin/vgextend
./sbin/vgimport
./sbin/vgscan
./sbin/vgmerge
./sbin/vgsplit
./sbin/lvchange
./sbin/lvcreate
./sbin/lvextend
./sbin/dmsetup.static
./sbin/vgreduce
./sbin/vgrename
./sbin/vgremove
./sbin/vgconvert
./sbin/vgcfgbackup
./sbin/lvreduce
./sbin/lvrename
./sbin/lvremove
./sbin/lvresize
./sbin/vgdisplay
./sbin/busybox
./linuxrc
./include
./include/libdevmapper.h
./lost+found

start skript
#!/sbin/busybox sh

PATH=/sbin
alias lvm=lvm.static
mount -t sysfs none /sys
mount -t proc none /proc
lvm pvscan
lvm vgscan
lvm lvscan
lvm lvchange -a y a
lvm lvchange -a y b
lvm lvchange -a y c
lvm lvchange -a y d
mdadm --assemble /dev/md5 /dev/a/raid5 /dev/b/raid5 /dev/c/raid5 /dev/d/raid5
mdadm --assemble /dev/md6 /dev/a/raid6 /dev/b/raid6 /dev/c/raid6 /dev/d/raid6
mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/c/raid10 /dev/d/raid10
mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/d/raid10
lvm pvscan
lvm vgscan
lvm lvscan
lvm lvchange -a y r5
lvm lvchange -a y r6
lvm lvchange -a y r10
#echo 64522 > /proc/sys/kernel/real-root-dev
real-root-dev /dev/mapper/r5-stable
umount /sys
umount /proc
real-root-dev je taky trivka. vraci jen device cislo z lstatu struct_fs - jen pro jistotu, aby to bootovalo i kdyz nahodou nekdo zmeni jadro a zmeni se cislo zarizeni.

akorat kdyz disk uplne chcipne neob se vytahne, tak se nedostane pres: mdadm --assemble /dev/md5 /dev/a/raid5 /dev/b/raid5 /dev/c/raid5 /dev/d/raid5 mdadm --assemble /dev/md6 /dev/a/raid6 /dev/b/raid6 /dev/c/raid6 /dev/d/raid6 mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/c/raid10 /dev/d/raid10 mdadm --assemble /dev/md10 /dev/a/raid10 /dev/b/raid10 /dev/d/raid10

mdadm v te verzi co mam rve, ze mu chybi zarizeni... mozna by stalo za to provist upgrade a checknout jak jsou na tom.

pro cistku, aby system po nabehnuti odpovidal tomu co se delo v ramdisku...
rcS.d# cat S05moje_lvm
#!/bin/sh

echo "LVM hack pre-init tmpfs mounts and config"
mount -nt tmpfs -o size=5m none /etc/lvm;
mount -nt tmpfs -o size=1m none /var/lock/lvm;
cp /etc_cust/lvm/lvm.conf /etc/lvm/
echo "LVM hack rescanning LVs";
/opt/initrd/sbin/lvm.static lvscan;
echo "LVM hack recreating device mapper block device nodes";
/opt/initrd/sbin/lvm.static vgmknodes;
echo "LVM hack post cleanup tmpfs unmounts"
umount -n /etc/lvm
umount -n /var/lock/lvm
echo "LVM hack finished";
27.4.2007 11:19 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Proboha, nechte už toho. Opravdu jste přesvědčen, že pokud tazatele problém opravdu zajímal, více než dva roky čekal, až vy mu odpovíte?
27.4.2007 11:23 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
hele je to tady pro archivaci jak se to da resit.
27.4.2007 11:23 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
a hlavne ze to funguje
27.4.2007 11:31 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
To je sice hezké, ale když se někdo na podzim 2004 zeptá, jak sestavit pole z IDE disků, a na jaře 2007 mu lidé začnou o závod vysvětlovat, že IDE je out, ať jde do SATA, opravdu nevím, co si mám o tak hodnotné odpovědi myslet.
27.4.2007 11:34 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
reagujete na spatnou osobu.
27.4.2007 11:46 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Reaguji všeobecně. Kdybych to měl psát zvlášť ke každému příspěvku, jehož autor se neobtěžoval podívat na datum toho, na co odpovídá, nebudu dělat nic jiného. Vy jste z nich ale zdaleka nejaktivnější, proto jsem to napsal k vašemu.
27.4.2007 11:26 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
cat real-root-dev.c
#define _GNU_SOURCE
#include stdio.h
#include stdlib.h
#include sys/types.h
#include sys/stat.h
#include unistd.h
#include errno.h
#include fcntl.h

extern int errno;

int main(int argc, char **argv) {
        int r=-1,d=-1;
        FILE *p=NULL;
        struct stat st;
        char *strp=NULL;

        /* arg check */
        if (argc !=2) {
                fprintf(stderr, "Need just one block device\n");
                exit(1);
        }

        /* prevent argument moving during/after checks */
        d= open(argv[1],O_RDONLY);
        if (-1==d) {
                perror("opening parameter");
                exit(1);
        } else if (0>d) {
                fprintf(stderr,"Opened parameter with invalid ret\n");
                close(d);
                exit(1);
        }

        /* get the locked argument's properties */
        r= fstat(d, &st);
        if (0==r) {
        } else if (-1== r) {
                perror("fstating parameter");
                close(d);
                exit(1);
        } else {
                fprintf(stderr, "Stated parametr with invalid ret\n");
                perror("fstating parameter");
                close(d);
                exit(1);
        }

        /* inspect the properties */
        if (! (S_ISBLK(st.st_mode))) {
                fprintf(stderr, "Parameter is not block device\n");
                close(d);
                exit(1);
        }

        close(d);

        /* get the proc file */
        p= fopen("/proc/sys/kernel/real-root-dev", "w");
        if (NULL==p) {
                perror("opening proc");
                exit(1);
        }

        /* write it */
        d= fprintf(p,"%d", st.st_rdev);
        fclose(p);

        /* memorize it */
        r= asprintf( &strp, "%d", st.st_rdev);

        /* compare the result !!! */
        if ((-1 == r) || (-1 == d) || (r != d)) {
                fprintf(stderr, "Trying to sleep for 2 minutes before shit happens\n");
                fprintf(stderr, "It's up to you to push the button and reboot into rescue\n");
                usleep(120000000);
                fprintf(stderr, "Woke up and going to see the shit.\n");
                fprintf(stderr, "...hope you have the interactive rescue on my error\n");
                exit(1);
        }
        exit(0);
}
27.4.2007 11:29 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
To soutěžíte o titul exhumátora roku nebo o co se vlastně snažíte? A proč tím zdrojákem odpovídáte mně?
27.4.2007 17:58 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
klidne. nemusi prset, staci kdyz kape.
27.4.2007 11:22 *
Rozbalit Rozbalit vše Re: Terabytove IDE pole
jo ale ten vytazenej/mrtvej disk neni problem protoze vedle je hned v bootloaderu jadro s podobnym ramdiskem co ma sash jako /linuxrc a ramdisky jsou v ext2 formatu, takze se rucne poskladat z toho rescue ramdisku md1 a v nem loopnountnout z "busybox sh" ten druhy ramdisk a zmenit v nem ten load skript a nebo se da z toho rescue snadno poskladat cely system a dobootovat a pak pohodlne fixnout uz z beziciho systemu...
12.11.2004 09:01 wocis
Rozbalit Rozbalit vše Re: Terabytove IDE pole
koupili jsme komponenty a poskladali je do celkem levneho reseni (aspon myslim - oproti jinym)
server case - supermicro
(http://www.supermicro.com/products/chassis/3U/833/SC833T-R760.cfm)
- 8 pozic na SATA disky - jsou to hotswap supliky, tripple redundant 760W zdroj hotswap, prodavaji ten samy case i v provedeni s jednim 550W zdrojem.
-disky jsme do toho koupili 8x200G seagate (zapojeny do raid5).
jako raidovou kartu tam mame highpoint rocketraid (karta di pci-x, ma na sobe chip na paritu - je to skutecny "hw" raid)
deska je intel torey pines - entry level server board
- ma na sobe adaptec SATA raid na kterem jsou poveseny dva disky 80G seagate v mirroru, dale dve sitovky (100mbit + 1gbit) daji se dat do teamu.
procesor 3.2 p4 HT, pameti 2GB (4x512).
zatim nam to ve firme jede v testovacim rezimu, ale zatim dojmy jenom kladne. nesrovnatelne vyssi rychlost, propustnost nez vedle "sedici" hp server + fibre channel pole.
vyslo nas to na cca 90 bez dane.
ke vsemu jsou linuxovy drivery (intel, adaptec, highpoint)
kdyby nekdo chtel muzu to vyfotit :)
12.11.2004 10:11 Beda
Rozbalit Rozbalit vše Re: Terabytove IDE pole
raid5? dekuji nikdy vice. je to neskutecne pomale pokud to srovnate s raid10 pod vyvazenou zatezi cteni:zapis
12.11.2004 10:06 Beda
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Pata nebo sata2. Se sata jste bez smartu nebo ne? (podle toho jakou tu mam umrtnost disku nutno rict ze scsi (atlasy) prumerna zivotnost tri ctvrte roku pri pretezovani systemu 14 hodin denne si nemyslim, ze to nejaka lacina prehrivajci se sata prezije dyl - tech ~100 uzivatelu soucasne)

Podle poctu soubeznych uzivatelu to bude chtit i obrovske mnozstvi ram pro tcp/diskove buffery/cache. Velky readahead. Pokud maji byt i relativne castejsi zapisy, tak velkou cache na discich a pokud maji byt hodne caste, tak obrovske hodnoty elvtune pro zapis a potom samozrejme upsku s baterkou na dobu aspon 100x vetsi nez je hodnota v elvtune. No a pokud ma byt i obrovske mnozstvi lidi, kteri budou soucasne cist, tak bud male kapacity disku v velkem poctu menekrat mirrorovane nebo velke kapacity disku v mensim poctu vicekrat mirrorovane - ale to pak musite vyladit elvtune a mit dost ramky, aby jste uspokojili zapisy.

Jo a jeste rozmyslete si co je u toho fileserveru dulezitejsi, jestli cteni nebo zapisy. Podle me interaktivnost cteni jinak se lidi vybodnou na to to pouzivat, takze kratsi casy v elvtune pro cteni a mnohonasobne delsi pro zapis.
14.11.2004 17:50 Celaskon
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Velice pekna prace:

http://www.pasternak.net/boris/fileserver.shtml
14.11.2004 18:19 Celaskon
Rozbalit Rozbalit vše Re: Terabytove IDE pole
http://www.sr5tech.com/building_reliable_storage.htm
20.4.2007 13:12 ONDREJ DUCHON
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Delat velke pole na IDE je nesmysl. A je celkem jedno na jakym OS to pole pobezi. Jakmile se ti tam pripoji vic jak 50 lidi a zacne tam delat rotyku se zapisem a ctenim, tak to ten buffer nezvladne a praskne ty data kam se mu hodi. Pak po pul roce zjistit ze treba ISO image jsou uplne v haji, ikdyz se zdaji byt vporadku. Tot ma vlastni zkusenost s mym zamestnavatelem, ktery nehodlal investovat do SCSI technologie.
20.4.2007 13:15 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Na to jsme tady všichni dva roky netrpělivě čekali…
27.4.2007 11:57 Peter Lehotsky
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Stavime podobny system a informace prisli vhod (ackoliv to neni na IDE). Jde o principy, napady a tech nikdy neni dost.

Na druhou stranu si myslim ze nikdo tady 2 roky netrpelive necekal ani na vase vylevy. Proc probuh komentujete kazdy thread?
27.4.2007 12:09 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Protože se snažím, aby tento dávno mrtvý a dávno vyřešený thread neustále noví a noví nepozorní komentátoři nevynášeli nahoru, čímž přilákají další a další. Bohužel marně… :-(
27.4.2007 12:16 Peter Lehotsky
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Ale zatim ho nejvice vynasite vy :-). Jeste jednou, jde tady o obecne principy a zkusenosti pri stavbe velkeho diskoveho pole, nebral bych to jako mrtvou zalezitost a jeste jednou opakuji TATO INFORMACE MI (castecne) POMOHLA.

Pokud vam uz jde o cistotu abicka, co takhle http://www.abclinuxu.cz/hledani?dotaz=windows&advancedMode=true&typ=poradna&typ=diskuse

plati i pro zdejsi cenzory (Dolezel, Kratky), tohle vam panove nevadi, neni tam nejak moc windowsu na ciste linuxovy server?
27.4.2007 12:25 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Tak přesně tato větev diskuse dokládá, jak nesmyslné je oživování extrémně starých dotazů. Někdo se na podzim 2004 zeptá na detaily realizace pole z IDE disků, načež mu na jaře 2007 někdo jiný přemoudřele vysvětlí, že stavět to z IDE disků je přece blbost. To je opravdu podnětné. Takže teď počkáme dalších půl roku, než nám jiný mudrc vysvětlí, že na terabyte stačí jeden disk, takže netřeba stavět pole, a pak za další tři roky někdo přijde s objevem, že na tak malou kapacitu netřeba harddisku, protože stačí flashdisk?
27.4.2007 12:27 Peter Lehotsky
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Ehmmm, to uz je ale otazka inteligence dotycneho.
27.4.2007 00:49 janiksvc
Rozbalit Rozbalit vše Re: Terabytove IDE pole
To je samozrejme nesmysl, provozuji priblizne 4 roky pole s IDE a SATA disky o celkove raw kapacite 40TB a neni s tim nejmensi problem. Stejne tak kolegove z ostatnich instituci, se kterymi spolupracujeme, provozuji diskova pole v uhrne kapacite v radu stovek TB az 1.2PB (zalozene na Infortrend, SunFire X4500, ...) a take bez problemu. SCSI a FC disky jsou hezka vec, ale SATA jsou take dobre pouzitelne. Budou odchazet casteji, ale kdyz se s tim smirite, ziskate levne a dnes jiz i velmi rychle pole.
Jiří Němec avatar 21.4.2007 00:24 Jiří Němec | skóre: 22 | blog: BluPix | Horní Smrčné
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Co tam planujete ukladat? Nebylo by lepší třeba DC++?
Spock: "Logic, logic, logic. Logic is the beginning of wisdom, not the end.
21.4.2007 01:36 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Mrkněte se na datum, kdy byl dotaz položen…
Jiří Němec avatar 21.4.2007 08:23 Jiří Němec | skóre: 22 | blog: BluPix | Horní Smrčné
Rozbalit Rozbalit vše Re: Terabytove IDE pole
Pardon, vypadalo to nevyřešené, nějak datum moc nesleduji když je to ve výpisu na hlavní stránce a navíc bez značky vyřešeno.
Spock: "Logic, logic, logic. Logic is the beginning of wisdom, not the end.
27.4.2007 00:21 rpajik | skóre: 18 | blog: rpajikuv_blog
Rozbalit Rozbalit vše Re: Terabytove IDE pole
SW RAID5 resp RAID6 fungovat bude, ale nepocitej s nejakou extra rychlosti pri zapisu ( nejhorsi mozna konfigurace je 3x XXXGB disky v RAID5 - vypocetne nejnarocnejsi ). Nicmene fungovat to bude ... zapis v radech desitek MB/s - je dano primarne propustnosti sbernice + rychlosti procesoru ( bude pocitat paritu ). HW reseni ... v Linuxu doporucuji jednoznacne radice 3ware, na ukladani dat bez casteho pristupu je mozne pouzit treba Adaptec ( ale treba pro RAID6 docela pomale ) nebo nejaky ARECA radic, ktery ma ale v linuxu dost nepovedene drivery a osobne bych ho doporucil spis na nejakou storage pro backupy. Ukazky reseni ... cokoli od SW RAIDu (RAID1, RAID5) az po pekne diskove pole napojene k serverum pres FibreChannel ( IBM DS4700 ) v praxi pouzivam ... staci ti fotky, nebo chces exkurzi po serverovne ? :-D
27.4.2007 00:26 Michal Kubeček | skóre: 71 | Luštěnice
Rozbalit Rozbalit vše Re: Terabytove IDE pole

Je to asi marné, ale zkusím to ještě jednou: Ten dotaz je skoro dva a půl roku starý. Opravdu myslíte, že tazatel čekal s realizací toho pole přes dva roky, než mu odpovíte?

Založit nové vláknoNahoru

Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

ISSN 1214-1267   www.czech-server.cz
© 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.