#HACKUJBRNO 2024, byly zveřejněny výsledky a výstupy hackathonu města Brna nad otevřenými městskými daty, který se konal 13. a 14. dubna 2024.
Společnost Volla Systeme stojící za telefony Volla spustila na Kickstarteru kampaň na podporu tabletu Volla Tablet s Volla OS nebo Ubuntu Touch.
Společnost Boston Dynamics oznámila, že humanoidní hydraulický robot HD Atlas šel do důchodu (YouTube). Nastupuje nová vylepšená elektrická varianta (YouTube).
Desktopové prostředí LXQt (Lightweight Qt Desktop Environment, Wikipedie) vzniklé sloučením projektů Razor-qt a LXDE bylo vydáno ve verzi 2.0.0. Přehled novinek v poznámkách k vydání.
Nejvyšší soud podpořil novináře Českého rozhlasu. Nařídil otevřít spor o uchovávání údajů o komunikaci (data retention). Uvedl, že stát odpovídá za porušení práva EU, pokud neprovede řádnou transpozici příslušné směrnice do vnitrostátního práva.
Minulý týden proběhl u CZ.NIC veřejný test aukcí domén. Včera bylo publikováno vyhodnocení a hlavní výstupy tohoto testu.
Byla vydána nová verze 3.5.0 svobodné implementace protokolu RDP (Remote Desktop Protocol) a RDP klienta FreeRDP. Přehled novinek v ChangeLogu. Opraveno bylo 6 bezpečnostních chyb (CVE-2024-32039, CVE-2024-32040, CVE-2024-32041, CVE-2024-32458, CVE-2024-32459 a CVE-2024-32460).
Google Chrome 124 byl prohlášen za stabilní. Nejnovější stabilní verze 124.0.6367.60 přináší řadu oprav a vylepšení (YouTube). Podrobný přehled v poznámkách k vydání. Opraveno bylo 22 bezpečnostních chyb. Vylepšeny byly také nástroje pro vývojáře.
Byla vydána nová verze 9.3 z Debianu vycházející linuxové distribuce DietPi pro (nejenom) jednodeskové počítače. Přehled novinek v poznámkách k vydání. Novinkou je vlastní repozitář DietPi APT.
Byl vydán Mozilla Firefox 125.0.1, první verze z nové řady 125. Přehled novinek v poznámkách k vydání, poznámkách k vydání pro firmy a na stránce věnované vývojářům. Vypíchnout lze podporu kodeku AV1 v Encrypted Media Extensions (EME). Řešeny jsou rovněž bezpečnostní chyby. Nový Firefox 125.0.1 je již k dispozici také na Flathubu a Snapcraftu.
mdadm --fail /dev/md0 /dev/sda1 mdadm --manage /dev/md0 --add /dev/sdb1dostanu takovyto vystup po dodelani 100% se raid tvari jako funkcni a bezi jak ma
cat /proc/mdstat Personalities : [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] md0 : active raid1 sdb1[2] sda1[0] 966796224 blocks [2/1] [U_] [>....................] recovery = 0.9% (9616384/966796224) finish=452.2min speed=35277K/sec unused devices: none
/dev/md0 / ext3 usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0 0 1uuid maji stejny predpokladam ze to si myslel tim nazvem? disky jsou stejne i stejny vyrobce
mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 0.90.00 UUID : 1fbb909d:b9762bbf:a35bfd78:fe6e271e Creation Time : Sat Aug 6 02:22:15 2011 Raid Level : raid1 Used Dev Size : 966796224 (922.01 GiB 990.00 GB) Array Size : 966796224 (922.01 GiB 990.00 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 0 Update Time : Mon Apr 16 09:37:07 2012 State : clean Active Devices : 1 Working Devices : 2 Failed Devices : 1 Spare Devices : 1 Checksum : fcf32dea - correct Events : 11649562 Number Major Minor RaidDevice State this 0 8 1 0 active sync /dev/sda1 0 0 8 1 0 active sync /dev/sda1 1 1 0 0 1 faulty removed 2 2 8 17 2 spare /dev/sdb1
mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 0.90.00 UUID : 1fbb909d:b9762bbf:a35bfd78:fe6e271e Creation Time : Sat Aug 6 02:22:15 2011 Raid Level : raid1 Used Dev Size : 966796224 (922.01 GiB 990.00 GB) Array Size : 966796224 (922.01 GiB 990.00 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 0 Update Time : Mon Apr 16 09:38:08 2012 State : clean Active Devices : 1 Working Devices : 2 Failed Devices : 1 Spare Devices : 1 Checksum : fcf32ea1 - correct Events : 11649616 Number Major Minor RaidDevice State this 2 8 17 2 spare /dev/sdb1 0 0 8 1 0 active sync /dev/sda1 1 1 0 0 1 faulty removed 2 2 8 17 2 spare /dev/sdb1
# mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default, scan all partitions (/proc/partitions) for MD superblocks. # alternatively, specify devices to scan, using wildcards if desired. DEVICE partitions # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Tue, 23 Sep 2008 08:22:52 +0200 # by mkconf $Id: mkconf 261 2006-11-09 13:32:35Z madduck $
echo 'DEVICE /dev/hd[a-z] /dev/sd*[a-z]' > /etc/mdadm/mdadm.conf mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.confPokud tvá distribuce používá initrd (což asi jo), je potřeba aktuální mdadm.conf uložit do initramdisku, jinak to při bootu nezdetekuje. V debianu/ubuntu je to příkaz pod rootem:
update-initramfs -u
cat /etc/mdadm/mdadm.conf DEVICE /dev/hd[a-z] /dev/sd*[a-z] ARRAY /dev/md0 UUID=1fbb909d:b9762bbf:a35bfd78:fe6e271e spares=1to vypada ze by mohlo byt.. ale problem je s initramfs (debian squeeze)
update-initramfs -u bash: update-initramfs: příkaz nenalezen
server:~# dpkg -S update-initramfs initramfs-tools: /etc/initramfs-tools/update-initramfs.conf initramfs-tools: /usr/sbin/update-initramfs initramfs-tools: /usr/share/man/man5/update-initramfs.conf.5.gz initramfs-tools: /usr/share/man/man8/update-initramfs.8.gzJe možné, že initrd nepoužíváš, máš jej uveden u bootovací položky v grubu (/boot/grub/menu.lst nebo grub.conf)?
server:~# update-initramfs -u update-initramfs: Generating /boot/initrd.img-2.6.32-5-amd64Spíš by to vypadalo, že žádné initrd opravdu nepoužíváš. Díval ses do toho grubu?
ls /boot boot.0800 boot.0810 coffee.bmp debianlilo.bmp sarge.bmp System.map boot.0801 boot.0900 debian.bmp map sid.bmp vmlinuz-2.6.34.1
~# update-initramfs -c -k all ~# update-initramfs -uoboje bez jakyho koliv vystupu.. a grub tam nacpat nemuzu kdyz sem to zkusil minule zesralo se to byl tam nejaky problem se zavadenim server je po reinstalaci po nejakym mbr viru
~# update-initramfs -c -k 2.6.34.1 update-initramfs: Generating /boot/initrd.img-2.6.34.1 grep: /boot/config-2.6.34.1: Adresář nebo soubor neexistuje mdadm: cannot open /dev/md0: No such file or directory mdadm: cannot open /dev/md0: No such file or directory
~# update-initramfs -u update-initramfs: Generating /boot/initrd.img-2.6.34.1 grep: /boot/config-2.6.34.1: Adresář nebo soubor neexistuje Warning: LBA32 addressing assumed Warning: '/proc/partitions' does not match '/dev' directory structure. Name change: '/dev/sdb' -> '/dev/sdb' Warning: Name change: '/dev/sdb1' -> '/dev/sdb1' Cannot proceed. Maybe you need to add this to your lilo.conf: disk=/dev/sdb inaccessible (real error shown below) Fatal: open /dev/sdb: No such file or directory run-parts: /etc/initramfs/post-update.d//lilo exited with return code 1
/dev/sda
. BIOS RAID chápu jako nějaký hybrid, který má částečnou HW podporu a potřebuje driver do widlí. To že s tím pracujete přes mdadm podle mne znamená, že ten BIOS RAID obcházíte a pracujete s disky přímo, a je možné, že právě při startu ten BIOS RAID do komunikace s disky nějak zasahuje a mdadm se dobře nedomluví.
scsi 5:0:0:0: Direct-Access ATA SAMSUNG HD753LJ 1AA0 PQ: 0 ANSI: 5 sd 5:0:0:0: [sdc] 1465149168 512-byte logical blocks: (750 GB/698 GiB)
1. typy partisen, ze kterych se pole sklada je fd = Linux raid autodetect
2. superblock v poli je verze 0.90, jinak to nefunguje; tedy pri vytvareni mdadm --create blablabla -e 0.90 blablabla
3. parametry jadra treba takto: ... root=/dev/md1 md=1,/dev/sda2,/dev/sdb2,/dev/sdc2 ...
jinak si taky myslim, ze bios neco na disky napise, protoze si mysli, ze to je jeho pole a pak linuxovy md disk z pole vyhodi...
takze RAID v biosu zrusit a dat tam AHCI a hotovo
md: raid0 personality registered for level 0 md: raid1 personality registered for level 1 md: raid10 personality registered for level 10 md: raid6 personality registered for level 6 md: raid5 personality registered for level 5 md: raid4 personality registered for level 4 md: multipath personality registered for level -4 md: faulty personality registered for level -5 md: Waiting for all devices to be available before autodetect md: If you don't use raid, use raid=noautodetect md: Autodetecting RAID arrays. md: Scanned 1 and added 1 devices. md: autorun ... md: considering sda1 ... md: adding sda1 ... md: created md0 md: bind<sda1> md: running: <sda1> raid1: raid set md0 active with 1 out of 2 mirrors md0: detected capacity change from 0 to 989999333376 md: ... autorun DONE. md0: EXT3-fs (md0): recovery required on readonly filesystem EXT3-fs (md0): write access will be enabled during recovery EXT3-fs (md0): recovery complete EXT3-fs (md0): mounted filesystem with writeback data mode EXT3-fs (md0): using internal journal
Tiskni Sdílej: