Programovací jazyk JavaScript (Wikipedie) dnes slaví 30 let od svého oficiálního představení 4. prosince 1995.
Byly zveřejněny informace o kritické zranitelnosti CVE-2025-55182 s CVSS 10.0 v React Server Components. Zranitelnost je opravena v Reactu 19.0.1, 19.1.2 a 19.2.1.
Bylo rozhodnuto, že nejnovější Linux 6.18 je jádrem s prodlouženou upstream podporou (LTS). Ta je aktuálně plánována do prosince 2027. LTS jader je aktuálně šest: 5.10, 5.15, 6.1, 6.6, 6.12 a 6.18.
Byla vydána nová stabilní verze 3.23.0, tj. první z nové řady 3.23, minimalistické linuxové distribuce zaměřené na bezpečnost Alpine Linux (Wikipedie) postavené na standardní knihovně jazyka C musl libc a BusyBoxu. Přehled novinek v poznámkách k vydání.
Byla vydána verze 6.0 webového aplikačního frameworku napsaného v Pythonu Django (Wikipedie). Přehled novinek v poznámkách k vydání.
Po více než 7 měsících vývoje od vydání verze 6.8 byla vydána nová verze 6.9 svobodného open source redakčního systému WordPress. Kódové jméno Gene bylo vybráno na počest amerického jazzového klavíristy Gene Harrise (Ray Brown Trio - Summertime).
Na čem pracují vývojáři webového prohlížeče Ladybird (GitHub)? Byl publikován přehled vývoje za listopad (YouTube).
Google Chrome 143 byl prohlášen za stabilní. Nejnovější stabilní verze 143.0.7499.40 přináší řadu novinek z hlediska uživatelů i vývojářů. Podrobný přehled v poznámkách k vydání. Opraveno bylo 13 bezpečnostních chyb.
Společnost Valve aktualizovala přehled o hardwarovém a softwarovém vybavení uživatelů služby Steam. Podíl uživatelů Linuxu dosáhl 3,2 %. Nejčastěji používané linuxové distribuce jsou Arch Linux, Linux Mint a Ubuntu. Při výběru jenom Linuxu vede SteamOS Holo s 26,42 %. Procesor AMD používá 66,72 % hráčů na Linuxu.
Canonical oznámil (YouTube), že nově nabízí svou podporu Ubuntu Pro také pro instance Ubuntu na WSL (Windows Subsystem for Linux).
mdadm --fail /dev/md0 /dev/sda1 mdadm --manage /dev/md0 --add /dev/sdb1dostanu takovyto vystup po dodelani 100% se raid tvari jako funkcni a bezi jak ma
cat /proc/mdstat
Personalities : [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md0 : active raid1 sdb1[2] sda1[0]
966796224 blocks [2/1] [U_]
[>....................] recovery = 0.9% (9616384/966796224) finish=452.2min speed=35277K/sec
unused devices: none
/dev/md0 / ext3 usrjquota=aquota.user,grpjquota=aquota.group,jqfmt=vfsv0 0 1uuid maji stejny predpokladam ze to si myslel tim nazvem? disky jsou stejne i stejny vyrobce
mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 0.90.00
UUID : 1fbb909d:b9762bbf:a35bfd78:fe6e271e
Creation Time : Sat Aug 6 02:22:15 2011
Raid Level : raid1
Used Dev Size : 966796224 (922.01 GiB 990.00 GB)
Array Size : 966796224 (922.01 GiB 990.00 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Update Time : Mon Apr 16 09:37:07 2012
State : clean
Active Devices : 1
Working Devices : 2
Failed Devices : 1
Spare Devices : 1
Checksum : fcf32dea - correct
Events : 11649562
Number Major Minor RaidDevice State
this 0 8 1 0 active sync /dev/sda1
0 0 8 1 0 active sync /dev/sda1
1 1 0 0 1 faulty removed
2 2 8 17 2 spare /dev/sdb1
mdadm --examine /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 1fbb909d:b9762bbf:a35bfd78:fe6e271e
Creation Time : Sat Aug 6 02:22:15 2011
Raid Level : raid1
Used Dev Size : 966796224 (922.01 GiB 990.00 GB)
Array Size : 966796224 (922.01 GiB 990.00 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Update Time : Mon Apr 16 09:38:08 2012
State : clean
Active Devices : 1
Working Devices : 2
Failed Devices : 1
Spare Devices : 1
Checksum : fcf32ea1 - correct
Events : 11649616
Number Major Minor RaidDevice State
this 2 8 17 2 spare /dev/sdb1
0 0 8 1 0 active sync /dev/sda1
1 1 0 0 1 faulty removed
2 2 8 17 2 spare /dev/sdb1
# mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default, scan all partitions (/proc/partitions) for MD superblocks. # alternatively, specify devices to scan, using wildcards if desired. DEVICE partitions # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Tue, 23 Sep 2008 08:22:52 +0200 # by mkconf $Id: mkconf 261 2006-11-09 13:32:35Z madduck $
echo 'DEVICE /dev/hd[a-z] /dev/sd*[a-z]' > /etc/mdadm/mdadm.conf mdadm --examine --scan --config=mdadm.conf >> /etc/mdadm/mdadm.confPokud tvá distribuce používá initrd (což asi jo), je potřeba aktuální mdadm.conf uložit do initramdisku, jinak to při bootu nezdetekuje. V debianu/ubuntu je to příkaz pod rootem:
update-initramfs -u
cat /etc/mdadm/mdadm.conf DEVICE /dev/hd[a-z] /dev/sd*[a-z] ARRAY /dev/md0 UUID=1fbb909d:b9762bbf:a35bfd78:fe6e271e spares=1to vypada ze by mohlo byt.. ale problem je s initramfs (debian squeeze)
update-initramfs -u bash: update-initramfs: příkaz nenalezen
server:~# dpkg -S update-initramfs initramfs-tools: /etc/initramfs-tools/update-initramfs.conf initramfs-tools: /usr/sbin/update-initramfs initramfs-tools: /usr/share/man/man5/update-initramfs.conf.5.gz initramfs-tools: /usr/share/man/man8/update-initramfs.8.gzJe možné, že initrd nepoužíváš, máš jej uveden u bootovací položky v grubu (/boot/grub/menu.lst nebo grub.conf)?
server:~# update-initramfs -u update-initramfs: Generating /boot/initrd.img-2.6.32-5-amd64Spíš by to vypadalo, že žádné initrd opravdu nepoužíváš. Díval ses do toho grubu?
ls /boot boot.0800 boot.0810 coffee.bmp debianlilo.bmp sarge.bmp System.map boot.0801 boot.0900 debian.bmp map sid.bmp vmlinuz-2.6.34.1
~# update-initramfs -c -k all ~# update-initramfs -uoboje bez jakyho koliv vystupu.. a grub tam nacpat nemuzu kdyz sem to zkusil minule zesralo se to byl tam nejaky problem se zavadenim server je po reinstalaci po nejakym mbr viru
~# update-initramfs -c -k 2.6.34.1 update-initramfs: Generating /boot/initrd.img-2.6.34.1 grep: /boot/config-2.6.34.1: Adresář nebo soubor neexistuje mdadm: cannot open /dev/md0: No such file or directory mdadm: cannot open /dev/md0: No such file or directory
~# update-initramfs -u
update-initramfs: Generating /boot/initrd.img-2.6.34.1
grep: /boot/config-2.6.34.1: Adresář nebo soubor neexistuje
Warning: LBA32 addressing assumed
Warning: '/proc/partitions' does not match '/dev' directory structure.
Name change: '/dev/sdb' -> '/dev/sdb'
Warning: Name change: '/dev/sdb1' -> '/dev/sdb1'
Cannot proceed. Maybe you need to add this to your lilo.conf:
disk=/dev/sdb inaccessible
(real error shown below)
Fatal: open /dev/sdb: No such file or directory
run-parts: /etc/initramfs/post-update.d//lilo exited with return code 1
.. nicmene bych bezici rh.7.3 jeste nekde nasel
)
Pripadne az to budes instalovat znovu, tak ten raid v biosu (jestli to je opravdu na nem) zrus a pouzij cisty sw-raid z linuxu.
Vir uz je ten bios-raid. Je mozne, ze pri startu systemu bios prizna jen 1 disk (ten "raidovy") a proto se kernel pri startu nepokusi o rebuild...
/dev/sda. BIOS RAID chápu jako nějaký hybrid, který má částečnou HW podporu a potřebuje driver do widlí. To že s tím pracujete přes mdadm podle mne znamená, že ten BIOS RAID obcházíte a pracujete s disky přímo, a je možné, že právě při startu ten BIOS RAID do komunikace s disky nějak zasahuje a mdadm se dobře nedomluví.
scsi 5:0:0:0: Direct-Access ATA SAMSUNG HD753LJ 1AA0 PQ: 0 ANSI: 5 sd 5:0:0:0: [sdc] 1465149168 512-byte logical blocks: (750 GB/698 GiB)
1. typy partisen, ze kterych se pole sklada je fd = Linux raid autodetect
2. superblock v poli je verze 0.90, jinak to nefunguje; tedy pri vytvareni mdadm --create blablabla -e 0.90 blablabla
3. parametry jadra treba takto: ... root=/dev/md1 md=1,/dev/sda2,/dev/sdb2,/dev/sdc2 ...
jinak si taky myslim, ze bios neco na disky napise, protoze si mysli, ze to je jeho pole a pak linuxovy md disk z pole vyhodi...
takze RAID v biosu zrusit a dat tam AHCI a hotovo
md: raid0 personality registered for level 0 md: raid1 personality registered for level 1 md: raid10 personality registered for level 10 md: raid6 personality registered for level 6 md: raid5 personality registered for level 5 md: raid4 personality registered for level 4 md: multipath personality registered for level -4 md: faulty personality registered for level -5 md: Waiting for all devices to be available before autodetect md: If you don't use raid, use raid=noautodetect md: Autodetecting RAID arrays. md: Scanned 1 and added 1 devices. md: autorun ... md: considering sda1 ... md: adding sda1 ... md: created md0 md: bind<sda1> md: running: <sda1> raid1: raid set md0 active with 1 out of 2 mirrors md0: detected capacity change from 0 to 989999333376 md: ... autorun DONE. md0: EXT3-fs (md0): recovery required on readonly filesystem EXT3-fs (md0): write access will be enabled during recovery EXT3-fs (md0): recovery complete EXT3-fs (md0): mounted filesystem with writeback data mode EXT3-fs (md0): using internal journal
Tiskni
Sdílej: