Byla představena nová verze modelu Claude Opus 4.6 od společnosti Anthropic. Jako demonstraci možností Anthropic využil 16 agentů Claude Opus 4.6 k vytvoření kompilátoru jazyka C, napsaného v programovacím jazyce Rust. Claude pracoval téměř autonomně, projekt trval zhruba dva týdny a náklady činily přibližně 20 000 dolarů. Výsledkem je fungující kompilátor o 100 000 řádcích kódu, jehož zdrojový kód je volně dostupný na GitHubu pod licencí Creative Commons.
Kultovní britský seriál The IT Crowd (Ajťáci) oslavil dvacáté výročí svého prvního vysílání. Sitcom o dvou sociálně nemotorných pracovnících a jejich nadřízené zaujal diváky svým humorem a ikonickými hláškami. Seriál, který debutoval v roce 2006, si i po dvou dekádách udržuje silnou fanouškovskou základnu a pravidelně se objevuje v seznamech nejlepších komedií své doby. Nedávné zatčení autora seriálu Grahama Linehana za hatecrime však vyvolává otázku, jestli by tento sitcom v současné Velké Británii vůbec vznikl.
Společnost JetBrains oznámila, že počínaje verzí 2026.1 budou IDE založená na IntelliJ ve výchozím nastavení používat Wayland.
Společnost SpaceX amerického miliardáře Elona Muska podala žádost o vypuštění jednoho milionu satelitů na oběžnou dráhu kolem Země, odkud by pomohly zajistit provoz umělé inteligence (AI) a zároveň šetřily pozemské zdroje. Zatím se ale neví, kdy by se tak mělo stát. V žádosti Federální komisi pro spoje (FCC) se píše, že orbitální datová centra jsou nejúspornějším a energeticky nejúčinnějším způsobem, jak uspokojit rostoucí poptávku po
… více »Byla vydána nová verze 2.53.0 distribuovaného systému správy verzí Git. Přispělo 70 vývojářů, z toho 21 nových. Přehled novinek v poznámkách k vydání.
Spolek OpenAlt zve příznivce otevřených řešení a přístupu na 216. sraz, který proběhne v pátek 20. února od 18:00 v Red Hat Labu (místnost Q304) na Fakultě informačních technologií VUT v Brně na ulici Božetěchova 1/2. Tématem srazu bude komunitní komunikační síť MeshCore. Jindřich Skácel představí, co je to MeshCore, předvede nejrůznější klientské zařízení a ukáže, jak v praxi vypadá nasazení vlastního repeateru.
Byla vydána nová major verze 9.0 multiplatformní digitální pracovní stanice pro práci s audiem (DAW) Ardour. Přehled novinek, vylepšení a oprav v poznámkách k vydání.
Hodnota Bitcoinu, decentralizované kryptoměny klesla pod 70 000 dolarů (1,44 milionu korun).
Valve z důvodu nedostatku pamětí a úložišť přehodnocuje plán na vydání zařízení Steam Controller, Steam Machine a Steam Frame: „Cílem tedy stále zůstává vydat všechna tři nová zařízení v první polovině letošního roku, ale přesná data a ceny jsou dvě věci, na kterých usilovně pracujeme a jsme si dobře vědomi toho, jak rychle se v tomto ohledu může vše změnit. Takže ač dnes žádné zveřejnitelné údaje nemáme, hned jak plány finalizujeme, budeme Vás informovat.“
Do 20. února lze hlasovat pro wallpapery pro Ubuntu 26.04 s kódovým názvem Resolute Raccoon.
df se nic nezobrazoval a mount adresáře byly prázdné.btrfs device add device mount-point-raidu jsem je do raidu přidalbtrfs balance. A pojede ještě dlouho protože se balancuje pár TB/dev/fstab které původně mountovaly disky, které jsem přidával do RAID1. A následně jsem chtěl zrušit adresáře, do nichž byly ty disky připojovány. A z překvapením jsem zjistil, že jsou plné, a že je do nich vlastně namountovaná struktura btrfs raidu ještě jednou (dvakrát). Pokud si vypíšu df tak je výsledek "jak si představuji že by měl být" tedy RAID je připojen pouze do svého standardního bodu. Nicméně příkaz mount mi vypíše tuto skutečnou situaci, tedy že RAID je připojen do všech třech adresářů. Dokonce mount tam připojuje ani ne ty disky, které tam byly připojeny původně, ale původní disk ze kterého jsem RAID stavěl tedy nejdříve připojení jednoho disku s konverzí btrfs na RAID.
Ptám se jestli nevíte, proč to takto dopadlo? Jak dojede balance tak systém přebootnu a pak si myslím že vše bude jak má být stejně jako ten první pridávaný disky tak již nikde není připojen, ted na to samozřejmě nebudu sahat. Připadá mi že někde v tabulce zůstalo připojení i když jsem disky odmountoval.
Nicméně příkaz mount mi vypíše tuto skutečnou situaci, tedy že RAID je připojen do všech třech adresářů.Každopádně pokud používáš subvolume, tak je úplně jasné že se zobrazí ve všech případech jedno a to samé zařízení. Rozhodující je totiž položka subvol v závorce.
Dokonce mount tam připojuje ani ne ty disky, které tam byly připojeny původně, ale původní disk ze kterého jsem RAID stavěl tedy nejdříve připojení jednoho disku s konverzí btrfs na RAID.Tohle jsem nebyl schopen dešifrovat. Pokud jsi měl Btrfs v raid1, do kterého jsi přidal další dva disky, tak se nic nemění. Vždy uvidíš v mountu jen ten disk, který je aktuálně první v seznamu. I kdybys to Btrfs nakrásně připojoval přes libovolný z disků co ho tvoří.
já si myslel, že to také nepoužívám.
1,5 GB logůTo by ma zaujímalo ako sa takéto niečo dá dosiahnuť.
ll /var/log/journal/36045237ff4d4f07a6169708d88c9648 celkem 4,1G -rw-r-----+ 1 root systemd-journal 80M 18. lis 06.56 system@dc444159ca37456fb98a938af1818d8d-0000000000000001-00057a57eefa656c.journal -rw-r-----+ 1 root systemd-journal 64M 22. lis 19.32 system@dc444159ca37456fb98a938af1818d8d-00000000000343dc-00057aea0fdd3d4c.journal -rw-r-----+ 1 root systemd-journal 64M 2. pro 20.26 system@dc444159ca37456fb98a938af1818d8d-0000000000070740-00057b45182e415a.journal -rw-r-----+ 1 root systemd-journal 96M 11. říj 00.57 system@fd1690ad8e054e3791c404c5676028d8-00000000000c8b66-0005771dd7c1eab9.journal -rw-r-----+ 1 root systemd-journal 104M 25. říj 01.09 system@fd1690ad8e054e3791c404c5676028d8-00000000000ff2ae-000577e7cbd375d2.journal -rw-r-----+ 1 root systemd-journal 8,0M 3. zář 17.16 system@fd1690ad8e054e3791c404c5676028d8-0000000000000001-000574e99add22a8.journal -rw-r-----+ 1 root systemd-journal 8,0M 7. zář 00.41 system@fd1690ad8e054e3791c404c5676028d8-0000000000019066-000574f912f817e4.journal -rw-r-----+ 1 root systemd-journal 40M 19. zář 11.38 system@fd1690ad8e054e3791c404c5676028d8-0000000000032276-0005753b9796323c.journal -rw-r-----+ 1 root systemd-journal 8,0M 22. zář 00.29 system@fd1690ad8e054e3791c404c5676028d8-0000000000059405-0005763b2607ec0b.journal -rw-r-----+ 1 root systemd-journal 40M 26. zář 22.53 system@fd1690ad8e054e3791c404c5676028d8-0000000000078618-0005766d70a6b597.journal -rw-r-----+ 1 root systemd-journal 56M 1. říj 00.02 system@fd1690ad8e054e3791c404c5676028d8-000000000009d26c-000576cc6c1d1be6.journal -rw-r-----+ 1 root systemd-journal 72M 3. lis 05.55 system@fd1690ad8e054e3791c404c5676028d8-0000000000136d71-0005790194ee8b68.journal -rw-r-----+ 1 root systemd-journal 40M 8. lis 01.56 system@fd1690ad8e054e3791c404c5676028d8-00000000001681b9-000579bb7a4877c6.journal -rw-r-----+ 1 root systemd-journal 40M 29. čec 14.24 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000000001-00056fa7611a0a7f.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. čec 14.24 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000025e79-000572226b9bbc74.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. čec 14.32 system@f92e638f402643ff9b7d4bbc6e7d0c10-000000000002602a-000572226c28b0d5.journal -rw-r-----+ 1 root systemd-journal 24M 23. srp 18.46 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000026073-000572228a966906.journal -rw-r-----+ 1 root systemd-journal 16M 29. srp 01.06 system@f92e638f402643ff9b7d4bbc6e7d0c10-0000000000049f3a-0005741d1eacfa0f.journal -rw-r-----+ 1 root systemd-journal 32M 24. led 09.48 system.journal -rw-r-----+ 1 root systemd-journal 24M 13. čen 2018 system@00056e8bb5ccdbc2-b8da946c5af0a7e5.journal~ -rw-r-----+ 1 root systemd-journal 40M 28. čen 2018 system@00056fa761131c52-a71b3a710c4da8a4.journal~ -rw-r-----+ 1 root systemd-journal 24M 11. lis 00.36 system@00057a57eeec0075-92342c4210948841.journal~ -rw-r-----+ 1 root systemd-journal 24M 5. pro 15.53 system@00057c478a94970d-4b4dc7dd99328518.journal~ -rw-r-----+ 1 root systemd-journal 24M 14. led 21.55 system@00057f71427a9f6a-3ec3d505a946586c.journal~ -rw-r-----+ 1 root systemd-journal 16M 2. zář 22.52 system@000574e99adef0ed-6b725eeeecd78ab8.journal~ -rw-r-----+ 1 root systemd-journal 8,0M 18. zář 08.46 system@059c807f1cfe438eae584cc30b332ad7-0000000000000001-0005761fa4e1cf69.journal -rw-r-----+ 1 root systemd-journal 8,0M 29. kvě 2018 system@2ff953404a9d4bcd8ec860345ffa0fa4-000000000020d5c1-00056d2191fb1724.journal -rw-r-----+ 1 root systemd-journal 104M 17. pro 13.25 system@47e81a4605014f6ca1a047e5449bc470-00000000000a4188-00057c566c919b3e.journal -rw-r-----+ 1 root systemd-journal 40M 2. led 19.58 system@47e81a4605014f6ca1a047e5449bc470-00000000000d98b1-00057d36e282610c.journal -rw-r-----+ 1 root systemd-journal 24M 7. led 00.42 system@47e81a4605014f6ca1a047e5449bc470-00000000000ed922-00057e7e39d38fc0.journal -rw-r-----+ 1 root systemd-journal 48M 11. led 23.04 system@47e81a4605014f6ca1a047e5449bc470-00000000000f95e6-00057ed2abb9ada7.journal -rw-r-----+ 1 root systemd-journal 16M 6. pro 09.38 system@47e81a4605014f6ca1a047e5449bc470-0000000000000001-00057c478a92ab3f.journal -rw-r-----+ 1 root systemd-journal 24M 16. led 08.02 system@56e41f92bc9d484aa0b193d2e7ae543f-0000000000000001-00057f7142789a74.journal -rw-r-----+ 1 root systemd-journal 40M 21. led 02.19 system@56e41f92bc9d484aa0b193d2e7ae543f-000000000013d2fd-00057f8ddb1489dc.journal -rw-r-----+ 1 root systemd-journal 24M 22. led 19.17 system@56e41f92bc9d484aa0b193d2e7ae543f-00000000001649fb-00057feda712eb5c.journal -rw-r-----+ 1 root systemd-journal 128M 11. říj 00.57 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000000c8b62-0005771dd70dd881.journal -rw-r-----+ 1 root systemd-journal 128M 25. říj 01.09 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000000fef14-000577e7c914da48.journal -rw-r-----+ 1 root systemd-journal 128M 3. zář 17.19 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000000515-000574e9a14662a2.journal -rw-r-----+ 1 root systemd-journal 128M 7. zář 00.41 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000019061-000574f912c0fa59.journal -rw-r-----+ 1 root systemd-journal 128M 19. zář 17.31 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000003204e-0005753b9719f0dc.journal -rw-r-----+ 1 root systemd-journal 128M 22. zář 01.06 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000005937f-0005763b1a95b133.journal -rw-r-----+ 1 root systemd-journal 128M 26. zář 22.53 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000076e2b-00057669b09586c6.journal -rw-r-----+ 1 root systemd-journal 128M 1. říj 00.02 user-1000@a36fdab0f66245f286577d6376b59bd2-000000000009d262-000576cc697b9927.journal -rw-r-----+ 1 root systemd-journal 128M 3. lis 05.55 user-1000@a36fdab0f66245f286577d6376b59bd2-0000000000136d3c-00057901934203cb.journal -rw-r-----+ 1 root systemd-journal 128M 8. lis 01.56 user-1000@a36fdab0f66245f286577d6376b59bd2-00000000001681b2-000579bb777f7e9c.journal -rw-r-----+ 1 root systemd-journal 16M 24. led 09.48 user-1000.journal -rw-r-----+ 1 root systemd-journal 8,0M 30. kvě 2018 user-1000@00056d71c3e5010a-9244d530ac72b235.journal~ -rw-r-----+ 1 root systemd-journal 72M 13. čen 2018 user-1000@00056e8bcc78b0ef-926841aba97f2f51.journal~ -rw-r-----+ 1 root systemd-journal 64M 28. čen 2018 user-1000@00056fa7611d598b-c14d3b6927ce211e.journal~ -rw-r-----+ 1 root systemd-journal 80M 20. čen 2018 user-1000@00056f165f907c80-283c2a779c53f528.journal~ -rw-r-----+ 1 root systemd-journal 72M 11. lis 00.36 user-1000@00057a57eeff5d47-f56c6ede72021fb6.journal~ -rw-r-----+ 1 root systemd-journal 48M 2. zář 22.54 user-1000@000574e9a146d791-ad021424e9d9c6b7.journal~ -rw-r-----+ 1 root systemd-journal 128M 17. pro 13.25 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000a4183-00057c566bb408f3.journal -rw-r-----+ 1 root systemd-journal 128M 11. led 23.04 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000d98a5-00057d36e08ed3ba.journal -rw-r-----+ 1 root systemd-journal 128M 18. lis 06.56 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000000025-00057a57eefa9553.journal -rw-r-----+ 1 root systemd-journal 128M 6. pro 09.38 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-00000000000343d6-00057aea0f8297e1.journal -rw-r-----+ 1 root systemd-journal 128M 16. led 08.02 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000113844-00057f35dfc07bb9.journal -rw-r-----+ 1 root systemd-journal 128M 21. led 02.19 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-000000000013bc20-00057f8ddab43e39.journal -rw-r-----+ 1 root systemd-journal 96M 22. led 19.17 user-1000@188c9b557c0a4359ba0ccaa9e6a31e2b-0000000000163adb-00057feda690320d.journal -rw-r-----+ 1 root systemd-journal 120M 29. čec 14.32 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000000017-00056fa7611a2bfe.journal -rw-r-----+ 1 root systemd-journal 128M 23. srp 18.47 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000026071-000572228a93104f.journal -rw-r-----+ 1 root systemd-journal 64M 29. srp 01.06 user-1000@85502f274d0842af92d5679bf7d9ef4c-0000000000049dfa-0005741d04c76893.journal -rw-r-----+ 1 root systemd-journal 8,0M 22. lis 19.32 user-1001@4f4b4eb505ee4349b1d025a79ea9d570-000000000006548d-00057486e556966b.journal -rw-r-----+ 1 root systemd-journal 8,0M 11. led 23.04 user-1001@4f4b4eb505ee4349b1d025a79ea9d570-000000000007073f-00057b45182ada47.journal
Můj komentář není rada, nýbrž důležité off-topic varování. (Tohle už tu totiž párkrát bylo.) Btrfs nemá nic takového jako RAID1 na víc než 2 discích!
Tady se to například probíralo.
Pozor na věc; iluze redundance je (pro data) horší než absence redundance. (Protože iluze redundance do značné míry ovlivňuje chování a rozhodování uživatele stran zálohování atd.) Pro RAID1 na víc než 2 discích je nutné mít ZFS.
ZFS samozřejmě také duplikuje jen obsazené bloky, ne celý disk.Jestli to je samozřejmé nevím, protože když jsem skládal ZFS, tak vyžadoval pro svoje raid zařízení odpovídající počet disků o stejné kapacitě, takže to v tomto směru bylo stejné jako u MD raidu - můžeš použít různě velké disky, ale kapacitu raidu určuje nejmenší z nich.
Prostě než se překlopí duplikované bloky z mrtvého disku na třetí, jede to bez redundanceV takovém případě se ale nepoužívá raid1, ale raid56
řešit takové věci na jednom lokálním stroji je fakt blbost.
btrfs replace start /dev/left /dev/new_device /mnt/foo se btrfs bude snažit přečíst co půjde s padajícího disku.
Tiskni
Sdílej: