Portál AbcLinuxu, 2. května 2025 07:29
Společnost xAI založena Elonem Muskem na síti 𝕏 představila Grok-3, tj. novou verzi svého AI LLM modelu Grok.
Tiskni
Sdílej:
Umělá inteligence (AI) může být hloupým pomocníkem a ještě blbějším pánem. Své o tom ví australský advokát, který si chtěl ulehčit práci a k sepsání soudních dokumentů použil chatbota ChatGPT od OpenAI. Bohužel pro něj umělá inteligence vygenerovala odkazy na neexistující případy. Muž si to ale nezkontroloval, umělé inteligenci věřil a soudní dokumenty tak odevzdal.https://www.novinky.cz/clanek/internet-a-pc-ai-pravnik-za-sebe-nechal-pracovat-ai-nedopadlo-to-dobre-40507399 Aneb chybovat je lidské, ale něco pořádně zvorat, na to je potřeba počítač
Bavíme se tu o Grog3, který není ani ještě public, a ty sem začneš linkovat nesmysly s ChatGPT s nějakým senza článkem, který nevím, koho má reálně ohromit. Ale to už mně nepřekvapuje, Radovan je negační bot, na všechno musí mít opačnou odpověď a linkovat sebedivnější zdroje :D.Na druhou stranu neni asi od veci upozornit trebas nejake kolemjdouci dezolaty, co by si chteli trebas psat bakalarku za pomoci AI, a to aby si davali bacha, nebo snad ne?
Grog dává odkazy na zdroje, tak je tím myšleno linky na konkrétní stránky apod., odkud čerpá. To, co postnul Radovan je o tom, že si ChatGPT vymyslel nějaký text. Dvě úplně odlišné věci...Čéče, to bych ani neřek'. Radovan uvedl příklad (včetně zdroje!), kde jiný model také uvedl zdroje odkud čerpal, nicméně ty zdroje fakticky neexistovaly. To si myslím, že je dost podstatná a relevantní poznámka. Jasně, správně bys namítl, že si máš ten zdroj ověřit, nicméně ono existují i případy (např. ve vědeckých pracích), kde se uvádí odkazy na zdroje nějakých tvrzení, ty odkazované zdroje dokonce existují, nicméně se tomu původnímu tématu třeba vůbec nevěnují. Pak ti nezbývá, než si ten zdroj přečíst a posoudit jestli je v souladu s tím, co ten model tvrdí. Ale pak už defakto nepotřebuješ ten výcuc, žejo. A kolik lidí to skutečně udělá a kolik bude žít ve falešným positu jistoty, že je všechno ok, páč tam jsou přece ty zdroje, žejo...
Nebo aktuální studie BBC k sumarizaci článků (tzn. zdroj známý): Groundbreaking BBC research shows issues with over half the answers from Artificial Intelligence (AI) assistants
Určitě uvěřím, že genAI vyvinutá s naciElmovým vedením tyhle problémy mít nebude. /s
Vždyť je to člověk, který na xitter nechal přidat if
, aby všichni viděli jeho výblitky.
Mluví se o odkazech na neexistující případy. Nejedná se tedy o url, která nikam nesměřuje.No já ti nevím, mě to připadá prakticky identický. Na konkrétní případ odkazuješ taky pomocí nějakého identifikátoru (u nás asi spisová značka, nevím co používají v Austrálii). Ten identifikátor opíšeš to takovýho obdélníčku v kompjůtru, zmáčkneš EOL, načež zjistíš, jestli takovej případ existuje nebo ne.
Zeptas se ai jestli jsou ufouni mezi nama a dostanes odpoved ze ano protoze to cetla ... a zaroven i v seriozni vedecke rozprave o mimozemstanechMůžete dát odkaz na jedinou seriózní vědeckou rozpravu/publikaci, která tvrdí že mimozemšťané jsou mezi námi? Aby mohl vědec něco tvrdit musí to mít potvzené ověřitelnými důkazy či opakovatelnými pokusy.
V opačném případě jde pouze o teorie/hypotézy, které rozhodně nedeklarují "že jsou mezi náma".
Pokud AI nezvládá porozumět sémantice textu nemá smysl z ní čerpat nějaké informace.
To úplně neodpovídá na otázku, jak AI pozná fakta od fikce. Přitom odpověď je nasnadě – lidé příslušně oštítkují trénovací data. Což se v různé míře skutečně děje.
Pak je ještě jiná věc, že takhle věda opravdu nefunguje. Nebo jako lidově ano, ale jen lidově. Ono „potvrzování“ či „dokazování“ je dost ošemetné, „opakovatelnost“ při krizi právě reprodukovatelnosti nic moc, „teorie“ a „hypotézy“ mají konkrétní technický význam (bez lomítka).
To úplně neodpovídá na otázku, jak AI pozná fakta od fikce. Přitom odpověď je nasnadě – lidé příslušně oštítkují trénovací data.
Nevím, co je skutečným cílem tohoto hype, ale objektivní poznání určitě ne! Celé to povede jen k vygenerování dalších megatun nedůvěryhodných nesmyslů. Už dnes je téměř nad lidské síly se těmi hovny, co vznikaly již v éře předinternetové, prokopat k původní informaci, které jsou považovány za důvěryhodné zdroje jen proto, že vyšly tiskem. A vyvracet ty nesmysly je ještě těžší, protože to vyžaduje pracné a zdlouhavé dohledávání důkazů.
Jako názorný příklad lze uvést MyHeritage a jiné genealogické weby. Za skutečně ověřený považuji jen záznam, ke kterému se mi podaří dohledat správné matriční záznamy. A najít takový záznam, to znamená projít stovky naskenovaných foliantů, záznam po záznamu. A podchytit, všechny co by mohly přijít do úvahy.
V matrikách jsou chyby. A kdo to nedělá jako já, ty chyby nikdy neodhalí. Odhalit je není snadné. No a pokud od vás někdo takovou chybu přebere, je to pak jako když někomu kopnete do domku z karet, podaří-li se ji odhalit.
Díky takové chybě se můžete dočíst, že údajně nejstarší ženou, která porodila dítě, měla být Ellen Ellisová z Walesu, která měla v roce 1776 porodit své třinácté dítě ve věku dvaaosmdesáti let. Podle mne ja takové čtení pouze důsledkem nedůsledně psané, nebo čtené matriky.
A na tomhle chce někdo trénovat AI?
objektivní poznáníCo to je?
Objektivita (z lat. obiectum, předmět) je kvalita či rys takového poznávání nebo popisu, které se snaží co nejvíce přiblížit svému předmětu, a tedy co nejvíce omezit vliv poznávající osoby. Je žádoucí právě proto, že nezávisí na osobách, a je tedy platný, použitelný a přijatelný pro každého.
Obligátní: [zdroj?]
Psali to na Wikipedii, to vidím taky. Je to tam mizerně ozdrojované a napsané ještě hůř.
Laskavý čtenář si všimne jak odlišný jazyk (a tím nemyslím angličtinu) používá příslušné heslo v IEP. O Platu nemluvě.
...jelikož necenzuruje...Takže když se zeptám na náměstí Nebeského klidu a málem přejetí tankem člověka, tak se dovím pravdu? A co Větnam a masakr USA vojskem, taky cajk?
ISSN 1214-1267, (c) 1999-2007 Stickfish s.r.o.