• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    TOXICMANElon Musk respektive jeho firmy SpaceX (Falcon / Heavy / Dragon / Starship), Tesla, Starlink, Neuralink, Boring, xAI
    E2E4
    E2E4 --- ---
    AVATAR: já se zeptal anglicky a dostal podobnou odpověď, ale podrobnější - ten problém s obtížným odlišením pravdivých a nepravdivých informací, když tam jsou oboje, neporozumění kontextu v jakém je otázka kladena a nemožnost ověřit ten zdroj, ze kterýho to ta AI vyvodila..
    YMLADRIS
    YMLADRIS --- ---
    E2E4: mi se líbí muskuv přístup že když nefailujes, tak to znamená že dost neinovujes. Přesný opak české kultury - play it safe.

    Těším se, protože Něco se tím zjistí určitě. Za mě lepší než llm co optimalizuje jakej ti vnutit produkt.

    Váš zdejší fact-check je na principu "fact-check skrz llm ještě nikdo nedělal, ergo je to idiocie". To je pro mě slabý. Přesvědčí me, až to za rok zabalí, že to fakt nepřineslo výsledky

    "Elon to zvládne!!1!" v tom čteš ty
    AVATAR
    AVATAR --- ---
    Zeptal jsem se gpt4o :)

    Language modely (LLMs) mohou být užitečné pro fact-checking, ale mají svá omezení. Zde jsou některé body k úvaze:

    ### Výhody:
    1. **Rychlý přístup k informacím:** LLM mohou rychle poskytnout informace a odkazy na relevantní zdroje.
    2. **Široké znalosti:** LLM mají rozsáhlé databáze znalostí, které mohou být užitečné pro kontrolu faktů v různých oblastech.

    ### Omezení:
    1. **Aktualizace:** LLM nemusí mít nejnovější informace, pokud nejsou pravidelně aktualizovány.
    2. **Přesnost:** Mohou obsahovat chyby nebo zkreslené informace. Je důležité ověřit získané informace z více důvěryhodných zdrojů.
    3. **Bias:** Mohou být zaujaté na základě dat, na kterých byly vytrénovány.

    ### Doporučení:
    - Použijte LLM jako prvotní zdroj informací, ale ověřte fakta z dalších důvěryhodných zdrojů, jako jsou akademické publikace, zpravodajské weby nebo oficiální dokumenty.
    - Pro kritické fact-checking úkoly použijte specializované nástroje a služby, jako je Snopes, FactCheck.org nebo jiné ověřovací platformy.

    Použití LLM může být efektivní, pokud je kombinováno s důkladným ověřováním z nezávislých zdrojů.

    Tl;dr pouzit ho na to muzes, ale musis provest fact checking :)
    E2E4
    E2E4 --- ---
    AVATAR: tohle je vlastně pěkný příklad.

    Co bys, YMLADRIS, dělala kdyby ti grok fact check řekl přesně totéž co všichni tady?


    1. že LLM nejsou vhodné na fact checking
    2. že grok je LLM nedobré kvality
    3. že žádné signály, že by x.ai mělo nějaké výsledky které by ukazovaly na jeho použitelnosti pro fakta a důkazy



    změnilo by to nějak tvůj názor z "ale Elon to určitě dokáže" na "tudy cesta asi nevede" ? pokud jo, proč tě přesvědčil grok a my ne?

    nebo jak by měl vypadat AI fact check, aby změnil tvůj názor na základě fakt, na tomhle konkrétním příkladu?
    E2E4
    E2E4 --- ---
    QWWERTY: on kdo s fakty pracovat umi, fact checking nepotrebuje, a kdo neumi, tomu stejne nepomuze..

    je to daleko primitivnejsi:

    1. silna emoce
    2. zastiteni se autoritou, nebo pouziti neduvery, potvrzeni se v ty emoci
    3. profit

    do tohodle neni kam fact check dat..
    VYHULENY_UFO
    VYHULENY_UFO --- ---
    PALEONTOLOG: vzpominam, jak brno podepsalo smlouvu o smlouve na hyperloop budouci...na tyhle picoviny proste skacou jen hlupaci a vesnicani.

    Zůstaly jen sliby, jednání o hyperloopu v Brně vyšuměla do ztracena - iDNES.cz
    https://www.idnes.cz/brno/zpravy/hyperloop-brno-tubus-kacer-vokral.A200201_530446_brno-zpravy_vh
    PALEONTOLOG
    PALEONTOLOG --- ---
    YMLADRIS: ano, přesně takhle uzrála Boring company a muskovo stupidní kecy o ražbě 1míle týdně. tomu z oboru nikdo nevěřil a nevěřil naprosto správně. hyperloop je ta samá písnička, čili precedens pro muskovo sliby máme nejeden. člověk může bejt snílek, ale bájnej lhář už bejt nemusí
    KLIP
    KLIP --- ---
    OMNIHASH: to jo, na takovy to bezny programovani (treba generovani webu nebo testu to je skvela pomucka, ale dobre to poradi zpravidla jen s vecma, ktery uz nekdo resil na Stack Overflow (coz je tech 99 % problemu, co programatori resi) :D Kdyz chces neco, co jeste nikdo neresil, tak narazis :D I tak je to dobry jako takovej brainstorming. Obcas z toho vypadnou nesmysly, ktery me privedou na spravny reseni, protoze mi ukaze jak to nedelat :D A nekdy me napadne reseni uz kdyz pisu prompt, protoze si ujasnim, co chci :)

    Generativni AI beru jako takovej vylepsenej vyhledavac, kterej ti ale neprozradi, na jaky strance k tem informacim prisel. Dva kroky vpred, jeden zpet :D Mnohem casteji to pouzivam na strucne rychlopreklady, shrnuti textu nebo doplneni diakritiky nez na programovani a kdyz uz, tak to je na jednoduchy veci, ktery bych stejne nasel na Stack Overflow :D Proste kdyz vim, ze k tematu ma data, ze kterejch se mohl naucit, je to pouzitelny.

    Jinak treba Github copilota jsem si vypnul. Nektery veci to dava dobre, ale vetsinu casu to musis stejne prepsat a pak kdyz to mas zapnuty, tak se naucis cekat na to, co ti napovi, takze to vlastne zacne brzdit a tim ztratis flow.
    AVATAR
    AVATAR --- ---
    YMLADRIS: ja jo. Nyx. Napises picovinu a pet lidi ti ji hned omlati o hlavu. Ale zrovna ty jsi krasnej priklad toho, ze je to zbytecne, protoze i kdyz ti tu lidi vysvetli, ze je to jak pouzivat motyku na zalevani zahonu, porad jsi presvedcena, ze to Elon dokaze, protoze elektricky auta a rakety. A to jen proto, ze mu nekriticky fandis. Fakta nefakta.
    QWWERTY
    QWWERTY --- ---
    YMLADRIS: je naivni si myslet, ze LLM pomuze omezit deepfake/hybridni valku, kdyz naprosta vetsina uzivatelu internetu ani netusi, jak LLM funguje a vystupy berou jako 100% garantovanou informaci
    spis to bude dalsi kus techniky, co ti pomuze fragmentovat nazory, protoze mentalne lidi radsi akceptuji souhlasny (ale spatny) vystup z LLM, nez aby to proslo nejakou korekci

    druha vec je, ze fact checking jako koncept na vetsinu lidi stejne nefunguje
    E2E4
    E2E4 --- ---
    YMLADRIS: Twitter s community notes automaticky (nevymyslel Elon, jen přejmenoval), tisková agentura AP a spousta dalších (snopes už dávno) ručně..

    navíc fact checking, no nevím, Elon dost svébytný přístup k faktům. takže možná v jeho hlavě to smysl dává, akorát nevím, zda to bude ten fact checking co očekáváme..
    VYHULENY_UFO
    VYHULENY_UFO --- ---
    ai je fazi bubliny. neni to prvni ani posledni bublina ve svete it. ai prezije, ale az prijde korekce a ocista, zmizi odpad a zustanou jenom ti schopni. vzpominam na bublinu na prelomu milenia, vzpominam, jak se jeste pred deseti lety cpal blockchain i do prodeje kapru.
    YMLADRIS
    YMLADRIS --- ---
    E2E4: já žádný jiný služby které implementovaly fact-check postů neznám. xAI má aspoň ten záměr a čipy. Takže se těším. Jsem ráda že se tomu vůbec někdo věnuje, i když nevíme jak uspěje.

    Alternativa: stěžovat si na nárůst deepfake a hybridní války a nedělat nic.
    OMNIHASH
    OMNIHASH --- ---
    KLIP: ML bublina sice splaskne, ale pro troše štěstí to pak všichni halucinátoři opustěj jako buzzworld a začne se to používat jenom tam, kde to doopravdy dává smysl. Co so budeme povídat, 99% programování je vymejšlení kola a na lepení algoritmů je to skvělý, a místo půl hodiny prolejzání stackoverflow a snažení se pochopit pět ruznejch kusů ruznejch programů, a když tohle za tebe udělá model, dostaneš stejný výsledky za 3% času.
    E2E4
    E2E4 --- ---
    YMLADRIS: AI která je evidence based je pěkný cíl, akorát takovou AI nemáme, současné generativní AI zrovna tohle vůbec nedělají.

    grok je jen generativní AI (a není zrovna špičková, pořád se jí nepodařilo ani dohnat nejlepší modely, které se navíc dále vyvíjejí). Elon specifický zmínil použití groku pro fact checking, což je nevhodný use case.

    to není ten případ jako znovupoužitelné rakety nebo elektromobily, které byly v principu možné vždycky, jen se nepovažovaly za ekonomicky efektivní. .

    ano, můžeš říkat že ne, a že Elon určitě nějak naučí současné AI ehm nebýt tím čím jsou.. ale na to se dá argumentovat, že výsledek Elon zatím nemá a že nevidíme, že by se k tomu jakkoliv blížil.

    zatím ani nebyl schopen zopakovat to, co dělají současné špičky v oboru, i když k tomu má daleko větší prostředky..
    TADEAS
    TADEAS --- ---
    KLIP: zde vice ze siroka .]

    Can AI Solve Science?—Stephen Wolfram Writings
    https://writings.stephenwolfram.com/2024/03/can-ai-solve-science/

    ad llm, symbolicka logika etc.

    Wolfram Tools for AI: Computational Intelligence Connections
    https://www.wolfram.com/resources/tools-for-AIs/
    BUBBLE
    BUBBLE --- ---
    YMLADRIS: To je zavadejici srovnani... princip elektro auta byl vyvinutej v 19. století, prošel nějakým postupným vylepšováním a "že se nebude nikdy používat" si možná pár lidí myslelo ale rozhodně to nebyl mainstreamovej názor. Naopak ta adopce byla tak rychlá protože se na to byli lidi připravený. Znovupoužitelný VTVL rakety co já vím zajistily přistání modulu na měsíci v 69. Že odporují fyzikálním zákonům říkal kdo? NASA určitě ne.


    Naprosto zbytečná mýtizace. Nikdo nerozporuje že Tesla i SpaceX posouvají technologii kupředu, ale tenhle mučednickej narativ "utlačovaný vítězí proti nepřejícím" prosím už opusťme.
    KLIP
    KLIP --- ---
    XCHAOS:
    - logika muze implementovat strojove uceni
    - strojove uceni nikdy nevyplivne logiku

    splinuti bude, ale bude vypadat tak, ze budes mit system postaveny na logice a v ramci toho muzes mit machine learning kterej se bude aplikovat pouze na problemy, kde to bude mit smysl pouzit: chaos, ke kterymu mas spoustu dat. Proste, kdyz hledas neco v nejakym sumu a nevis co.

    machine learning ti muze pomoct objevit nejaky mozny pravidla pro system, ktery machine learningem meris, ale je matematicky nemozne, aby ti machine learning samotnej nasel vsechny pravidla, ktery v danym systemu platej, a spravne.

    YMLADRIS:
    YMLADRIS:
    ja fyzice moc nerozumim. Matematicky zakony jsou zalozeny na jasnejch dukazech a ML podle poznatku vypocetni slozitosti (computational complexity) funguje na reseni problemu jen do urcite tridy komplexity.
    Takze z myho pohledu cloveka, kterej non-ML AI programuje a ML vyuziva, mi to prijde, jako kdyby Elon rikal, ze stavi stroj, kterej spocita, ze 2 + 2 je 5, a ty ho obhajujes tim, ze kdyz se nekdo snazi udelat neco poprve, tak se vzdycky najdou kritici :D

    Machine learning je pouze statistika. Je to learning-by-example. Machine learning samo o sobe se pocitat nikdy nenauci. Musis mu pomoct nejakym logickym systemem, ale pak je otazka, na co potrebujes machine learning, kdyz uz pocitat umis a muzes to spocitat rovnou.

    Spis mi prijde, ze jeho zajem neni fact checking, ale vytvorit nastroj, kterej bude moct pouzit pro manipulaci. Protoze machine learning je proof-less a do utrob twitteru nevidis, takze si bude moct delat zasahy a svadet to na AI.

    Ona ta ML bublina brzo praskne ;) https://www.youtube.com/watch?v=dDUC-LqVrPU
    QWWERTY
    QWWERTY --- ---
    XCHAOS: "Nebo automatizovaný ty. Už nebudeš potřeba"

    ALCATOR
    ALCATOR --- ---
    PES: Munroe (XKCD) prokázal, že je možné vytvořit významnou událost, jejíž Wikipedický popis nikdy nebude neutrální. Obávám se, že od té doby je potřeba akceptovat, že Wikipedia nikdy nebude dokonalá. Podstatné je, zda je možné, aby řekněme 99% jejího obsahu bylo kvalitní, oproti třeba Community Notes na Twitteru, kde je to děs a bída.
    Kliknutím sem můžete změnit nastavení reklam