• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    THE_MIRACLEUmělá inteligence, chatboti - vtipné konverzace aneb "Hoří hovno?"
    HONZA09
    HONZA09 --- ---
    MINERWA: Česká patriotka

    MINERWA
    MINERWA --- ---
    A kdo to je Jordanka?

    HONZA09
    HONZA09 --- ---
    YBUKO: Zdroj Jordanka. :))
    YBUKO
    YBUKO --- ---
    I Cimbála už umí :)) YBUKO V tom případě už víc zkoušek není třeba, tímto prošel ultimátním testem.

    YBUKO
    YBUKO --- ---
    Po roce a půl otvírám stará chatgpt vlákna v appce a pokládám botovi na zkoušku stejné otázky jako dřív, viz YBUKO.
    Tehdy to byla opravdu jen hračka, ale dneska už je to úplně jiný level :)

    E2E4
    E2E4 --- ---
    YBUKO: jako ve všem, no..
    YBUKO
    YBUKO --- ---
    E2E4: za poslední rok každopádně výrazné zlepšení!
    E2E4
    E2E4 --- ---
    YBUKO: ono to umí být vtipné, to je známo už dávno. humor je tak nějak součást jazyka..
    YBUKO
    YBUKO --- ---
    I delší texty vcelku zvládá:))

    YBUKO
    YBUKO --- ---
    Sakra, ten začíná být dobrej! :D poprosil jsem ho ať mi napíše dvacet českých politických skandálů - vtipně a v jedné větě.

    QWWERTY
    QWWERTY --- ---
    HUGH_BOYLAN
    HUGH_BOYLAN --- ---
    KAMAHL: Jen houšť!
    KAMAHL
    KAMAHL --- ---
    Claude

    KAMAHL
    KAMAHL --- ---
    „Prosím, zemři! Prosím.“ Umělá inteligence si přála smrt zvídavého studenta - Novinky
    https://www.novinky.cz/clanek/internet-a-pc-ai-prosim-zemri-prosim-umela-inteligence-si-prala-smrt-zvidaveho-studenta-40497951?noredirect=1
    MINERWA
    MINERWA --- ---
    AI MODERÁTOR NÁS ZNIČIL *naprosto šilené* w/@Stejk01
    https://youtu.be/VXRdxzF4qFI?si=zIWSFc2UfIRXk7Dv
    MINERWA
    MINERWA --- ---
    Tohle je revoluce.. (ChatGPT Advanced Audio)
    https://www.youtube.com/watch?v=IAFmDsYNLt0
    PALEONTOLOG
    PALEONTOLOG --- ---
    Welcome to WikiProject AI Cleanup—a collaboration to combat the increasing problem of unsourced, poorly-written AI-generated content on Wikipedia.

    Wikipedia:WikiProject AI Cleanup - Wikipedia
    https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup?ref=404media.co
    E2E4
    E2E4 --- ---
    HONZA09: eh, ty čísla jsou jen reprezentace nějakých vztahů mezi tokeny a podobných věcí, protože počítače dodnes pracují s čísly.. to co se jeví jako umělá inteligence je jen hodně operaci s maticemi čísel. :)

    (a tohle je navíc jen ilustrační příklad jak to může vypadat)
    HONZA09
    HONZA09 --- ---
    MINERWA:

    Proč má jedno sterjné konkrétní slovo různé hodnoty vektorů v různých jazykových modelech?
    ChatGPT řekl:
    ChatGPT
    Rozdílné hodnoty vektorů pro stejné slovo v různých jazykových modelech vznikají z několika důvodů, přičemž každý model může mít odlišný způsob, jak se učí a reprezentuje jazyk. Zde jsou hlavní faktory:

    Různá trénovací data: Jazykové modely jsou trénovány na různých datech. Pokud dva modely použijí odlišné korpusy textů (například jeden model může být trénován více na vědeckých textech a druhý na konverzačním jazyce), slovo bude v těchto kontextech zachyceno odlišně. To způsobuje, že vektorové reprezentace odráží různé významy nebo nuance téhož slova.

    Různé architektury modelu: Různé modely mají odlišné struktury a architektury, například Word2Vec, GloVe, BERT, GPT atd. Každý z těchto modelů má odlišný způsob učení vztahů mezi slovy. Některé modely, jako BERT a GPT, se učí na základě kontextu (tzv. kontextuální vektory), zatímco starší modely jako Word2Vec používají statické vektory.

    Kontextuální vs. statická reprezentace: Některé jazykové modely, jako BERT a GPT, generují pro stejné slovo různé vektory v závislosti na kontextu, ve kterém je použito. Například slovo „bank“ bude mít jiný vektor v kontextu finanční banky a jiný v kontextu břehu řeky. Naopak modely jako Word2Vec poskytují jediné statické vektorové zobrazení pro každé slovo bez ohledu na kontext.

    Optimalizační metody: Každý model může používat různé optimalizační algoritmy a metody pro zlepšení své schopnosti učit se a reprezentovat slova. Tyto rozdíly mohou vést k odlišným hodnotám vektorů i pro stejná slova.

    Rozměrnost a dimenzionalita: Různé modely používají různé počty rozměrů (dimenzí) pro své vektorové reprezentace. Například Word2Vec může používat 100 nebo 300 dimenzí, zatímco transformery jako GPT a BERT mohou mít i tisíce dimenzí. To přímo ovlivňuje, jak je slovo reprezentováno.

    Shrnuto, každý model odráží odlišné aspekty jazyka, a proto i když je slovo stejné, jeho reprezentace se mění na základě kontextu, architektury modelu a trénovacích dat.
    MINERWA
    MINERWA --- ---
    HONZA09: tomu rozumim, nechápu, proč máme každej úplně jinej zápis
    Kliknutím sem můžete změnit nastavení reklam