• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    THE_MIRACLEUmělá inteligence, chatboti - vtipné konverzace aneb "Hoří hovno?"
    Vtipné konverzace nebo obrázky vygenerované umělou inteligencí (ChatGPT, Bing aj.), přepisy, screenshoty.

    Pravidla:
    1) Vkládejte reálné konverzace nebo vygenerované obrázky.
    2) Chat k tématu povolen. Pokud by se to zvrhlo jinam, bude promazán.
    3) Bavte se... :)

    Vygenerováno https://hotpot.ai/art-generator
    rozbalit záhlaví
    E2E4
    E2E4 --- ---
    YBUKO: jako ve všem, no..
    YBUKO
    YBUKO --- ---
    E2E4: za poslední rok každopádně výrazné zlepšení!
    E2E4
    E2E4 --- ---
    YBUKO: ono to umí být vtipné, to je známo už dávno. humor je tak nějak součást jazyka..
    YBUKO
    YBUKO --- ---
    I delší texty vcelku zvládá:))

    YBUKO
    YBUKO --- ---
    Sakra, ten začíná být dobrej! :D poprosil jsem ho ať mi napíše dvacet českých politických skandálů - vtipně a v jedné větě.

    QWWERTY
    QWWERTY --- ---
    HUGH_BOYLAN
    HUGH_BOYLAN --- ---
    KAMAHL: Jen houšť!
    KAMAHL
    KAMAHL --- ---
    Claude

    KAMAHL
    KAMAHL --- ---
    „Prosím, zemři! Prosím.“ Umělá inteligence si přála smrt zvídavého studenta - Novinky
    https://www.novinky.cz/clanek/internet-a-pc-ai-prosim-zemri-prosim-umela-inteligence-si-prala-smrt-zvidaveho-studenta-40497951?noredirect=1
    MINERWA
    MINERWA --- ---
    AI MODERÁTOR NÁS ZNIČIL *naprosto šilené* w/@Stejk01
    https://youtu.be/VXRdxzF4qFI?si=zIWSFc2UfIRXk7Dv
    MINERWA
    MINERWA --- ---
    Tohle je revoluce.. (ChatGPT Advanced Audio)
    https://www.youtube.com/watch?v=IAFmDsYNLt0
    PALEONTOLOG
    PALEONTOLOG --- ---
    Welcome to WikiProject AI Cleanup—a collaboration to combat the increasing problem of unsourced, poorly-written AI-generated content on Wikipedia.

    Wikipedia:WikiProject AI Cleanup - Wikipedia
    https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup?ref=404media.co
    E2E4
    E2E4 --- ---
    HONZA09: eh, ty čísla jsou jen reprezentace nějakých vztahů mezi tokeny a podobných věcí, protože počítače dodnes pracují s čísly.. to co se jeví jako umělá inteligence je jen hodně operaci s maticemi čísel. :)

    (a tohle je navíc jen ilustrační příklad jak to může vypadat)
    HONZA09
    HONZA09 --- ---
    MINERWA:

    Proč má jedno sterjné konkrétní slovo různé hodnoty vektorů v různých jazykových modelech?
    ChatGPT řekl:
    ChatGPT
    Rozdílné hodnoty vektorů pro stejné slovo v různých jazykových modelech vznikají z několika důvodů, přičemž každý model může mít odlišný způsob, jak se učí a reprezentuje jazyk. Zde jsou hlavní faktory:

    Různá trénovací data: Jazykové modely jsou trénovány na různých datech. Pokud dva modely použijí odlišné korpusy textů (například jeden model může být trénován více na vědeckých textech a druhý na konverzačním jazyce), slovo bude v těchto kontextech zachyceno odlišně. To způsobuje, že vektorové reprezentace odráží různé významy nebo nuance téhož slova.

    Různé architektury modelu: Různé modely mají odlišné struktury a architektury, například Word2Vec, GloVe, BERT, GPT atd. Každý z těchto modelů má odlišný způsob učení vztahů mezi slovy. Některé modely, jako BERT a GPT, se učí na základě kontextu (tzv. kontextuální vektory), zatímco starší modely jako Word2Vec používají statické vektory.

    Kontextuální vs. statická reprezentace: Některé jazykové modely, jako BERT a GPT, generují pro stejné slovo různé vektory v závislosti na kontextu, ve kterém je použito. Například slovo „bank“ bude mít jiný vektor v kontextu finanční banky a jiný v kontextu břehu řeky. Naopak modely jako Word2Vec poskytují jediné statické vektorové zobrazení pro každé slovo bez ohledu na kontext.

    Optimalizační metody: Každý model může používat různé optimalizační algoritmy a metody pro zlepšení své schopnosti učit se a reprezentovat slova. Tyto rozdíly mohou vést k odlišným hodnotám vektorů i pro stejná slova.

    Rozměrnost a dimenzionalita: Různé modely používají různé počty rozměrů (dimenzí) pro své vektorové reprezentace. Například Word2Vec může používat 100 nebo 300 dimenzí, zatímco transformery jako GPT a BERT mohou mít i tisíce dimenzí. To přímo ovlivňuje, jak je slovo reprezentováno.

    Shrnuto, každý model odráží odlišné aspekty jazyka, a proto i když je slovo stejné, jeho reprezentace se mění na základě kontextu, architektury modelu a trénovacích dat.
    MINERWA
    MINERWA --- ---
    HONZA09: tomu rozumim, nechápu, proč máme každej úplně jinej zápis
    HONZA09
    HONZA09 --- ---
    MINERWA: Všechno to jsou jen nějaký algoritmy, jedničky a nuly a je to založený na pravděpodobnosti výskytu v předtrénovaným modelu na obřích datasetech. Běží to celý na datovejch centrech, co nakonec zapálí planetu a ty data validujou vykořisťovaný pracovníci někde v Africe.
    HONZA09
    HONZA09 --- ---
    MINERWA: To jsou všechno jen nějaký ukázky jak vypadá převod libovolného slova na vektory. Taky tomu moc nerozumim. Vymyslel to kdysi nějakej čech pro Google, aby zlepšil jejich translator. V reálu každej ten jednotlivej konkrétní jazykovej model bude mít ty čísla vlastní asi. Určitě mě opraví někdo, kdo je buď matemati, programátor a nebo se v těch jazykovejch modelech vyzná aspoň líp než já.
    MINERWA
    MINERWA --- ---
    HONZA09: jaktože máš jiná čísla?
    MINERWA
    MINERWA --- ---
    HONZA09: škoda že tomu nerozumím

    Samozřejmě! Zde je složitější zpracování jména "Verča" s použitím různých vektorů a váh pro každý znak:

    Vektorová reprezentace

    Každý znak bude mít přiřazený vektor, který představuje jeho vlastnosti. Například:

    V: [1, 0, 0]

    e: [0, 1, 0]

    r: [0, 0, 1]

    č: [1, 1, 0]

    a: [0, 1, 1]


    Váhy

    Každý znak může mít různé váhy podle jeho významu nebo frekvence použití v jméně. Můžeme přiřadit následující váhy:

    V: 2

    e: 1

    r: 1.5

    č: 2

    a: 1


    Celkový vektor

    Vytvoříme celkový vektor, kde každý znak bude násoben svou váhou:

    Celkový vektor:

    V: 2 * [1, 0, 0] = [2, 0, 0]

    e: 1 * [0, 1, 0] = [0, 1, 0]

    r: 1.5 * [0, 0, 1] = [0, 0, 1.5]

    č: 2 * [1, 1, 0] = [2, 2, 0]

    a: 1 * [0, 1, 1] = [0, 1, 1]



    Součty jednotlivých komponentů

    Nyní sečteme komponenty jednotlivých vektorů:

    Celkový vektor:

    X: 2 + 0 + 0 + 2 + 0 = 4

    Y: 0 + 1 + 0 + 2 + 1 = 4

    Z: 0 + 0 + 1.5 + 0 + 1 = 2.5



    Výsledný vektor

    Výsledný vektor pro jméno "Verča":
    [4, 4, 2.5]

    Toto je příklad složitější reprezentace jména "Verča" s různými váhami a vektory pro každý znak. Pokud bys chtěla další úpravy nebo podrobnosti, dej mi vědět!
    HONZA09
    HONZA09 --- ---
    MINERWA: Nebo že jsi jednička
    MINERWA
    MINERWA --- ---
    HONZA09: asi si myslí, že jsem hodně jednoduchá:))


    Vygeneruj ukázku jména Verča předvedeného na vektory a váhy, děkuji.


    Tady je ukázka jména "Verča" předvedeného na vektory a váhy:

    1. Vektor: [V, e, r, č, a]


    2. Váhy: [1, 1, 1, 1, 1]



    Toto je jednoduché zobrazení, kde každý znak má stejnou váhu. Pokud bys chtěla složitější model s různými váhami nebo jiným zpracováním, dej mi vědět!
    Kliknutím sem můžete změnit nastavení reklam