• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    TOXICMANElon Musk respektive jeho firmy SpaceX (Falcon / Heavy / Dragon / Starship), Tesla, Starlink, Neuralink, Boring, xAI
    JARDABEREZA
    JARDABEREZA --- ---
    E2E4: Můžeš si nějaké jazykové modely rozjet na svém PC pokud máš hodně VRAM. Je to už natrénované. Dají se stáhnout zde: https://llm.extractum.io/list/?12GB vrazíš to do tohohle GUI: https://github.com/oobabooga/text-generation-webui
    PES
    PES --- ---
    SATAI: anebo Clarkson
    Jeremy Clarkson POWERRR!!! Top Gear
    https://www.youtube.com/watch?v=ygBP7MtT3Ac
    E2E4
    E2E4 --- ---
    JARDABEREZA: to nevím jak hodně nonstop to jede. přeci jen to žere elektrinu..

    a myslím že velká část toho co to dělá dobrý je ve fine-tuningu. porovnej gpt4 na bingu a na ChatGPT, že.
    JARDABEREZA
    JARDABEREZA --- ---
    E2E4: Je to hodně kompetitivní a dlouho to trvá... jen dotrénuješ jeden model hodíš tam druhý... porovnáš je atd... dokud máš peníze, tak se trénování jen tak nezastaví jinak konkurence přijde s lepší modelem :-D
    E2E4
    E2E4 --- ---
    JARDABEREZA: určitě je trénování náročnější než provoz, ale v tom případě nerozumím tomu proč mluví o nárocích na elektřinu. to trénování neděláš zas tak často..?

    ad pruning, no vzhledem k tomu, že grok má snad nejvíc parametrů ze všech modelů tak asi touhle cestou nejde..?

    každopádně nevíme nic, uvidíme až to bude.
    JARDABEREZA
    JARDABEREZA --- ---
    ESTEN: A když natrénuješ model velký jak hovado a pak uděláš pruning?

    "Pruning reduces the number of parameters in machine learning models by removing redundant ones, leading to a more compact and efficient model without compromising performance." https://typeset.io/questions/how-does-pruning-affect-the-size-and-number-of-parameters-in-3t0ubs8nqz
    ESTEN
    ESTEN --- ---
    JARDABEREZA: takhle to nefunguje. Cim vic parametru, tim drazsi je trenovani. Pocet parametru snizujes vyzkumem, ne vypocetni silou.
    SATAI
    SATAI --- ---
    E2E4: on Elon je takový Tím Taylor. "Větší výkon, au, au, au" ;-)
    JARDABEREZA
    JARDABEREZA --- ---
    E2E4: Nemícháš dohromady dvě různý věci? Trénování a samotný provoz? Myslím, že té dobré kvality s nízkým počtem parametrů dosáhneš tím, že na to trénování máš masivní výpočetní sílu a pak parametry osekáváš dolů.
    E2E4
    E2E4 --- ---
    SATAI: "pravděpodobně".

    v kontextu groku je zajímavé, že pise, že další model bude natrénovan v květnu. dál píšou o groku 2 že ho natrénovat potřebovalo 20k karet, jako by se to už stalo, přitom ještě není dostupný ani ten grok 1.5 ?

    a představa, že další verze budou potřebovat ještě více GPU a elektřiny je taková zvláštní. už teď jsou LLM drahé na provoz, že není jasné, zda se dlouhodobě vyplatí.

    sázka na extenzivní vývoj (viz grok 1, který dosahuje výsledků o něco lepších než ChatGPT 3 za cenu mnohem víc parametrů). přitom vývoj probíhá spíš ve zlepšování za snižování počtu parametrů, moat ChatGPT je ve fine tuningu a přidávání deterministickych doplňků, např použití code interpreteru (chatgpt si na úlohy, ve kterých není dobrý napíše prográmek a zpracuje výsledek)..
    TOXICMAN
    TOXICMAN --- ---
    @Starlink
    View of the solar eclipse from a Starlink satellite on orbit

    KOUDY
    KOUDY --- ---
    JARDABEREZA: generativni AI chapu a Copilota od microsoftu na gpt 4 pouzivam kazdej den. Chapu i metackou AI v meta stories, ale nevim k cemu je vhodnej grok na twitteru. Mozna je to dobry jen jako nejakej experiment, ale jinak nevim. Max kdyby treba prochazel celou sit a automaticky nachazel a flagoval nejaky fakenews, nebo boty, neaktivni uzivatele ci nevhodny/bully chovani..coz se ale urcite nedeje.
    SATAI
    SATAI --- ---
    Breaking: Internetovy magnat, na jehoz platforme se to ani nepovede streamovat, odhaduje AGI do dvou let

    https://www.reuters.com/technology/teslas-musk-predicts-ai-will-be-smarter-than-smartest-human-next-year-2024-04-08/
    JARDABEREZA
    JARDABEREZA --- ---
    KOUDY: Firmy to (AI) používají, když mají strach, že se o nich přestane mluvit.

    Ale u některých firem to dává celkem smysl.
    KOUDY
    KOUDY --- ---
    K cemu ze ma ten Grok bejt dobrej? Doted jsem to nepochopil uplne.
    E2E4
    E2E4 --- ---
    někdy Elonova konstanta opravdu dovede překvapit, už je uz je grok 1.5.

    Announcing Grok-1.5
    https://x.ai/blog/grok-1.5

    papírové vypadá slušně, podobný Claude 3 (taky stejně velký kontext). reálně je i Claude 3 ve stejne lize jako ChatGPT4, plus má ten dlouhý kontext, ale lepší není.

    tak uvidíme ..


    eh. nic, naletěl jsem ;)

    Available on 𝕏 soon.
    E2E4
    E2E4 --- ---
    BLACKHEAD: tak jest, prostě konstanta kterou vynásobíme výpočet, aby vyšel správně (např odpovídal měření).

    napr "Elonovu konstanta musíme ještě vynásobit pisvejcovou, protože slíbený čas se liší od skutečnosti pokaždé jinak". jediné co se dá říct s jistotou, že Elonova konstanta je větší nebo rovná jedné. ;)
    BLACKHEAD
    BLACKHEAD --- ---
    E2E4: ... dle jedno byvaleho Brmlabaka je to "konstanta spravneho vysledku".
    PES
    PES --- ---
    E2E4: tak tedy Pišvejcova (nevyjížděl jsem počet výskytu) ;-)
    E2E4
    E2E4 --- ---
    PES: pišvejcova.

    piškvorcova se prakticky nevyskytuje (3 výsledky na google proti 400)
    Kliknutím sem můžete změnit nastavení reklam