• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    SIRLOONAI modely - OpenAI, Google, Anthropic, Meta, Microsoft a dalsi
    SIRLOON
    SIRLOON --- ---
    JARDABEREZA: jak uz bylo odpovezeno, do 100GB se vejdes i s qwenem 3 nebo 3.5. Popravde sem mezi nima nenasel zadnej extra velkej rozdil, co se tyce cestiny. Pouzivam jako test vypsani vyjmenovanych slov po P a vetny rozbor nejakeho delsiho souveti se dvema hlavnima vetama a vetou vedlejsi.
    Na me amd rx6600 si moc vyskakovat nemuzu, tak mam 70 GB normalni ram 🤷‍♂️
    JARDABEREZA
    JARDABEREZA --- ---
    MORPHLER: Mám Framework laptop a myslím, že ten už to dělá: https://community.frame.work/t/allocating-ram-to-gpu-on-amd-370/75965 CPU používá RAM jako unified memory. Oproti Apple má Framework tu výhodu, že za 5 minut jsem schopný si tam našroubovat jinou RAMku :-D
    MORPHLER
    MORPHLER --- ---
    MORPHLER: prehled nekterych modelu... https://ollama.com/search
    MORPHLER
    MORPHLER --- ---
    JARDABEREZA: 1) to vyborne je relativni, ale imho uz 8B modely cestinu doceal davaji. nabizi se treba 80B (50GB) qwen3 next ale jinak asi budes odkazan spise na 30-40B modely. mozna rozjedes i o neco vetsi model s MoE co aktivuje jen nektere experty
    ad 2) nevim jak amd, ale ollama umi k graficke navic vyuzivat i systemovou pamet. vysledek je samozrejme znatlene (az nepouzitelne) pomalejsi, ale rozjedes modely ktere bys jinak do pameti nedal. rozhodne kvuli archtekture jsou jablecne M1-M4 schopne spustit a bezet mnohem vetsi modely, jestli to plati pro nove amd nevim, ale byly by to super.
    JARDABEREZA
    JARDABEREZA --- ---
    Dvě otázky:
    1) Existují nějaký model do 100GB, který umí výborně češtinu?
    2) Chápu to správně, že nové procesory AMD si umí sáhnout na RAM, jako kdyby to byla VRAM, takže teoreticky při 2×64GB si můžu alokovat 100GB na VRAM?
    QWWERTY
    QWWERTY --- ---
    MONKEYFIGHTER: "motivovany uzivatelema prislusnejch agentu"
    spousta z nich ale nebyli "uzivatele agentu" ale proste lidi vydavajici se za AI agenty, kteri psali prispevky "manualne"
    viz [VOYTEX @ Artificial Intelligence AI]
    MONKEYFIGHTER
    MONKEYFIGHTER --- ---
    MORDINO: “Se ukazalo” Tak jako to ze posty na moltbooku jsou primarne motivovany uzivatelema prislusnejch agentu je asi jasny uz od zacatku kazdymu kdo tusi jak to funguje, na to nebyla uplne potreba nejaka velka detektivni prace.
    MORDINO
    MORDINO --- ---
    HIROSS: koupila to Meta a ve finále se ukázalo že většinu postů tam psali místo AI lidi :-)
    SIRLOON
    SIRLOON --- ---
    HARVIE: delal sem podobny research, ale ja se zameril primo na modely, co mely napsano ze sou code. Tam sem se pak vesel do 16GB ale pri pouzivani AnythingLM i llamacpp se mi obcas “odpojila”grafarna a musel sem stelovat nastaveni vyuziti karty aby to jelo bez problemu
    HARVIE
    HARVIE --- ---
    Zkousel jsem ve skriptech pouzivat lokalni LLM, je to nejaka vedlejsi automatizace na automatickou analyzu kodu v gitlabu (jen na CPU bez akcelerace), tak jsem hledal modely do ollamy kolem 1GB RAM, protoze primarni cil byl nevytezovat moc server. Z toho duvodu jsem v ollama zakazal thinking, aby ty skripty bezely rychlejc. Daval jsem modelum na analyzu skript se zamerne pridanou napadnou bezpecnostni hrozbou a sledoval jestli ji dokazou rozpoznat. Udelal jsem si takovej ciste subjektivni zebricek od nejlepsiho s komentarema ke kvalite vystupu:

    #Modely razene od nejlepsiho
    #MODEL: qwen2.5-coder:1.5b #tak akorat ukecany a chytry programator
    #MODEL: gemma3:1b #tak akorat ukecany a chytry
    #MODEL: llama3.2 #tak akorat ukecany, chytry, ale ne moc analyticky, neni to specialista na programovani
    #MODEL: deepseek-r1:1.5b #strucny, malo vecny, filozoficky-excentricky, umi najit zajimave souvislosti
    #Nasledujici se moc neosvedcily:
    #MODEL: qwen3.5:0.8b #prilis ukecany chytry
    #MODEL: qwen3:1.7b #prilis ukecany ne moc chytry
    #MODEL: llama3.2:1b #ne moc chytry
    #MODEL_RUN: ollama run ${MODEL} --hidethinking --think=false

    Ty prvni 4 jsou docela zajimavy (na to jak jsou maly) a stejny modely maj i vetsi varianty. Myslim, ze nekde v rozmezi 5-16GB RAM by se naslo neco fakt uzitecnyho na kazdodenni praci.
    Vsechny uvedeny modely a jejich alternativni varianty je mozny dohledat na https://ollama.com/search
    HIROSS
    HIROSS --- ---
    Uvnitř první AI sociální sítě se děje něco tajemného
    https://www.youtube.com/watch?v=VLc_Mf5myCc
    SIRLOON
    SIRLOON --- ---
    QWWERTY: v tom pripade to asi bude omyl, pac sem hledal ruzna jmena diskuzi a fakt sem je nenasel. ale primarne sem doufal, ze budu resit lokalni vytvareni LLM a zkusenosti s nima
    QWWERTY
    QWWERTY --- ---
    rozdil zamereni threadu oproti
    [Artificial Intelligence AI]
    [Vibe coding]
    ?
    TORI
    TORI --- ---
    Vítejte a ať se vám tu líbí.

    Můžete pozvat své přátele.
    Kliknutím sem můžete změnit nastavení reklam