• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    SIRLOONAI modely - OpenAI, Google, Anthropic, Meta, Microsoft a dalsi
    Diskuze o modelech znamych i neznamych firem.
    Ktery model se vyplati vic? Jak si deploynout vlastni LLM nebo model zamereny na specificke akce?
    Vibe coding a dalsi nesmysle spojene s AI, co nam maji udajne pomoc, ale ve vysledku jsou spise pritezi.
    rozbalit záhlaví
    MORPHLER
    MORPHLER --- ---
    JARDABEREZA: 1) to vyborne je relativni, ale imho uz 8B modely cestinu doceal davaji. nabizi se treba 80B (50GB) qwen3 next ale jinak asi budes odkazan spise na 30-40B modely. mozna rozjedes i o neco vetsi model s MoE co aktivuje jen nektere experty
    ad 2) nevim jak amd, ale ollama umi k graficke navic vyuzivat i systemovou pamet. vysledek je samozrejme znatlene (az nepouzitelne) pomalejsi, ale rozjedes modely ktere bys jinak do pameti nedal. rozhodne kvuli archtekture jsou jablecne M1-M4 schopne spustit a bezet mnohem vetsi modely, jestli to plati pro nove amd nevim, ale byly by to super.
    JARDABEREZA
    JARDABEREZA --- ---
    Dvě otázky:
    1) Existují nějaký model do 100GB, který umí výborně češtinu?
    2) Chápu to správně, že nové procesory AMD si umí sáhnout na RAM, jako kdyby to byla VRAM, takže teoreticky při 2×64GB si můžu alokovat 100GB na VRAM?
    HARVIE
    HARVIE --- ---
    Zkousel jsem ve skriptech pouzivat lokalni LLM, je to nejaka vedlejsi automatizace na automatickou analyzu kodu v gitlabu (jen na CPU bez akcelerace), tak jsem hledal modely do ollamy kolem 1GB RAM, protoze primarni cil byl nevytezovat moc server. Z toho duvodu jsem v ollama zakazal thinking, aby ty skripty bezely rychlejc. Daval jsem modelum na analyzu skript se zamerne pridanou napadnou bezpecnostni hrozbou a sledoval jestli ji dokazou rozpoznat. Udelal jsem si takovej ciste subjektivni zebricek od nejlepsiho s komentarema ke kvalite vystupu:

    #Modely razene od nejlepsiho
    #MODEL: qwen2.5-coder:1.5b #tak akorat ukecany a chytry programator
    #MODEL: gemma3:1b #tak akorat ukecany a chytry
    #MODEL: llama3.2 #tak akorat ukecany, chytry, ale ne moc analyticky, neni to specialista na programovani
    #MODEL: deepseek-r1:1.5b #strucny, malo vecny, filozoficky-excentricky, umi najit zajimave souvislosti
    #Nasledujici se moc neosvedcily:
    #MODEL: qwen3.5:0.8b #prilis ukecany chytry
    #MODEL: qwen3:1.7b #prilis ukecany ne moc chytry
    #MODEL: llama3.2:1b #ne moc chytry
    #MODEL_RUN: ollama run ${MODEL} --hidethinking --think=false

    Ty prvni 4 jsou docela zajimavy (na to jak jsou maly) a stejny modely maj i vetsi varianty. Myslim, ze nekde v rozmezi 5-16GB RAM by se naslo neco fakt uzitecnyho na kazdodenni praci.
    Vsechny uvedeny modely a jejich alternativni varianty je mozny dohledat na https://ollama.com/search
    Kliknutím sem můžete změnit nastavení reklam