• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    SIRLOONAI modely - OpenAI, Google, Anthropic, Meta, Microsoft a dalsi
    Diskuze o modelech znamych i neznamych firem.
    Ktery model se vyplati vic? Jak si deploynout vlastni LLM nebo model zamereny na specificke akce?
    Vibe coding a dalsi nesmysle spojene s AI, co nam maji udajne pomoc, ale ve vysledku jsou spise pritezi.
    rozbalit záhlaví
    SIRLOON
    SIRLOON --- ---
    JARDABEREZA: jak uz bylo odpovezeno, do 100GB se vejdes i s qwenem 3 nebo 3.5. Popravde sem mezi nima nenasel zadnej extra velkej rozdil, co se tyce cestiny. Pouzivam jako test vypsani vyjmenovanych slov po P a vetny rozbor nejakeho delsiho souveti se dvema hlavnima vetama a vetou vedlejsi.
    Na me amd rx6600 si moc vyskakovat nemuzu, tak mam 70 GB normalni ram 🤷‍♂️
    MONKEYFIGHTER
    MONKEYFIGHTER --- ---
    MORDINO: “Se ukazalo” Tak jako to ze posty na moltbooku jsou primarne motivovany uzivatelema prislusnejch agentu je asi jasny uz od zacatku kazdymu kdo tusi jak to funguje, na to nebyla uplne potreba nejaka velka detektivni prace.
    HARVIE
    HARVIE --- ---
    Zkousel jsem ve skriptech pouzivat lokalni LLM, je to nejaka vedlejsi automatizace na automatickou analyzu kodu v gitlabu (jen na CPU bez akcelerace), tak jsem hledal modely do ollamy kolem 1GB RAM, protoze primarni cil byl nevytezovat moc server. Z toho duvodu jsem v ollama zakazal thinking, aby ty skripty bezely rychlejc. Daval jsem modelum na analyzu skript se zamerne pridanou napadnou bezpecnostni hrozbou a sledoval jestli ji dokazou rozpoznat. Udelal jsem si takovej ciste subjektivni zebricek od nejlepsiho s komentarema ke kvalite vystupu:

    #Modely razene od nejlepsiho
    #MODEL: qwen2.5-coder:1.5b #tak akorat ukecany a chytry programator
    #MODEL: gemma3:1b #tak akorat ukecany a chytry
    #MODEL: llama3.2 #tak akorat ukecany, chytry, ale ne moc analyticky, neni to specialista na programovani
    #MODEL: deepseek-r1:1.5b #strucny, malo vecny, filozoficky-excentricky, umi najit zajimave souvislosti
    #Nasledujici se moc neosvedcily:
    #MODEL: qwen3.5:0.8b #prilis ukecany chytry
    #MODEL: qwen3:1.7b #prilis ukecany ne moc chytry
    #MODEL: llama3.2:1b #ne moc chytry
    #MODEL_RUN: ollama run ${MODEL} --hidethinking --think=false

    Ty prvni 4 jsou docela zajimavy (na to jak jsou maly) a stejny modely maj i vetsi varianty. Myslim, ze nekde v rozmezi 5-16GB RAM by se naslo neco fakt uzitecnyho na kazdodenni praci.
    Vsechny uvedeny modely a jejich alternativni varianty je mozny dohledat na https://ollama.com/search
    Kliknutím sem můžete změnit nastavení reklam