• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    PRAASHEKDALL·E mini je mrtvé, Dejve, ať žije Craiyon, mage.space, Stable Diffusion atd. - having sex with AI since [date format unknown]
    Having anal sex with AI be like:



    Twitter Weird Dall-E Mini Generations
    https://twitter.com/weirddalle

    AI model generating images from any prompt!

    I Hope This Does Not Exist (spřízněné auditko @ Nyx)

    Lexica - Databáze obrázků vygenerovaných AIčkem Stable Diffusion s prompty a vyhledáváním. Dobrá věc na inspiraci.
    rozbalit záhlaví
    CABOWITZ
    CABOWITZ --- ---
    PRAASHEK: nejaka podobna varianta pro linux ktera funguje out of the box a nepotrebuje delsi python/conda/konfiguracni fu uz existuje, nevite? taky bych to rad zkusil, ale nechci se norit to bazin rady tutorialu z nichz treba nektere uz nejsou aktualni...
    PRAASHEK
    PRAASHEK --- ---
    hm, tak tohle je pro lazy bastards jasná volba! :))

    NMKD Stable Diffusion GUI - AI Image Generator by N00MKRAD
    https://nmkd.itch.io/t2i-gui

    už si to ku mně do stroje stahuje 1.4 model...
    *pouze pro nvidia karts
    VOZKA
    VOZKA --- ---
    PRAASHEK: na to přesunuté repo podle mě bude fungovat ten retard návod co jsem linkoval níž: https://rentry.org/GUItard

    ale jo, je to blbá situace, každý dva dny vyjde nějaká zásadní fičura a nikdo je nestíhá všechny mergovat do jednoho forku :). Já bych si chtěl vyzkoušet tu turbooptimalizovanou verzi co zvládá ještě větší obrázky, chtěl bych si vyzkoušet inpainting, chtěl bych si vyzkoušet seamless obrázky (!!), ale jsem prostě línej na to abych tu měl nainstalovaný tři nebo čtyři verze naráz.
    PRAASHEK
    PRAASHEK --- ---
    A btw si tak čtu na redditu o různých verzích GUI, co se teď dají najít a zas mě to vrhlo do nejistoty, co bude nejlepší volba :)

    stable-diffusion/GUI_TUTORIAL.md at main · neonsecret/stable-diffusion · GitHub
    https://github.com/neonsecret/stable-diffusion/blob/main/GUI_TUTORIAL.md

    //co jsem vyčetl, "umí" to zatím jenom dva modely, takže asi nechci, nicméně tam je .bat file, který vlastně provede veškeré kroky za vás +přednastavení, které umí nějak samo optimalizovat chod pro různé grafické karty - moc jsem to dál nezkoumal, možná jenom optimalizace pro 8GB VRAM aby to nevyhazovalo chyby když zkoušíte vyšší rozlišení
    ---

    https://github.com/hlky/stable-diffusion

    moved to

    GitHub - sd-webui/stable-diffusion-webui: Stable Diffusion web UI
    https://github.com/sd-webui/stable-diffusion-webui

    //tohle jsem chtěl zkusit, protože to bylo na redditu doporučované, nicméně proběhlo zrovna přemístění v rámci githubu a nikde nevidím instrukce pro install :) možná jsem jenom slepýš, kdyžtak mě nasměrujte
    ---

    GitHub - henk717/stable-diffusion
    https://github.com/henk717/stable-diffusion

    //tohle by měl být "fork" toho předešlého, opět nevidím instrukce, protože odkazují na stejné nic, jako předchozí
    PRAASHEK
    PRAASHEK --- ---
    VOZKA:

    GitHub - hlky/sd-enable-textual-inversion: Copy these files to your stable-diffusion to enable text-inversion
    https://github.com/hlky/sd-enable-textual-inversion

    How to Train Textual-Inversion

    ** Training is best done by using the original repo **

    WARNING: This is a very memory-intensive model and, as of writing, is not optimized to work with SD. You will need an Nvidia GPU with at least 10GB of VRAM to even get this to train at all on your local device, and a GPU with 20GB+ to train in a reasonable amount of time. If you do not have the system resources, you should use Colab or stick with pretrained embeddings until SD is better supported.

    Note that these instructions are for training on your local device, instructions may vary for training in Colab.

    You will need 3-5 images of what you want the model to describe. You can use more images, but the paper recommends 5. For the best results, the images should be visually similar, and each image should be cropped to 512x512. Any other sizes will be rescaled (stretched) and may produce strange results.
    VOZKA
    VOZKA --- ---
    PRAASHEK: Už nevím, ale bylo to nepokrytě nemravné testování toho, jak umí AI generovat dámská pozadí, takže něco jako nude woman from behind standing in a meadow showing her bare ass. Ale ten 90s kalendář efekt je podle mě způsobený tím, že některé samplery (zrovna ddim třeba) při malém množství kroků fungují dost dobře, ale mají tendence vytvářet obrázky buďto trošku rozmazené nebo jako s více či méně umělým mlžným oparem jako tady.
    PRAASHEK
    PRAASHEK --- ---
    //jak znělo zadání btw?
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: prej "omylem". To je ta nejstarší výmluva na světě.
    VOZKA
    VOZKA --- ---
    Omylem jsem vytvořil stránku z erotického kalendáře z 90. let

    PRAASHEK
    PRAASHEK --- ---
    LUSINDA: já bych to namaloval stejně
    LUSINDA
    LUSINDA --- ---
    špatnou angličtinu ani MidJourney nedává :-)

    yellow dog in old castle with fire

    MATT
    MATT --- ---
    The DALL·E 2 Prompt Book – DALL·Ery GALL·Ery
    https://dallery.gallery/the-dalle-2-prompt-book/
    PLECH
    PLECH --- ---
    AI Images: Last Week Tonight with John Oliver (HBO)
    https://www.youtube.com/watch?v=3YNku5FKWjw
    VOZKA
    VOZKA --- ---
    Existuje textual inversion, což je jestli to správně chápu zhruba tohle, ale na to už potřebuješ GPU s ohromným množstvím RAM, minimálně 16 GB, možná 20, takže jsem si o tom nic víc nedohledával.
    PRAASHEK
    PRAASHEK --- ---
    Ješted jedna věc mě zajímá - existuje nějaký "force-learning", který by té AI vnutil třeba "takhle.vypadá.jan.werich" nebo tak něco?
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: to gui vypadá úplně parádně :)
    VOZKA
    VOZKA --- ---
    PRAASHEK: On by to ten skript webui.cmd který spustíš v kroku 7 měl udělat sám. U mě se to akorát nemohlo rozhodnout jestli to poběží na primární nebo sekundární grafické kartě a kvůli tomu to blbnulo, tak to nepoužívám. Můžu popsat jak to udělat ručně, ale nedělej to a zkus jestli ti nebude fungovat ten krok 7 normálně - měl by.

    To GUI pak vypadá takhle: https://imgur.com/a/iPlQ1xy
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: přesně něco takového jsem si nejspíš představoval - mít web GUI s decentními možnostmi nastavení podobně, jako to má teď třeba dreamstudio/stability.ai (které jediné z těch "placených/beta" mám vyzkoušené osobně).

    GPU mám jednu s 8GB RAM

    Virtuální prostředí/skript sis vytvořil sám, tady se rýsuje překážka :)

    můžeš nahodit screenshot, jak tvoje prostředí vypadá?
    VOZKA
    VOZKA --- ---
    PRAASHEK: Já používám tohle: https://rentry.org/GUItard
    Má to i nastavení na to jakou GPU použít když máš víc než jednu, ale to mi nefunguje, takže jsem musel dělat nějaké úpravy, ale pokud máš jedno GPU, mělo by to běžet víceméně samo. Ta paměťová optimalizace v tom zatím není, ale je to věc upravení jednoho python souboru, pokud to rozchodíš a tu optimalizaci bys potřeboval, tak sem ten jeden soubor ke zkopírování klidně nahraju.

    Step 1 je stáhnout samotný AI model.
    Step 2 je stáhnout zip s tím programem který ho spouští a vytváří (webové) GUI. "Git clone" ignoruj, normálně stáhni ten zip soubor z odkazu a někam ho rozbal.
    Step 2a nedělej.
    Step 4 podle mě nutný není, ale radši ho udělej. Někdo si mi stěžoval, že se ten soubor nedá upravovat v klasickém notepadu - nevím jestli je to pravda, já používám notepad++.
    Step 5 a Step 6 nainstaluje nástroj Miniconda, což je interpretr Pythonu a zároveň balíčkovací systém, který si umí stáhnout všechny potřebné pythonové knihovny do virtuálního prostředí aniž by ti s nimi zasíral systém.
    Step 7 by potom tu instalaci balíčků měl sám udělat a na závěr spustit webové rozhraní, které najdeš na http://127.0.0.1:7860/. Napoprvé stahuje a instaluje pár gigabajtů balíčků, takže to trvá dlouho, při dalších spuštěních třeba minutu.
    Tenhle krok je zároveň ta jediná věc která má potenciál se nějak rozbít a mně kvůli dvěma GPU pořádně nefunguje, takže skript webui.cmd nepoužívám, to virtuální prostředí jsem si vytvořil sám a skript pro webové ui spouštím taky sám, což ale není nic moc složitého.

    Dobrý návod k tomu jak potom SD správně nastavovat pro pěkné obrázky je tady: https://old.reddit.com/r/StableDiffusion/comments/x41n87/how_to_get_images_that_dont_suck_a/
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: btw tyhle "happy-not-so-happy accidents" jsou asi to, co mě na tom nejvíc baví
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: nevíš, jestli někdo zpracovává systém, jak rozchodit na svém stroji lokálně nějakou vizualizační AI třeba v browseru nebo jakkoli podobně, pro zjednodušené "ovládání", typu stability.ai interface či tak nějak? Já se dycky při čtení "how to" zaseknu nakonci, když vidím, že se moc nechytám v tom nastavení...
    Kliknutím sem můžete změnit nastavení reklam