• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    PRAASHEKDALL·E mini je mrtvé, Dejve, ať žije Craiyon, mage.space, Stable Diffusion atd. - having sex with AI since [date format unknown]
    Having anal sex with AI be like:



    Twitter Weird Dall-E Mini Generations
    https://twitter.com/weirddalle

    AI model generating images from any prompt!

    I Hope This Does Not Exist (spřízněné auditko @ Nyx)

    Lexica - Databáze obrázků vygenerovaných AIčkem Stable Diffusion s prompty a vyhledáváním. Dobrá věc na inspiraci.
    rozbalit záhlaví
    PRAASHEK
    PRAASHEK --- ---
    VOZKA:

    GitHub - hlky/sd-enable-textual-inversion: Copy these files to your stable-diffusion to enable text-inversion
    https://github.com/hlky/sd-enable-textual-inversion

    How to Train Textual-Inversion

    ** Training is best done by using the original repo **

    WARNING: This is a very memory-intensive model and, as of writing, is not optimized to work with SD. You will need an Nvidia GPU with at least 10GB of VRAM to even get this to train at all on your local device, and a GPU with 20GB+ to train in a reasonable amount of time. If you do not have the system resources, you should use Colab or stick with pretrained embeddings until SD is better supported.

    Note that these instructions are for training on your local device, instructions may vary for training in Colab.

    You will need 3-5 images of what you want the model to describe. You can use more images, but the paper recommends 5. For the best results, the images should be visually similar, and each image should be cropped to 512x512. Any other sizes will be rescaled (stretched) and may produce strange results.
    VOZKA
    VOZKA --- ---
    Existuje textual inversion, což je jestli to správně chápu zhruba tohle, ale na to už potřebuješ GPU s ohromným množstvím RAM, minimálně 16 GB, možná 20, takže jsem si o tom nic víc nedohledával.
    PRAASHEK
    PRAASHEK --- ---
    Ješted jedna věc mě zajímá - existuje nějaký "force-learning", který by té AI vnutil třeba "takhle.vypadá.jan.werich" nebo tak něco?
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: to gui vypadá úplně parádně :)
    VOZKA
    VOZKA --- ---
    PRAASHEK: On by to ten skript webui.cmd který spustíš v kroku 7 měl udělat sám. U mě se to akorát nemohlo rozhodnout jestli to poběží na primární nebo sekundární grafické kartě a kvůli tomu to blbnulo, tak to nepoužívám. Můžu popsat jak to udělat ručně, ale nedělej to a zkus jestli ti nebude fungovat ten krok 7 normálně - měl by.

    To GUI pak vypadá takhle: https://imgur.com/a/iPlQ1xy
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: přesně něco takového jsem si nejspíš představoval - mít web GUI s decentními možnostmi nastavení podobně, jako to má teď třeba dreamstudio/stability.ai (které jediné z těch "placených/beta" mám vyzkoušené osobně).

    GPU mám jednu s 8GB RAM

    Virtuální prostředí/skript sis vytvořil sám, tady se rýsuje překážka :)

    můžeš nahodit screenshot, jak tvoje prostředí vypadá?
    VOZKA
    VOZKA --- ---
    PRAASHEK: Já používám tohle: https://rentry.org/GUItard
    Má to i nastavení na to jakou GPU použít když máš víc než jednu, ale to mi nefunguje, takže jsem musel dělat nějaké úpravy, ale pokud máš jedno GPU, mělo by to běžet víceméně samo. Ta paměťová optimalizace v tom zatím není, ale je to věc upravení jednoho python souboru, pokud to rozchodíš a tu optimalizaci bys potřeboval, tak sem ten jeden soubor ke zkopírování klidně nahraju.

    Step 1 je stáhnout samotný AI model.
    Step 2 je stáhnout zip s tím programem který ho spouští a vytváří (webové) GUI. "Git clone" ignoruj, normálně stáhni ten zip soubor z odkazu a někam ho rozbal.
    Step 2a nedělej.
    Step 4 podle mě nutný není, ale radši ho udělej. Někdo si mi stěžoval, že se ten soubor nedá upravovat v klasickém notepadu - nevím jestli je to pravda, já používám notepad++.
    Step 5 a Step 6 nainstaluje nástroj Miniconda, což je interpretr Pythonu a zároveň balíčkovací systém, který si umí stáhnout všechny potřebné pythonové knihovny do virtuálního prostředí aniž by ti s nimi zasíral systém.
    Step 7 by potom tu instalaci balíčků měl sám udělat a na závěr spustit webové rozhraní, které najdeš na http://127.0.0.1:7860/. Napoprvé stahuje a instaluje pár gigabajtů balíčků, takže to trvá dlouho, při dalších spuštěních třeba minutu.
    Tenhle krok je zároveň ta jediná věc která má potenciál se nějak rozbít a mně kvůli dvěma GPU pořádně nefunguje, takže skript webui.cmd nepoužívám, to virtuální prostředí jsem si vytvořil sám a skript pro webové ui spouštím taky sám, což ale není nic moc složitého.

    Dobrý návod k tomu jak potom SD správně nastavovat pro pěkné obrázky je tady: https://old.reddit.com/r/StableDiffusion/comments/x41n87/how_to_get_images_that_dont_suck_a/
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: btw tyhle "happy-not-so-happy accidents" jsou asi to, co mě na tom nejvíc baví
    PRAASHEK
    PRAASHEK --- ---
    VOZKA: nevíš, jestli někdo zpracovává systém, jak rozchodit na svém stroji lokálně nějakou vizualizační AI třeba v browseru nebo jakkoli podobně, pro zjednodušené "ovládání", typu stability.ai interface či tak nějak? Já se dycky při čtení "how to" zaseknu nakonci, když vidím, že se moc nechytám v tom nastavení...
    VOZKA
    VOZKA --- ---
    Někdo objevil novou jednoduchou možnost optimalizace paměťové náročnosti: https://old.reddit.com/r/StableDiffusion/comments/x56e8x/the_optimized_stable_diffusion_repo_got_a_pr_that/

    Výsledkem je, že pro 512x512 obrázky stačí 2,86 GB VRAM, na mojí sekundární (tj. 100% využívané jen pro tohle) 6 GB VRAM grafické kartě můžu generovat 832x832 px obrázky (i když mám zapnutý ESRGAN a GFPGAN, které trošku užírají), a na 6 GB VRAM kartě která je využívaná systémem by mělo jít generovat 768x768 px obrázky (či nečtvercový ekvivalent).

    A co je zajímavé, používám při spouštění webui flag --optimized-turbo, který má teoreticky o kus vyšší spotřebu RAM než jen --optimized, ale je skoro stejně rychlý jako neoptimalizovaná verze.

    Nevýhoda je, že čím větší je obrázek, tím častěji dochází k chybám jako zdvojování prvků. Zkoušel jsem generovat staré portréty rustikálních angličanů a při 832x832 pixelech už mi začal často vyrábět dvě hlavy.



    VOZKA
    VOZKA --- ---
    Na podobné téma, zde si můžete udělat kvíz jestli rozeznáte landscape fotku od AI obrázku. Ale je to ztížené záměrně nižší kvalitou obrázků. Já jsem dal 11/20.

    A.I Test, can you spot whether an image is Artificially generated? | Take the Quiz | QuizMaker
    https://take.quiz-maker.com/Q0041DO7G
    VOZKA
    VOZKA --- ---
    Spoiler: oba obrázky vytvořila AI.

    PRAASHEK
    PRAASHEK --- ---
    VOZKA: vskutečnosti iz cow that looks like cat, nefunguje jim to :/
    VOZKA
    VOZKA --- ---
    Brzy má vyjít Stable Diffusion verze 1.5. Na jejich discordu už se testuje, zatím jsem z ní viděl jeden obrázek a nemohu říct že bych se netěšil.
    Prompt byl jednoduše "a cat that looks like a cow".

    OSIP
    OSIP --- ---
    FAEKAL: nekoho uz napadlo to do photoshopu integrovat jako plugin. https://getalpaca.io/
    Stable Diffusion Photoshop Plugin
    https://www.youtube.com/watch?v=dD9vpO2zaJw
    MAGE
    MAGE --- ---
    PRAASHEK
    PRAASHEK --- ---
    Pokud by někdo byl tak hodný a ochotný ten header nějak rozumně uspořádat, pročistit, klidně úplně proměnit, zvýraznit důležité, dát tomu nějaký styl, tak do toho. Pokud už práva nemáte, stačí dát vědět a dostanete je.
    PRAASHEK
    PRAASHEK --- ---
    MAJKA: tak ho tam někam hoď
    MAJKA
    MAJKA --- ---
    Možná by ještě Nastěnce slušel link na Lexica - databázi obrázků včetně promptů. Dá se tam pěkně inspirovat, jak psát fešný prompty.
    MATT
    MATT --- ---
    VOZKA
    VOZKA --- ---
    Zkoušel jsem jestli se SD nedá použít na inpainting fototextur pro odstranění hran. Dá, ale potíž je v tom, že musíte co nejpřesněji vystihnout co se na textuře nachází, a to je dost obtížné. Spousta fototextur má taky uměle vytažené detaily a ostrost, což u textur dává smysl, ale SD je zdá se optimalizovaný spíš na fotky, které tak detailní nejsou. Takže ta dokreslená část pak vypadá trošku rozmazaně. U toho spodního obrázku se kombinují oba problémy dohromady.

    Dall-E tenhle inpainting umí automaticky (tj. bez nutnosti popisovat co je na fotce) a z internetů se zdá, že o něco líp.

    Po rozkliknutí detailnější verze.



    Kliknutím sem můžete změnit nastavení reklam