• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    KERRAYAI Art - Tvorba za pomocí umělé inteligence: Midjourney, DALL·E 2, Stable Diffusion, OpenAI
    Vše ohledně umění tvořeného pomocí umělé inteligence - obrázky, 'fotky', galerie, hudba, video, text + články, novinky apod.

    NSFW obsah prosím obalit spoiler tagem - <div class="spoiler">obrázek</spoiler>, a nemá to tu být klub na roštěnky a nahotinky bez nějaké přidané hodnoty

    Příbuzné diskuze:
    - [DALL·E mini i Craiyon - having sex with AI since [date format unknown]]
    - [I Hope This Does Not Exist ​ ​ ​ ▌​ ​ Vedlejší efekty v AI visuálech]
    - AI obecně [Artificial Intelligence AI]
    - Vtipy [Umělá inteligence, chatboti - vtipné konverzace aneb "Hoří hovno?"]
    - [generativní modely] Jak konstruovat prompty, kde získat váhy i jak to vše interpretovat


    Prosím zkusme pro vkládanou tvorbu používat tagy
    #galerie (2-3 obrázky na ukázku, další po rozkliku) #obrázek #video #hudba #text #hry #původní (pro vlastní tvorbu) #roštěnky

    #článek #nástroj

    (návrhy na další tagy apod. vítány)

    Texty, programování: https://beta.openai.com/playground | https://chat.openai.com/
    Obrázky online: https://www.midjourney.com/ | https://beta.dreamstudio.ai/
    Lokálně: https://github.com/AUTOMATIC1111/stable-diffusion-webui | https://github.com/invoke-ai/InvokeAI | Civitai repository custom modelů pro SD
    AI na vytvoření textového zadání z existujícího obrázku: https://huggingface.co/spaces/pharma/CLIP-Interrogator
    rozbalit záhlaví
    DAVE2
    DAVE2 --- ---
    E2E4: Už jsem se ho samozřejmě ptal (Bing). Potvrdil mi jen, že je to problém. Dokonce mi napsal, že umí používat metodu regionů viz:
    HITOMI:, ale že to ne vždy funguje. A měl samozřejmě pravdu. Tady je pokus o vytvoření košíku s červenými jablky vlevo a s citróny v pravo. A pak výsledek k mému zadání na scénu od Kinga:

    E2E4
    E2E4 --- ---
    DAVE2: zeptej se ChatGPT zda by ho nenapadlo jak to obejít.. ;)

    ale myslím že tohle vůbec není neřešitelny problém. (další je třeba vytvořit sérii fotek s jedním úplně stejným člověkem v různých situacích, teda pokud to mezitím už někdo nevyřešil)
    WOODMAKER
    WOODMAKER --- ---
    mne to ]etC(;PZr3te–a(" docela pripomina.
    DAVE2
    DAVE2 --- ---
    (Jestli už tu náhodou bylo tak dejte palec dolů a já to smažu)
    Generátory obrázků fungují doslova podle jakéhokoliv zadání. Jednoduše tam chybí ten RLHF, který by jim řekl, že na něco nemají reagovat. Toto je například obrázek na zadání tvořené náhodně vygenerovanými znaky: ]etC(;PZr3te–a("

    HITOMI
    HITOMI --- ---
    DAVE2: já mám, zkoušela jsem v tom nějaké základní věci (ještě s použitím controlnetu), a to fungovalo hodně dobře. Ale odjíždím za chvilku na víkend pryč, takže to mohu případně zkusit pak v pondělí, pokud se nepřihlásí nikdo jiný :)
    DAVE2
    DAVE2 --- ---
    HITOMI: No a nemá někdo naistalovaný ten AUTOMATIC1111, že by zkusil vygenrovat ten obrázek s kompozicí, kterou jsem popsal, abych viděl, že to funguje?
    DAVE2
    DAVE2 --- ---
    HITOMI: Díky za info. Rozumím tomu tak, že kompozici to pořád neumí, ale existují triky, jak to obejít. Škoda, že to neumí Midjourney....
    HITOMI
    HITOMI --- ---
    DAVE2: linkovala jsem do spřízněného auditka
    Regional Prompter: Control image composition in Stable Diffusion - Stable Diffusion Art
    https://stable-diffusion-art.com/regional-prompter/
    DAVE2
    DAVE2 --- ---
    Pouzivam pres 2 mesice Midjourney a po prvotnim nadseni jsem z toho cim dale frustrovanejsi. Umi generovat krasne obrazky jednotlivych objektu. Jakmile ale clovek chce nejakou komplikovanejsi scenu s vice objekty/aktery, je to hruza. Jak jsem pochopil, tak zadna soucasna AI neumi kompozici, to znamena, ze to uplne ugnoruje popisy jako nad, pod, za, v dali, blizko. V podstate to z promptu vybere klicova slova a nejak je ro nahodne spoji, nebo rovnou ignoruje ty, co se ji nehodi. Kdyz jsem koukal na snahu lidi na Discordu, resi to nekdo dost casto. Nebo neco delam spatne? Je nejaky jiny generator obrazku lepsi.
    Priklad obrazku podle knihy TO od Stephena Kinga, ktery jsem se marne snazil vytvorit: kluk ve zlute plastence stoji na moste pres ricku, ma v ruce papirovou lodicku, prsi, pod mostem se ve stinu skryva vrazdici klaun Pennywise, drzi v ruce balonky
    Jestli to budete nekdo schopni vygenerovat, dejte mi prosim vedet
    UNTOY
    UNTOY --- ---
    #nástroj #stablediffusion

    Stability AI Releases StableStudio, the Open-Source Future of DreamStudio — Stability AI
    https://stability.ai/blog/stablestudio-open-source-community-driven-future-dreamstudio-release
    LEXIK
    LEXIK --- ---
    ...

    Asking AI to create a queen for each country
    https://youtu.be/7VGt-pe9gCs
    GREGI
    GREGI --- ---
    HITOMI
    HITOMI --- ---
    #nástroj #stablediffusion #text #návod

    Tohle by mohlo zachraňovat životy :) Návod, jak si v SD rozdělit obrázek na části pro snazší promptování s více objekty :)
    Regional Prompter: Control image composition in Stable Diffusion - Stable Diffusion Art
    https://stable-diffusion-art.com/regional-prompter/
    KERRAY
    KERRAY --- ---
    #nástroj tipy na trénování vlastních LoRA modelů
    Reddit - Dive into anything
    https://www.reddit.com/r/StableDiffusion/comments/13dh7ql/after_training_50_lora_models_here_is_what_i/

    Style Training :

    - use 30-100 images (avoid same subject, avoid big difference in style)

    - good captioning (better caption manually instead of BLIP) with alphanumeric trigger words (styl3name).

    - use pre-existing style keywords (i.e. comic, icon, sketch)

    - caption formula styl3name, comic, a woman in white dress

    - train with a model that can already produce a close looking style that you are trying to acheive.

    - avoid stablediffusion base model beacause it is too diverse and we want to remain specific


    Person/Character Training:

    - use 30-100 images (atleast 20 closeups and 10 body shots)

    - face from different angles, body in different clothing and in different lighting but not too much diffrence, avoid pics with eye makeup

    - good captioning (better caption manually instead of BLIP) with alphanumeric trigger words (ch9ractername)

    - avoid deep captioning like "a 25 year woman in pink printed tshirt and blue ripped denim striped jeans, gold earing, ruby necklace"

    - caption formula ch9ractername, a woman in pink tshirt and blue jeans

    - for real person, train on RealisticVision model, Lora trained on RealisticVision works with most of the models

    - for character training use train with a model that can already produce a close looking character (i.e. for anime i will prefer anythinv3)

    - avoid stablediffusion base model beacause it is too diverse and we want to remain specific
    KERRAY
    KERRAY --- ---
    #video #obrázek
    Lord of the Rings by Wes Anderson Trailer | The Whimsical Fellowship
    https://youtu.be/KrjL_TSOFrI

    • MidJourney (generated images subject matter, backgrounds)

    • Stable Diffusion for upscaling(?)

    • ElevenLabs (AI text-to-voice/voice cloning) Narrator

    • D-Id (AI mouth/eye/head movements + lip syncing)

    • ChatGPT(4) For the story/dialogue (which you insert into ElevenLabs)

    • Adobe (Premiere Pro/After Effects) video editing/typography
    QWWERTY
    QWWERTY --- ---
    zahlednuto v dnesnim Midjourney channelu :))
    uz i ty ruce vypadaji docela dobre

    QWWERTY
    QWWERTY --- ---
    Voldy Retard GUide to Stable Diffusion

    --GUIDE--
    https://rentry.org/voldy
    DAVE2
    DAVE2 --- ---
    GREGI
    GREGI --- ---
    SATAI: brdavky povoleny je to v popisku!:D
    SATAI
    SATAI --- ---
    GREGI: vyberu něco bezbradavkovatého ;-)
    GREGI
    GREGI --- ---
    SATAI: muzeme udelat i porn one vid:)
    Kliknutím sem můžete změnit nastavení reklam