• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    KERRAYAI Art - Tvorba za pomocí umělé inteligence: Midjourney, Nanobanana, ComfyUI, Suno
    Vše ohledně umění tvořeného pomocí umělé inteligence - obrázky, 'fotky', galerie, hudba, video, text + články, novinky apod.

    NSFW obsah prosím obalit spoiler tagem - <div class="spoiler">obrázek</spoiler>, a nemá to tu být klub na roštěnky a nahotinky bez nějaké přidané hodnoty

    Příbuzné diskuze:
    - [DALL·E mini je mrtvé, Dejve, ať žije Craiyon, mage.space, Stable Diffusion atd. - having sex with AI since [date format unknown]]
    - [I Hope This Does Not Exist ​ ​ ​ ▌​ ​ Vedlejší efekty v AI visuálech]
    - AI obecně [Artificial Intelligence AI]
    - Vtipy [Umělá inteligence, chatboti - vtipné konverzace aneb "Hoří hovno?"]
    - [generativní modely] Jak konstruovat prompty, kde získat váhy i jak to vše interpretovat


    Prosím zkusme pro vkládanou tvorbu používat tagy
    #galerie (2-3 obrázky na ukázku, další po rozkliku) #obrázek #video #hudba #text #hry #původní (pro vlastní tvorbu) #roštěnky

    #článek #nástroj

    (návrhy na další tagy apod. vítány)

    Texty, programování: https://beta.openai.com/playground | https://chat.openai.com/
    Obrázky online: https://www.midjourney.com/ | https://beta.dreamstudio.ai/
    Lokálně: Webui-Forge https://github.com/lllyasviel/stable-diffusion-webui-forge | ComfyUI https://github.com/comfyanonymous/ComfyUI | Civitai repository custom modelů pro SD
    AI na vytvoření textového zadání z existujícího obrázku: https://huggingface.co/spaces/pharma/CLIP-Interrogator
    rozbalit záhlaví
    ICE
    ICE --- ---
    MINER: jj existuji flux2 nebo ultra flux(4K), nicemene defaultni vystupy maji na urovni prvniho sdxl (meky roztekly visual). IMO s nadeji koukam na z-image, protoze ve spojeni s text enkoderem qwen3 dava supr vysledky - drzi promt jako zadny jiny model (+text lepe nez flux). Bouzel rozliseni je klasicke a vysledny obraz je potreba prohnat pres "hi-res optimalizery" ;).
    MINER
    MINER --- ---
    ICE: Díky i za ty hinty na upscaling modely.

    Jinak Flux umí 2048×2048 a Seedream 4Mpx s 4k na delší straně, což už je hratelný.

    Zatím si hraju s workflow: downscale do těch limitů › retexturing celého objektu › upscale › náhrada nepřirozeností buď regenerací nebo nahrazením hrany ze zdrojového obrázku. Dogenerování nových prvků do 4Mpx.


    Ještě zjišťuji, jestli nejsou nějaké retexturing modely pro filmaře, který to imo potřebují furt. Většinou z velikosti toho objektu je jen retexturing. Pro dogenerování nových detailů, se v klidu vejdu do 4Mpx.

    Zatim teda ladim jen tu estetiku v downscale, ale postup výše vypadá hratelně, až s tim budu spokojen.
    MINER
    MINER --- ---
    KERRAY: Potřebuju právě lepší kvalitu. A to i zpracování, nejen rozlišení.

    Používám modely v Photoshopu: tam je Banán i Flux a jde to aplikovat jen na selekci, což hodně usnadňuje editace objekt po objektu, ladění a undo.

    Jenže tak kvalita neni ono.

    Bánán Pro se snaží, ale mění charakter víc, než bych potřeboval, a to třeba i trochu rozměr, tvar a okolí objektu tak, že jsou tam vidět deformace. A dělá tam i to, co nechci.

    Flux je realističtější, ale nezvládá texty. A v Adobe můžu použít jen Pro model, asi dokud neupgradnu na vyšší tarif.

    Přišlo by mi dobrý moci si vybrat model.
    Nutnost je pracovat jen se selekcí, ale chtělo by to mít v editoru s undo a ideálně i vrstvama, ne to furt pastovat a vyřezávat, protože to ty modely nezvládnou na jednu iteraci.
    Možnost plácnout na objekt jinej obrázek by se hodila.

    Jako pomalu se posunuju dál a kvalita se zlepšuje, ale trvá to a určitě to zatim nepoiužívám optimálně.
    LAUNCHER
    LAUNCHER --- ---
    FLUX.2: Frontier Visual Intelligence | Black Forest Labs
    https://bfl.ai/blog/flux-2
    SALAM
    SALAM --- ---
    #obrázek #nástroj
    konecne rozumny model na generovanie a upravu obrazkov, ktora zachovava povodny vstupny image.
    super rychly (cca par sekund na image), plne textova editace - tj. zvlada slovne instrukcie "vymen X za Y" "otoc kameru z ineho pohladu" "odstran text" atd.

    Narozdiel od Chatgpt (Imagen) ktory dokaze upravovat kontextualne tiez (uz nejaku dobu), je flux.kontext ale milionkrat rychlejsi, a zdrojovy input nemeni. Tj realne zachova face, postavu, scenu, atd.
    How to Use Flux Kontext for Image Editing (with AI Comparisons)
    How to Use Flux Kontext for Image Editing (with AI Comparisons)
    https://www.youtube.com/watch?v=_vIKdFYQBks&t=1s
    STRATILSOMSA
    STRATILSOMSA --- ---
    HONZA09: co toje za pekelny prompt? :) flux to dal takto

    DOUPLE
    DOUPLE --- ---
    Btw nesledujete nekdo jak to ma Altman s pravama? Nasel jsem starsi ghibli dataset z flux.dev (v podobny kvalite), kde autor psal, ze vzhledem k objemu trenovacich dat doufa, ze nebude mit popotahovacky :)
    DOUPLE
    DOUPLE --- ---
    ICE: jj nebo light leak filtry

    stejnej prompt + koda ( https://civitai.com/models/653093/Koda%20Diffusion%20(Flux) )

    DOUPLE
    DOUPLE --- ---
    #obrazek #flux
    neverending snaha o realisticnost. 3 pass Flux-dev + 4 detailery + 4xupscaler.
    Na 3060 12GB VRAM nejakych 15-18 minut

    Mate nejaky oblibeny workflow/postupy?

    THEODORT
    THEODORT --- ---
    me prijde ze je treba se spravne zeptat, pripadne si dejte nejaky vetsi clip, aka clip-vit-l apod.. zde flux
    DOUPLE
    DOUPLE --- ---
    #původní #obrázek
    Zabere to docela stelovani, ale za me uz dost pouzitelnej img2img s flux.dev z pohledu nejakyho celkovyho vyzneni sceny
    Lora vytrenovana na moji zene (ze 20 fotek, ve stejnym svetle, na stativu), idealni mit v puvodni scene mekky svetlo a malo kontrastu

    DOUPLE
    DOUPLE --- ---
    #původní #obrázek
    gguf flux.dev, dobre orezana verze pro mensi VRAM, na 3060 12GB jede cca 3.8s/it, to uz je celkem pouzitelny :) (guidance 2.2, 25 steps)

    mirek190/Flux1_dev_GGUF · Hugging Face
    https://huggingface.co/mirek190/Flux1_dev_GGUF

    ICE
    ICE --- ---
    #původní #obrázek #roštěnky
    cisty Flux dev1 (16bit), clip t5xxl_fp16 + Flux hiresfix, generovano na 7800xt, cpu to trochu;) brzdi (ryzen 2700x ), rocm, ubuntu, euler 50 iteraci - 3:30 min, hiresfix 20 iteraci - 2:10 min )
    zakladni popis sceny expandovany do detailu pomoci chatgpt.
    workflow -> https://civitai.com/models/618578?modelVersionId=692442

    ICE
    ICE --- ---
    KILLUA: dev1 verzi zvladne 16GB GPU, RAMka na clip je nutna cca 25GB+ (amd 7800 xt, ubuntu, comfyu)
    Flux dev je cenzurovana. "nativni" lidske telo z ni nedostanes. Zajimavej workflow ktery dava pekny vysledky je (realism based) SDXL -> Flux hires fix.
    DOUPLE
    DOUPLE --- ---
    par dni stary model Flux umi neuveritelny veci s textem
    FLUX: This new AI image generator is eerily good at creating human hands | Ars Technica
    https://arstechnica.com/information-technology/2024/08/flux-this-new-ai-image-generator-is-eerily-good-at-creating-human-hands/

    KERRAY
    KERRAY --- ---
    #nástroj #midjourney
    Hey! We're releasing an early test version of model personalization today, here's how it works

    What is Model Personalization?
    Every time you write a prompt there's a lot that remains 'unspoken'. Our algorithms usually fill in the blank with their own 'preferences', which are really the combined biases and preferences of our community.
    But of course everyone is different! Model personalization learns what you like so that it's more likely to fill in the blanks with your tastes.

    Model Personalization Requirements
    Right now model personalization learns from votes in pair ranking and images that you like from the explore page.
    You need to have roughly 200 pair rankings / likes in order for the feature to work
    You can see how many ratings you have on the above page or by typing /info

    How do I use Model Personalization?
    Just type --p after your prompt, or turn on personalization for all prompts under /settings or the prompt settings button on the website
    When you enable personalization you get a 'code' added after your prompts, you can share this code to share the personalization effect being applied to that image
    You can control the strength of the personalization effect by using --s 100 (0 is off and 1000 is maximum and 100 is default)

    PLEASE NOTE: The personalization is not a stable feature right now, it will change as you do more pair ratings (subtly) and we may be pushing out algorithm updates over the next few weeks. So just assume that it's a 'fun feature constantly in flux'

    This is a totally new frontier of image synthesis.
    Kliknutím sem můžete změnit nastavení reklam