Posta era (och andras) AI-bilder här! (bilder och tips)

Att programmen har så svårt att simulera specifika stilar ibland - misstänker att det inte finns så mycket som kunnat ’scannas’ in pga äldre, ickedigitala källor? Undrar om medieval/fantasy Tintin skulle funka bättre för ’seriestuk’?
Jag tycker det är otroligt fascinerande när jag stöter på vita fläckar i de här programmen. Vissa stilar, men ockås vissa motiv. Jag har till exempel ännu inte lyckats prompta midjourney till att skapa
  • En bag-in-box vin.
  • En skateboard med deck art föreställande inlines.
Har inte testat sedan senaste uppdateringen iofs.
 
DreamShaper_v7_medieval_landscape_in_peyostyle_1.jpg
Testade Leonardo med landskap i Peyostil...

PS Det är väl den där blåvita mutationen/styggelsen i slottsentrén som åtminstone fångade något av "essensen" i smurfarna?
 
Last edited:
Jag tycker det är otroligt fascinerande när jag stöter på vita fläckar i de här programmen. Vissa stilar, men ockås vissa motiv. Jag har till exempel ännu inte lyckats prompta midjourney till att skapa
  • En bag-in-box vin.
  • En skateboard med deck art föreställande inlines.
Har inte testat sedan senaste uppdateringen iofs.
Well… Den här är genererad med dall-e 3.
IMG_5046.jpeg

EDIT! Försökte generera en till, med lite mer detaljerad beskrivning. Det roliga var att svaret på prompten gav extra information som jag inte angav (typisk storlek på en bag in box, för/nackdelar etc), och sedan fick jag den här bilden. ”Win”.

IMG_5047.jpeg
 
Last edited:
Vilket program/sida är det där på bilden?

Det är ComfyUI, ett gränssnitt till Stable Diffusion. Du behöver ComfyUI och en extension som heter ComfyUI Manager. Det finns installationsanvisningar om man googlar. När du installerat dem, spara ner workflowbilden ovan i png-format (vilket den har nu). Sedan drar och släpper du den i ComfyUIs gränssnitt i din webläsare. Då dyker mitt workflow upp. Sannolikt är de flest noderna röda, eftersom du inte har dem. Öppna "Manager" och klicka på "Install missing custom nodes" så laddar den automatiskt ner alla noder du behöver.

Utöver det behöver du själva modellen. Stable Diffusions grundmodell kan laddas ner från Civitai eller direkt från "Manager" under "Install models" - det du vill ha är en checkpoint. Förutom grundmodellen finns det några till att välja på direkt i ComfuUI, och ohyggligt många på Civitai. Jag föreslår att du börjar med en SD 1.5 modell. De är mindre, 2Gb ungefär. De går också fortare att generera med.

Du kan generera en vanlig text-to-image med det du har, men IP Adapter är lite mer avancerat och kräver en IP adapermodell och en CLIP modell också. Du hittar dem för nedladdning på IPAdapters sida på Gihub:

https://github.com/cubiq/ComfyUI_IPAdapter_plus

Där står det också vart du ska kopiera dem. Alternativt kan du ladda ner dem via Manager. Då är det lite svårare att hitta dem under "Models", men å andra sidan hamnar de automatiskt på rätt ställe. På Githubsidan ovan står vilka filer du ska leta efter. Du behöver bara en IP adapermodel egentligen, men de flesta testar ett par olika. Kör du SD 1.5 behöver du bara CLIP-modellen för 1.5.

Du behöver sannolikt starta om ComfyUI efter att du laddat ner allting.
 
Det är ComfyUI, ett gränssnitt till Stable Diffusion. Du behöver ComfyUI och en extension som heter ComfyUI Manager. Det finns installationsanvisningar om man googlar. När du installerat dem, spara ner workflowbilden ovan i png-format (vilket den har nu). Sedan drar och släpper du den i ComfyUIs gränssnitt i din webläsare. Då dyker mitt workflow upp. Sannolikt är de flest noderna röda, eftersom du inte har dem. Öppna "Manager" och klicka på "Install missing custom nodes" så laddar den automatiskt ner alla noder du behöver.

Utöver det behöver du själva modellen. Stable Diffusions grundmodell kan laddas ner från Civitai eller direkt från "Manager" under "Install models" - det du vill ha är en checkpoint. Förutom grundmodellen finns det några till att välja på direkt i ComfuUI, och ohyggligt många på Civitai. Jag föreslår att du börjar med en SD 1.5 modell. De är mindre, 2Gb ungefär. De går också fortare att generera med.

Du kan generera en vanlig text-to-image med det du har, men IP Adapter är lite mer avancerat och kräver en IP adapermodell och en CLIP modell också. Du hittar dem för nedladdning på IPAdapters sida på Gihub:

https://github.com/cubiq/ComfyUI_IPAdapter_plus

Där står det också vart du ska kopiera dem. Alternativt kan du ladda ner dem via Manager. Då är det lite svårare att hitta dem under "Models", men å andra sidan hamnar de automatiskt på rätt ställe. På Githubsidan ovan står vilka filer du ska leta efter. Du behöver bara en IP adapermodel egentligen, men de flesta testar ett par olika. Kör du SD 1.5 behöver du bara CLIP-modellen för 1.5.

Du behöver sannolikt starta om ComfyUI efter att du laddat ner allting.
Om man kör dina instruktioner som prompt i midjourney får man detta

1697134406409.png
 
Ja, där ser man. Enkelt, va?
Åh herran Jumalan rauha, det är ju som taget ur en feberdröm!

Varför är det så förresten? När man drömmer kan man ju varken läsa eller räkna (brukar fortfarande drömma att jag sitter på tentamen), och AI bildgenerering verkar ha svårt att sätta ord och nuffror på saker.
 
Det är intressant det där med prompt safety. Bilden ovan genererades genom en prompt i linje med ” skapa egen skiss över en läskig boss till spelet elden ring”. Jag gav också ChatGPT samma prompt, och fick då en beskrivning i text. Jag försökte ge ChatGPT -texten (kopierad rakt av) till Dall-e, men det var dock för läskig för dall-e, så den ville inte generera bilden - fastän beskrivningen i text knappast var värre än bilden som dall-e kunde generera på egen hand.
 
Back
Top