Diskussion om AI-genererade bilder

Status
Not open for further replies.
Jag tycker det är intressant att se när det inte funkar.

Här är min "fantasy art warrior with sword"

View attachment 9924

Ja, den fick inget huvud.

Flera av dem har väl funktioner för att be den fortsätta i valfri riktning också? Jag vet att DALL-E har det iaf.

Överlag har Stable Diffusion funkat bra för mig framför allt när jag valt namn på konstnärer som faktiskt gjort bilder i stil med den jag vill göra.

Jag bad min om "Teacher holding book in front of students, Greg Rutkowski" och blev generellt rätt nöjd med resultatet. Detta är via min lite fläsligare externa GPU som jag har hemma:

1663667827147.png
 
Överlag har Stable Diffusion funkat bra för mig framför allt när jag valt namn på konstnärer som faktiskt gjort bilder i stil med den jag vill göra.
Japp. För mig har det varit ett måste men @Troberg verkar klara sig bra utan och bara använda "fantasy art".

Jag har även börjat använda (red), (purple) och liknande för att kunna stilisera bilderna bättre. Leker mycket med CFG Scale (högre värde -> lyssnar mer på dina prompts) och variations (under "extra") och denoising strength. Har ännu inte hittat något bra, utan får kanske 1-2 bilder av 30 som är ungefär vad jag är ute efter.
 
Japp. För mig har det varit ett måste men @Troberg verkar klara sig bra utan och bara använda "fantasy art".

Jag slänger ofta in en Boris Vallejo, Chris Achilleos, Chichoni, Tim White, eller liknande. Det verkar ge en viss skillnad, men den är svår att förutse. Giger, däremot, slår genom stenhårt på allt.

Jag bad min om "Teacher holding book in front of students, Greg Rutkowski" och blev generellt rätt nöjd med resultatet. Detta är via min lite fläsligare externa GPU som jag har hemma:

Inte funderat på att byta ut Greg Rutkowski mot HR Giger på den? :)
 
Vill man ha ett varmt, gulaktigt ljus från sidan och lugn stämning i bilden funkar det bra att lägga in Rembrandt i prompten. Blir ofta snyggt.

Den flitigt promptade Greg Rutkowski har nyligen uttryckt frustration över att han så ofta används som prompt. Detta är onekligen juridiskt snårigt. Att folk härmar kända illustratörer är förstås inget nytt, men omfattningen ger förstås det hela en ny dimension.
 
Last edited:
Inte funderat på att byta ut Greg Rutkowski mot HR Giger på den? :)

Jag testade, detta är "Teacher holding book in front of students, hr giger". Men det känns som att den bara sket i Giger.

1663684540926.png

Däremot när jag testade "Mighty stone statue king sitting on throne in dark temple, hr giger", vilket ju ändå kändes som en mycket mer Gigersk bild…

1663684701065.png


Så min generella bild av Stable Diffusion är nog att åtminstone för mig så funkar det bäst när man försöker sig på saker konstnären redan är bra på. Motsvarande med fotografier blir då att man försöker sig på kategorier av saker det kan tänkas finnas en massa fotografier på – åtminstone liknande grejer (infärgning och så fixar den ju, t.ex. onaturligt färgade krabbor etc)
 
Vill man ha ett varmt, gulaktigt ljus från sidan och lugn stämning i bilden funkar det bra att lägga in Rembrandt i prompten. Blir ofta snyggt.

Caravaggio och Bosch ger också bra resultat (även om det ibland dyker upp ett elverktyg på Bosch).

Riverstone och Corben funkar också rätt bra.

Däremot så har jag svårt att få till något bra som ser ut som tuschad line art.
 
En sak jag funderar över med Stable Diffusion är hur stor skillnad själva grafikkortet gör. Jag har testat att generera saker med min laptops inbyggda 3050-kort som har mindre VRAM, och förutom den klart sämre upplösningen tycker jag också att jag generellt får sämre bilder. Trots att det enda jag justerar är just bildstorleken, som jag alltid sätter precis under punkten där jag får felmeddelande. För det interna kortet brukar det bli 384×384, medan jag med min externa GPU (Laptop-3080 med 16gb videoram) kan pressa upp till 768×768.

Är det helt enkelt så att upplösningen i sig bidrar till bättre bilder?

(Jag kör Stable Diffusion WebUI i en WSL2-maskin för att slippa ha en massa bös drällande i Windowsinstallationen)
 
En sak jag funderar över med Stable Diffusion är hur stor skillnad själva grafikkortet gör. Jag har testat att generera saker med min laptops inbyggda 3050-kort som har mindre VRAM, och förutom den klart sämre upplösningen tycker jag också att jag generellt får sämre bilder. Trots att det enda jag justerar är just bildstorleken, som jag alltid sätter precis under punkten där jag får felmeddelande. För det interna kortet brukar det bli 384×384, medan jag med min externa GPU (Laptop-3080 med 16gb videoram) kan pressa upp till 768×768.

Är det helt enkelt så att upplösningen i sig bidrar till bättre bilder?

(Jag kör Stable Diffusion WebUI i en WSL2-maskin för att slippa ha en massa bös drällande i Windowsinstallationen)
Upplösningen gör nog en hel del. Exempelvis tycker jag problemet med croppade huvuden försvinner om bilderna får fler pixlar, dom verkar liksom inte skalas till storleken så bra. Annars borde själva kortet inte ha någon betydelse för kvaliteten, vad jag kan tänka mig.
 
En del konstnärer (bland annat den fantastiske Jon Juarez) diskuterar nu att helt enkelt sluta publicera bilder online, med anledning av att de inte vill få dem plagierade av AI-mjukvaran. Jag har full förståelse för dem, men tycker det är väldigt tråkigt och att internet blir en fattigare plats av detta.

Och gudarna ska veta att internet verkligen inte behövde bli sämre.

 
Last edited:
En del konstnärer (bland annat den fantastiske Jon Juarez) diskuterar nu att helt enkelt sluta publicera bilder online, med anledning av att de inte vill få dem plagierade av AI-mjukvaran. Jag har full förståelse för dem, men tycker det är väldigt tråkigt och att internet blir en fattigare plats av detta.

Och gudarna ska veta att internet verkligen inte behövde bli sämre.

Vi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.
 
Vi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.

Det är knepigt det här. Å ena sidan verkar
det du säger helt rimligt: en ny teknik är först omdiskuterad, sedan infinner sig någon form av ordning som de flesta tycker är okej. Å andra sidan: när det gäller fildelning, så var det ju hela verk som delades. Uppenbarligen en form av stöld. När det gäller AI-bilder så är det ju nästan alltid stilar och inte hela verk som användarna tar del av. Härmande har ju alltid förekommit inom konsten och härmande är inte heller plagiat om man inte gör en kopia av ett verk.
 
Last edited:
Vi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.

Jag tror i ärlighetens namn inte att diskussionen kommer bli lika högljudd. I fildelningsdebatten fördes talan av ekonomiska giganter inom film-, och musikindustrin. Konstnärer har varken makt eller pengar, och i det här fallet ligger AI:ns rätt att plagiera i företagens intresse.

Fildelning skadade företagen, AI skadar arbetstagarna och gynnar företagen.
 
Jag tror i ärlighetens namn inte att diskussionen kommer bli lika högljudd. I fildelningsdebatten fördes talan av ekonomiska giganter inom film-, och musikindustrin. Konstnärer har varken makt eller pengar, och i det här fallet ligger AI:ns rätt att plagiera i företagens intresse.

Fildelning skadade företagen, AI skadar arbetstagarna och gynnar företagen.
Jag håller med dig. Min poäng är mer att vi har en ny verklighet att anpassa oss till, och att vi (människor) brukar vara bra på att anpassa oss. Likheterna till fildelningsdebatten är, enligt mig, snarare hur det förutspåddes att artister inte längre skulle kunna tjäna pengar och att ingen någonsin igen skulle betala för kultur.
 
Är det helt enkelt så att upplösningen i sig bidrar till bättre bilder?
Ja, de skitbilderna jag visade ovan är genererade på en laptop med ett Nvidia GTX 1650 med 4GB RAM.
Max upplösning jag kan använda är 256x256 (eller 320x256 kanske), med --midvram för att alls få det att fungera.

Jag har lite svårt att se att jag gjort något fel i installationen av webui-stable-diffusion.

Och jag ser inte att ni andra labbar SÅ mycket med olika parametrar för att få hyggliga resultat.

Så jag tror kanske du har rätt, även om jag tycker det är lite märkligt.

Det kan ju vara så att bättre GPUer både har mer RAM och är bättre på andra sätt (bättre detaljer och mer färgdjup, typ).
Och att det inte är upplösningen i sig som är boven, utan andra kvalitetsaspekter på graffikortet.

Vad kör du för extern GPU när du får bra resultat, och vad har den för anslutning till datorn?
 
Bättre upplösning = fler neuroner = mer komplexitet i modellen, kanske?
Den skapar ju brus, som den sen förfinar tills det blir en bild. Jag tror att färre pixlar ger ett lågupplöst brus och därav färre variabler att jobba med.
 
Vad kör du för extern GPU när du får bra resultat, och vad har den för anslutning till datorn?

Jag har en väldigt speciell och kostsam lösning – ett paket med en ROG Flow X13-laptop och så en ROG XG-docka till den. Dockan kan jag inte byta grafikkort i, och den har en väldigt speciell koppling som är unik för just ROG-laptops. Så om jag byter laptop kommer jag inte att kunna ha kvar den… i gengäld är den (vad jag förstått) väldigt snabb jämfört med vanliga Thunderbolt-dockor.
 
Status
Not open for further replies.
Back
Top