Digital spelutveckling och varför jag är Ai-skeptiker

Grejen är att du alltid kan göra det du tänker på med en insats. Men har du en bra AI gör den även de saker du *inte* tänkte på. Det här kommer förstås att ta tid och mycket misslyckanden på vägen att få rätt, och förutsätter förstås att det är OK med AI-text som du som utvecklare inte har full kontroll över.
 
Sant sant, det är turnbased. Men det löser liknande problem.

Jag är på inget sätt expert på det här, men tänker nog att skillsetet en AI-bot behöver för UoC och att tävlingsmässigt spela ett RTS som t.ex. SC2 är helt olika. Jag ser inte hur du skulle kunna bygga en konkurrenskraftig SC2-bot utan maskininlärning.
 
Grejen är att du alltid kan göra det du tänker på med en insats. Men har du en bra AI gör den även de saker du *inte* tänkte på.
Igen. Det här är exakt vad jag hävdar inte stämmer. Emergenta effekter är enklare med enklare teknologi och utan svarta lådor. Iterationstid är det nästan viktigaste du har.

Jag är på inget sätt expert på det här, men tänker nog att skillsetet en AI-bot behöver för UoC och att tävlingsmässigt spela ett RTS som t.ex. SC2 är helt olika. Jag ser inte hur du skulle kunna bygga en konkurrenskraftig SC2-bot utan maskininlärning.
Min tolkning var inte att det rörde sig om kompetitiv AI som ska spela mot andra spelare, utan om den sorts AI som används i singleplayer. Men jag kanske missförstod.

Maskininlärning är ju dock ett annat ämne än GenAi/LLM. ML kan användas till mycket intressant.
 
Det är dags att illustrera varför jag är Ai-skeptiker, sett endast från mitt egna isolerade perspektiv.

Jag har jobbat med digital spelutveckling i snart 20 år. Programmering, design, startups, konsultation; du hinner ganska mycket på 20 år i en så volatil bransch. Min specialitet senaste fem-sex åren har blivit systemdesign. Både av transferenstyp, exempelvis XP-system och liknande, och emergenstyp, som handlar mer om hur objekt kommunicerar med varandra. (Den här terminologin har jag tagit fram själv, vilket illustrerar ett av de problem som finns i spelutveckling — det saknas ett bra sätt att prata om de här sakerna.)

Min specialitet, och vad jag blir anlitad för att hjälpa studios med, föreläsa om, och även försökt utveckla i egna projekt (med varierad framgång), kan grovt summeras som hur spel görs mer dynamiska. Det jag nämligen upptäckte för några år sedan var att det här är väldigt dåligt förstått och att vi skulle kunna få fler spel av den här typen genom att sprida kompetensen kring hur de byggs — för kanske 25-30 år sedan var nästan alla spel mer systemdrivna.

Alla har varit hungriga. Allt från Crusader Kings II+ till Minecraft till Baldur's Gate III till roguelikes till de moderna Zelda-spelen har öppnat folks ögon mer och mer för vad systemdriven design innebär och vilka möjligheter som finns. Det har byggts upp en ansenlig hype kring systemdrivna sätt att tänka, och där har jag halkat in på bananskal med otippat bra timing. (Önskar att det här var planerat, men det här började med att jag "skrev av mig" i bloggform, som sedan lett till närmast alla mina gig som frilansare.)

"Kill_horse3"
Den här videon brukar jag visa för att illustrera systemdriven emergens. Projektet den kommer från blev aldrig släppt, eftersom förläggaren gick i konkurs. Men jag har fått tillstånd att visa den i föreläsningssammanhang. I det här projektet fanns ett karaktärssystem, som bland annat skötte "dismemberment", det fanns system för objektinteraktion (svärd, rustning, etc.), och det fanns system för att generera animation från enskilda "frames". Fokus på hög grad respons.

En eftermiddag fick en programmerare för sig att "slänga in en häst" i karaktärssystemet och sen skriva över spelarkaraktärens animation med hästens animation. Resultatet var en snabb men enkel variant av att rida. Men på grund av de övriga systemen så uppstod resultatet i videon:


Det här var alltså aldrig planerat. Men för det dåvarande teamet blev det en "aha"-upplevelse och gapflabb, för vi såg svart på vitt vad hög grad dynamik faktiskt innebär för spelupplevelsen. Hade behövt lite visuell polish för att bli en riktig feature, såklart, men just enkelheten i att kombinera de olika systemen var absolut central.

"Douchebag Dave"-prototypen
Det tydligaste exemplet på skadan som gjorts av GenAi kan illustreras av den här prototypen. Den skapades på en dag som ett experiment för att testa dynamisk realtidsdialog. Sättet den gör detta på är att objekt i spelvärlden ges vissa egenskaper, dessa egenskaper samlas ihop i realtid, och sen skickas de till en databas för att få tillbaka den bäst lämpade dialograden. Inspirerat av Left 4 Dead. Den skrevs alltså på en dag, för själva logiken är busenkel, och extremt modulär. Du kan skriva 10 000 rader dialog och kategorisera dem för att skapa en väldigt responsiv dialogsimulation.

Du kan titta på världen, tänka att, "fan om Dave går förbi Rolfe och hans fisk, då måste han ju kunna kommentera den?" Du har lagt in en sån line i systemet på en minut eller mindre.


GenAi
Båda de här exemplen fungerar för att det är busenkla system som skapar komplexitet genom att interagera med varandra. Inputs som ger outputs som används som inputs på andra ställen, eller kommuniceras som feedback till spelaren. Som utvecklare kan du kontrollera vilka system som interagerar, men du har aldrig som mål att kontrollera spelarens interaktion, och du kan förse alla system med detta på dynamiska sätt. Det är enkelt att debugga, det är lätt att bygga verktyg till, och vill du utöka något av det kan du bara lägga till ett till system som accepterar samma inputs och/eller ger liknande outputs och du får en exponentiell ökning av möjliga kombinationer.

Skälet att alla spel för 30 år sedan gjordes på detta sättet är att det på många sätt är enklare än att göra spel som är contentdrivna.

Men idag, och kanske senaste två-tre åren i synnerhet, går det inte att prata om något av detta utan att någon räcker upp handen och säger "varför inte använda ChatGPT?" (Eller motsvarande.)

Skälet är att GenAi är en svart låda. Du kan inte styra dess output utan avsevärd handpåläggning. Du kan inte egentligen kontrollera vad du får från given input heller, eftersom en LLM är stokastisk (den ger olika resultat även från samma input). Att "stoppa in ChatGPT" i något liknande de här prototyperna skulle nog kunna ge dig en större volym av exempelvis dialog eller objekt; men det skulle inte ge dig någon substans. Människor är än så länge helt överlägsna på att associera kring kontext. Att gör det skulle helt enkelt bara ge merarbete, där de enkla emergenta systemen faktiskt är helt överlägsna.

Du kan absolut använda andra varianter av Machine Learning, exempelvis Reinforcement Learning. Du kan också bygga och utbilda en egen språkmodell, men även den kommer bete sig som en svart låda. Att utbilda många av dessa modeller rör sig dessutom om månader av tid, där en prototyp som Douchebag Dave: The Insult Simulator kunde byggas på en enda dag.

Så, min professionella skepsis mot GenAi är helt enkelt att den inte gör det folk tror den gör. Faktum är att den är sämre än de många gånger busenkla kärnmodeller som funnits i 30 år eller mer.

TL;DR: jag är skeptisk för att GenAi inte gör vad folk tror den gör och ofta är skitdålig på det folk tror den gör.

Jag har, precis som flera andra i tråden, noll erfarenhet av digital spelutveckling. Har inte heller programmerat. Däremot följer jag regelbundet nyheter om AI - och är på en gång fascinerad, hoppfull (särskilt när det gäller miljö och medicin) och vettskrämd (övervakning, militära system etc).

Med jämna mellanrum dyker det upp nyheter om ett mer eller mindre nära förestående AGI-skifte. Jag kan inte avgöra vad dessa nyheter, som ofta verkar komma från techbolagen själva, egentligen innebär. Är det mest ett sätt att driva upp bolagens aktiekurser eller är det verkligen ett avgörande genombrott som sannolikt inträffar inom något år? Vad skulle det innebära för (den digitala) spelindustrin och den svarta låda (jag känner till begreppet) som du talar om?
 
Last edited:
Min erfarenhet kommer från teständen, och det kommer onekligen att krävas en del helt nytt tänk kring hur man testar att en AI inte får helt spel eller kan jailbreakas inifrån spelet.
 
Vad skulle det innebära för (den digitala) spelindustrin och den svarta låda (jag känner till begreppet) som du talar om?
Den helt uppenbara nutida konsekvens som går att märka är att alla "gratis" investeringspengar tagit slut och att det lett till att många förlorat jobbet. Tyvärr har det här hänt tidigare också, med ojämna mellanrum, för att industrin i sig är ganska trendkänslig och världen har varit orolig ett tag nu.

När det gäller "AGI" så ser jag det som att techbolagen säljer ormolja för att få in mer pengar. Det är lite som med den teknologiska singulariteten eller Metaverse -- science fiction-idéer som folk tyckte lät balltuffa när de läste om dem, men egentligen missade de hela poängen. :)
 
När det gäller "AGI" så ser jag det som att techbolagen säljer ormolja för att få in mer pengar. Det är lite som med den teknologiska singulariteten eller Metaverse -- science fiction-idéer som folk tyckte lät balltuffa när de läste om dem, men egentligen missade de hela poängen. :)

Det är ju inte så svårt att hitta massor av uttalanden om att AGI snart är här - i år eller nästa år. Jag förmodar att mycket är rena klickbeten. Men om det nu inte alls är sant, utan bara ett buzzword som används för att skapa drama och få in mer pengar, känner du till någon forskare som har skrivit om det? En uppenbar men välspridd bluff bör ha tilldragit sig ett visst vetenskapligt intresse. Jag fattar ju att jag kan söka i Google Scholar, men tänkte mer om du kände till något bra.
 
Last edited:
Maskininlärning är ju dock ett annat ämne än GenAi/LLM. ML kan användas till mycket intressant.

Jag kanske missuppfattade ditt startinlägg (p.g.a. bristfälliga förkunskaper) där du tycks prata om genAI som en typ av ML.
 
När det gäller "AGI" så ser jag det som att techbolagen säljer ormolja för att få in mer pengar. Det är lite som med den teknologiska singulariteten eller Metaverse -- science fiction-idéer som folk tyckte lät balltuffa när de läste om dem, men egentligen missade de hela poängen. :)
AGI är tramsigt, otydligt definierat, och irrelevant.
 
Jag kanske missuppfattade ditt startinlägg (p.g.a. bristfälliga förkunskaper) där du tycks prata om genAI som en typ av ML.
Typ såhär, även om jag verkligen inte är någon expert. "Machine Learning" är ganska brett, och handlar i stort om att låta datorer lära sig saker. Kan vara med hjälp av slump eller från data.

Ett subset av ML är neurala nätverk, där du använder dig av digitala neuronanaloger för att göra ML i lite större skala, med idén att data som hanteras mer som en människas hjärna hanterar information borde vara klokare. Som en subkategori av neurala nätverk finns Large Language Models (LLMs), som är unika för att de kan hantera väldigt stora datamängder och associera dem på ett effektivt sätt (med hjälp av vektormatte, vilket är varför det är spelgrafikkort som används).

Så LLM är en form av ML, men ML i stort har flera kategorier (bland annat "reinforcement learning") som inte egentligen är besläktat med LLMer.

It's a jungle out there.

Är det mest ett sätt att driva upp bolagens aktiekurser eller är det verkligen ett avgörande genombrott som sannolikt inträffar inom något år?
Vilket år återuppstår Jesus? Det är lite på den nivån, vill jag mena. Innan det finns en användbar definition av vad AGI ens innebär, som inte bara är Nvidias VD som dagdrömmer offentligt, så tycker inte jag det är ett relevant samtal.
 
AGI är tramsigt, otydligt definierat, och irrelevant.

Kanske det. Men mer rudimentära definitioner finns: ”Artificial general intelligence (AGI) is a theoretical type of artificial intelligence that matches or surpasses human capabilities across virtually all cognitive tasks.” (Källa: Wikipedia)

Och varför skulle AI inte inom något år kunna passera en brytpunkt och bli mer generell och samtidigt också oerhört mycket mer kraftfull? Vad jag kan se är det mest en fråga om exponentiellt tilltagande kapacitet.

Intelligens är förstås svårdefinierat och det är också uppenbart att techbolag som Open AI behöver skapa hype kring sina produkter för att få in mer pengar. Jag fattar det. Samtidigt är det också rätt många tidigare anställda på olika bolag som vittnar om riskerna med alltför kraftfull AI. AGI är en term som används, även om det ofta är oklart vad som precis avses.

Att AGI, eller vad man nu väljer att använda för term, skulle påverka digital spelutveckling tar jag för givet. Men jag jobbar alltså inte på ett techbolag och följer, som sagt, bara det här utifrån.
 
Last edited:
Skälet är att GenAi är en svart låda. Du kan inte styra dess output utan avsevärd handpåläggning. Du kan inte egentligen kontrollera vad du får från given input heller, eftersom en LLM är stokastisk (den ger olika resultat även från samma input). Att "stoppa in ChatGPT" i något liknande de här prototyperna skulle nog kunna ge dig en större volym av exempelvis dialog eller objekt; men det skulle inte ge dig någon substans. Människor är än så länge helt överlägsna på att associera kring kontext. Att gör det skulle helt enkelt bara ge merarbete, där de enkla emergenta systemen faktiskt är helt överlägsna.
Allt detta då under förutsättning att du använder den "live", i spelögonblicket.

Om du istället använder den i utvecklingsskedet, då kan du granska allt den gör, ta bort det som inte passar, justera där det behövs, lägga till vad du tycker saknas, och på det hela taget städa det. Att granska är snabbare än att skriva, och AIn är bättre på att skapa variation än typ 90% av de människor som skriver, så du får ett bättre grundmaterial att jobba med. Så, du kan med en mindre arbetsinsats skapa mer material av högre kvalitet.

Så, istället för att varenda vakt en gång fått en pil i knät, så kan man ha tusentals kontext-baserade lines, tillräckligt många för att det inte ska kännas repetetivt. Allt granskat av en människa.
 
Och varför skulle AI inte inom något år kunna passera en brytpunkt och bli mer generell och samtidigt också oerhört mycket mer kraftfull? Vad jag kan se är det mest en fråga om exponentiellt tilltagande kapacitet.
Compelling thought and easy to believe. However, it may be just as likely that the amount of compute going into training increases exponentially while the gain in "intelligence" flattens out. We are extrapolating. Nobody knows.
 
Att AGI, eller vad man nu väljer att använda för term, skulle påverka digital spelutveckling tar jag för givet. Men jag jobbar alltså inte på ett techbolag och följer, som sagt, bara det här utifrån.
Och jag tror helt enkelt inte det. Kreativa människor är fortfarande helt överlägsna LLMer. Dessutom är compute väldigt dyrt, till skillnad från de subventionerade modeller vi ser idag. Så i längden tänker jag att de här teknologierna kommer bli lite som intellisense och andra teknologier: saker som är integrerade på grundnivå i de flesta digitala verktyg, och som absolut tillför ett mått convenience, men inget som förändrar något i grunden.

Om du istället använder den i utvecklingsskedet, då kan du granska allt den gör, ta bort det som inte passar, justera där det behövs, lägga till vad du tycker saknas, och på det hela taget städa det.
Det intressanta här är att, åtminstone enligt mina erfarenheter från de senaste åren, så är en duktig artist bättre på att ta fram skisser och en duktig författare bättre på att skriva — på rentav kortare tid. Så vad skulle jag vinna på detta?

Granska är verkligen inte snabbare än skriva och åtminstone i min erfarenhet är människor mycket bättre på att skapa kvalitativ variation. Men här går vi ju in på rena åsikter, givetvis.
 
Det intressanta här är att, åtminstone enligt mina erfarenheter från de senaste åren, så är en duktig artist bättre på att ta fram skisser och en duktig författare bättre på att skriva — på rentav kortare tid. Så vad skulle jag vinna på detta?
Problemet är att de flesta inte är duktiga, och även de som är har dåliga dagar.

Jag skulle också säga att även de duktiga är hjälpta av bra verktyg, till och med att de är de som bäst kan använda verktygen.
Granska är verkligen inte snabbare än skriva och åtminstone i min erfarenhet är människor mycket bättre på att skapa kvalitativ variation. Men här går vi ju in på rena åsikter, givetvis.
Let's agree to disagree där.

Människor, även de som är bra, tenderar att fastna i vissa spår. I de flesta open world-datorspel så kan man direkt se vem som gjort vilka questlines. AIn kan spotta ur sig 20, eller 200, helt olika questlines, som man kan plocka inspiration från. Det är så jag jobbar när jag låter datorn komma med idéer. Datorn kommer med idéer. Sedan kasserar jag de flesta, sätter ihop återstående med mina egna, hackar sönder och sätter ihop annorlunda tills jag är nöjd.

Det viktiga är att jag aldrig tar min hand från processen.
 
Jag skulle också säga att även de duktiga är hjälpta av bra verktyg, till och med att de är de som bäst kan använda verktygen.
Absolut! Men också av att själva avgöra vilka verktyg som faktiskt är bra, vilket är lite varför jag startade den här tråden. För mig gör inte GenAi något nämnvärt intressant, men det är många som berättar för mig att det kommer förändra allt (inte nödvändigtvis på wrnu, utan i yrkeslivet). :D

Människor, även de som är bra, tenderar att fastna i vissa spår.
Min upplevelse är ju att GenAi är den som fastnar i spår. Om du ber den om X tabellresultat exempelvis så kommer du få många saker som är av nästan uppenbar substituttyp. Sånt kan jag skriva själv om jag behöver det.

Den dimension som gör störst skillnad för mig personligen, däremot, om vi fortsätter vara anekdotiska, är att jag helt enkelt inte vill överlåta kreativa saker som jag tycker är roliga till en Ai. Jag är övertygad om att det skulle trubba av min egna eventuella förmåga över tid. Det är heller inte alls lika roligt att argumentera med en chatbot eller ge tillstånd till en agent som det är att göra research, anteckna, skriva, och liksom förkovra sig i något som låter mig fantisera på egen hand.
 
Kanske det. Men mer rudimentära definitioner finns: ”Artificial general intelligence (AGI) is a theoretical type of artificial intelligence that matches or surpasses human capabilities across virtually all cognitive tasks.” (Källa: Wikipedia)

Och varför skulle AI inte inom något år kunna passera en brytpunkt och bli mer generell och samtidigt också oerhört mycket mer kraftfull? Vad jag kan se är det mest en fråga om exponentiellt tilltagande kapacitet.
Nejnej, det är inte att det inte går, det är att det är en ointressant mätpunkt. När en AI är minst lika bra som en människa på allt, kommer den att vara ofantligt mycket bättre än en människa på vissa av sakerna, eftersom de är olika svåra för den. Det intressanta är vilka specifika saker den kan.
 
Min upplevelse är ju att GenAi är den som fastnar i spår. Om du ber den om X tabellresultat exempelvis så kommer du få många saker som är av nästan uppenbar substituttyp. Sånt kan jag skriva själv om jag behöver det.

Den dimension som gör störst skillnad för mig personligen, däremot, om vi fortsätter vara anekdotiska, är att jag helt enkelt inte vill överlåta kreativa saker som jag tycker är roliga till en Ai. Jag är övertygad om att det skulle trubba av min egna eventuella förmåga över tid. Det är heller inte alls lika roligt att argumentera med en chatbot eller ge tillstånd till en agent som det är att göra research, anteckna, skriva, och liksom förkovra sig i något som låter mig fantisera på egen hand.

Mina bästa idéer är oftast när mina egna idéer blandas med annat. Typ som när jag blandade ihop fornegyptisk mytologi med filmen Nomads, Lawrence of Arabia och TS Eliot och lite eget stuff. Det där "annat" är mest ett frö, som jag sedan korspollinerar och bonsaiar till något som passar min vision. För mig spelar det inte så stor roll om fröet kommer från en människa eller en AI, bara att det resonerar med min fantasi.

Exempel på frö som kommer från AI: Jag hade en plätt djungel på kartan, och visste inte vad jag skulle göra med den. Jag bad AIn om förslag, och den kom med 20 rätt mediokra förslag, så jag sade åt den att göra något mer udda, något som inte var gjort. Den kom då med vulkaniska gaser som orsakar hallucinationer, och bildar en koppling till andevärlden. Det triggade min fantasi, och jag lade på maskerna (som kom av att jag har en sådan mask på väggen). Maskerna blev deras personlighet, de är sina masker. Ur det så kom jag på att de sparar sina anhörigas masker, så att de fortfarande är med dem efter döden, och AIn gjorde ritualen där de svavelkokar de dödas masker så att de blir svarta. Osv. Vi bollade fram och tillbaka, med mer tankar, mer idéer, mer substans för varje vända.


Just det där att slipa idéer mot varandra är hur jag funkar som skapare. En-idés-koncept är sällan intressanta, men krydda med lite andra idéer, och det blir rikt.

Man kan sitta och resonera med AIn på samma sätt som en människa, och får ganska bra svar. Kanske inte lika bra som en människa, men å andra sidan kan man inte tråka ut AIn genom att tjata samma detaljer om och om igen. Det gäller naturligtvis att ge den tydliga övergripande direktiv, tex kör jag bland annat med "This is not to feed my ego, the purpose is to create the best possible end product. Be as brutal as needed."

När det gäller att fastna i spår, så, visst, det händer. Men, det är oftast ganska lätt att putta den ur spåren. AIn har inte heller prestige eller känslor, så till skillnad från när man jobbar med en människa så är det helt OK att ge otydliga direktiv, se vad som kommer ut, och sedan be de skriva om och revidera och börja om från början 20 gånger...

En annan viktig funktion, där den egentligen inte bidrar kreativt, är att använda den för att hålla koll så att man inte får in inkonsekvenser/fel/ologiska saker. Med motsvarande över 1000 sidor text, så är det väldigt lätt att göra misstag. Tex kan man råka referera till saker som inte hänt än, eller skrivit saker om en person som man sedan beskriver annorlunda, eller råkar kalla "mentalist" för "mind mage". Att få en check på det är guld värt.
 
Back
Top