hur vore det att testa att ta eventuella meningsmotståndare på allvar och förklara hur du resonerar?
Du ser ingen skillnad alls mellan en AI-genererad bild och att Google Docs via okänd mekanism, eventuella SI, föreslår att "berttelse" borde vara "berättelse"?
Om man absolut vill och känner att man måste, så kan man ju göra något slags skala för hur dålig en specifik användning av LLM:er är. Var något hamnar på skalan beror både på den direkta kostnaden och på effekten.
Om någon använder Midjourney för att generera en bild till ett kommersiellt AAA-verk, så innebär det en miljömässig kostnad, och det leder till att en illustratör som kunnat få betalt inte fick betalt – något som är ett problem även på amatörnivå eftersom just instegsjobben försvinner från industri efter industri just nu. Att göra billiga småillustrationer eller radiojinglar har varit en väg för folk in mot att bli duktiga experter, men just nu slår man undan benen på den processen. Varifrån man tänker sig att framtidens experter ska komma verkar man inte tänka så mycket på. Midjourney är dessutom tränad på de verk vars upphovsmän det nu är som får färre möjligheter att göra sin konst, vilket gör det extra respektlöst och bristande i konsekvenstänk. Bilder i rollspelsböcker är dessutom vad jag skulle betrakta som lyx. Egentligen inte alls nödvändigt, ur samhällsperspektiv.
Om någon istället till exempel använder en egenupptränad LLM, som bara körs lokalt på den egna datorn, och som bara tränats på personens egen data, för att idka rättstavning – då skulle jag placera det i motsatta änden av skalan. Det är ingen som blir av med möjligheten att göra ett jobb, man slår inte undan benen för någon nybörjare, man spottar inte i ansiktet på en massa upphovsmän, och den absoluta majoriteten av verket är fortfarande skapat av en människa, inte en algoritm.
Eller om ett forskarlag t.ex. använder en upptränad maskinalgoritm för att hitta cancer snabbare och mer effektivt än vad en människa skulle kunna – samhällsviktigt, antagligen inte oetiskt tränad, inga instegsjobb försvinner, "slutresultatet" är inte en grej där det känns det minsta viktigt att det är en människa som gjort det.
När det gäller Googles rättstavning känner vi varken till den miljömässiga kostnaden eller exakt vad just den LLM-modellen (om det nu är en sådan) tränats på. Vi vet inte ens
om det är en LLM. Därför fungerar rättstavningsfunktionen i docs väldigt dåligt som exempel och är, i mina ögon, mest ett rätt fult sätt att försöka göra en "gotcha" mot oss som tycker att det är dåligt att koka oceaner för att kunna sno jobb från nybörjare.
Men låt oss säga att Google använder en LLM där. Snos några nybörjarjobb? Blir det en text som inte skrivits av en människa? Klart deras LLM antagligen tränats på texter de inte frågat någon om de får träna på, vilket skulle placera den längre upp än ovan nämnda egentränade AI, men andra faktorer är så låga att det blir försumbart.
Börjar vi däremot snacka att be Gemini förbättra texten generellt, eller aktivt generera text – då rör vi oss uppåt. Och där nånstans går min gräns för när det blir en "AI-text".
Men nej. Ingen bryr sig om rättsstavning. Det är en
dålig gotcha.