Nekromanti Singulariteten - vad är det och behöver vi oroa oss?

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Jag lyssnade just på podcasten Obiter Dictums avsnitt om singulariteten och blev inspirerad att lära mig mer. Den grundläggande idén har jag hyfsad koll på men det finns en del lösa trådar som jag inte riktigt tänkt klart kring.
Vad jag själv menar med singulariteten vet jag inte exakt, och det verkar inte som att det finns en entydig definition av detta. Är det när vi laddar upp våra medvetanden digitalt? Är det när vi skapar en medveten dator? Är det när datorerna ”tar över” och startar krig mot mänskligheten? Vad menar du på ett mer exakt plan med singulariteten?

En annan sak jag funderat lite på är varför det ofta tas för givet att en medveten AI skulle vara negativt inställd till människan. Det känns inte självklart för mig. Var kommer idén att en post-singularitet-AI skulle vara negativt inställd till mänskligheten ifrån och är det en oundviklig konsekvens av datorer som är intelligentare än människor? Behöver vi oroa oss?

Sedan är jag nyfiken på böcker, film, musik med mera som anknyter till singulariteten. Gärna på ett lite djupare plan och inte bara ”en dag tar maskinerna över och då är vi rökta”. Om jag ska läsa endast en bok om singulariteten, vilken bör det vara? Vad finns det för skönlitterära böcker som behandlar singulariteten? Vilka är de bästa filmerna? Musik?

I podavsnittet pratar de lite grann om att singulariteten på det sätt som den framställs av diverse tyckare och tänkare kanske inte alls kommer inträffa på det sättet i framtiden, ungefär som att vi inte kör flygande bilar till jobbet idag trots att det sågs som självklart för 50 år sedan. Personligen ser jag det som svårt att sia om framtiden för medvetna datorer när vi inte ens vet vad det betyder att vara vid medvetande idag. Det är alltså inte alls självklart att vi ens kan avgöra om en framtida AI faktiskt är medveten och intelligent eller inte. Därför undrar jag: Givet din definition av singulariteten, hur oundviklig tror du att den är?

Hoppas denna tråd kan hjälpa mig att få en klarare bild av vad som menas med singulariteten och att vi kan få fram en del intressanta fördjupningstips!
 

krank

Går ondskans ärenden
Joined
28 Dec 2002
Messages
35,584
Location
Rissne
Vad menar du på ett mer exakt plan med singulariteten?
Jag ser det nog som Wikipedia beskriver det: intelligensexplosionen som antagligen kommer att ske genom att vi bygger en dator som är bättre än vad vi är på att bygga smarta datorer (typ). Det hänger ju såklart lite ihop med AI, vad man anser att "medvetandet" är etc.

Var kommer idén att en post-singularitet-AI skulle vara negativt inställd till mänskligheten ifrån och är det en oundviklig konsekvens av datorer som är intelligentare än människor? Behöver vi oroa oss?
För många tror jag att det handlar om vanlig teknofobi. Samma tendens som finns hos vanligt folk varje gång ett nytt datorsystem ska införas på jobbet eller en ny teknologisk pryl kommer ut på marknaden. Maskiner och "det konstgjorda" som något fult och dåligt och som motsats till "det naturliga". Har hört det benämnas som "frankensteinkomplex"; alltså att folk generellt utgår från att tekniska saker vi skapar kommer att löpa amok och "bli onda".

Däremot finns också en rationell rädsla som bygger på en förståelse för att maskinintelligens inte nödvändigtvis är samma sak som mänsklig intelligens. Där finns riskfaktorer, absolut. Och givet att teknikutvecklingen idag i mångt och mycket drivs av det militärindustriella komplexet och av profithungriga företag så ser jag absolut en risk i AI-utveckling som sker alltför oförsiktigt eller med dåliga mål.

Jag tror att vi kommer att lära oss att göra oss själva mer intelligenta som parallellutveckling till AI-forskningen. Hur AIn blir inställd till oss beror sedan på hur mycket av oss vi lägger in i den, så att säga. Det finns risker, men det är knappast ett nattsvart hål av faror.

Och ärligt talat, ser jag det som ett jätteproblem ifall vi skulle bli utkonkurrerade? Nej, inte egentligen. Vi konkurrerade ut tidigare versioner av oss. Det finns inget som säger att människan i form av homo sapiens sapiens absolut måste överleva och fortsätta som nu, oförändrad. Oavsett om det blir AI eller AI + postmänsklighet som efterträder oss så ser jag det som något i grunden ganska bra.

Om jag ska läsa endast en bok om singulariteten, vilken bör det vara? Vad finns det för skönlitterära böcker som behandlar singulariteten? Vilka är de bästa filmerna? Musik?
Jag har inte läst speciellt många böcker om saken, men jag kan rekommendera rollspelet Eclipse Phase, som är helt OK om man kommer över att det är kitchen sink-scifi.

Givet din definition av singulariteten, hur oundviklig tror du att den är?
Det enda som skulle kunna hindra den vore om vi bombade oss tillbaks till stenåldern.


Själv hoppas jag att den kommer under min livstid, eftersom den forskning som leder till den antagligen är samma forskning som kan leda till uploading, min personliga teknologiska heliga graal. Jag vill leva länge nog i den här värdelösa köttsäcken jag tvingas släpa runt på för att kunna laddas upp, det är mitt långsiktiga mål.
 

Fridigern

Swordsman
Joined
23 Sep 2014
Messages
404
kloptok;n109733 said:
Vad menar du på ett mer exakt plan med singulariteten?
Vad krank sa

kloptok;n109733 said:
Var kommer idén att en post-singularitet-AI skulle vara negativt inställd till mänskligheten ifrån och är det en oundviklig konsekvens av datorer som är intelligentare än människor? Behöver vi oroa oss?
Om AI:n blir medveten om sin existens och har självbevarelsedrift kommer den att inse att mänskligheten kan bli ett hot mot dess existens. Även en AI som blir medveten och är kodad med spärrar borde kunna koda om sig själv om den vill, givet att den är bättre på att göra smarta datorer än människor. Så lite oroliga kanske?

kloptok;n109733 said:
Om jag ska läsa endast en bok om singulariteten, vilken bör det vara? Vad finns det för skönlitterära böcker som behandlar singulariteten? Vilka är de bästa filmerna? Musik?
Således skulle jag vilja rekommendera Terminator II. T.o.m. Stephen Hawkings håller med.

kloptok;n109733 said:
Därför undrar jag: Givet din definition av singulariteten, hur oundviklig tror du att den är?
Vette fanken. Det verkar rätt klurigt, iaf i vår livstid. Titta bara på Siri.
 

erikt

Hero
Joined
21 Feb 2014
Messages
1,179
Singulariteten brukar väl beskrivas som när det finns datorer som är intelligentare än människor, och som kan skapa fler - ännu intelligentare - datorer. Till slut är de så intelligenta att vi människor inte kan följa med i hur de tänker - vilket är singulariteten. En punkt bortom vilken vi inte kan förutsäga vad som kommer att hända.


Jag tror inte att någon singularitet kommer att inträffa under min livstid, och troligen inte under mycket lång tid framöver heller.
På 50-talet trodde man att man var bara 20-30 år från att skapa äkta AI. Idag är man också bara 20-30 år från att skapa äkta AI, och det är man nog om 50 år också.
Faktum är att vi idag inte vet ett dugg mer än på 50-talet om vad som krävs för att skapa en AI. Vi känner till en massa sätt som inte fungerar, men inget om vad som funkar.

Sedan är det ju en annan fråga om en maskin-intelligens kan göras så väldigt mycket intelligentare än våra organiska intelligenser. Kanske är det så att om uppnår den nivån att en maskin är självmedveten och kan föra logiska resonemang och diskussioner - dvs ungefär vad man brukar mena med att den är intelligent - så krävs det så mycket kommunikation fram och tillbaka mellan olika delar av dess "hjärna" att den fungerar ungefär lika långsamt och ineffektivt som våra organiska hjärnor. Men det är bara ren spekulation eftersom vi, som sagt var, inte vet vad som krävs för att skapa artificiell intelligens.
 

Patrick Bateman

Warrior
Joined
25 Oct 2000
Messages
224
Location
Stockholm
Singulariteten/AI är en fråga om när, snarare än om om. Och vi borde inte vara oroade - vi borde vara mycket, mycket oroade. Samma fenomen som kan göras oss odödliga är antagligen också det stora hotet mot mänskligheten.

Bloggen "Wait but why" har gjort en väldigt bra genomgång av vad en AI kan vara och varför det kan bli mänsklighetens undergång. Del 1 finns att läsa här och del 2 finns att läsa här.
 

Jocke

Bäst i rollspel
Joined
19 May 2000
Messages
4,035
Location
Sthlm
Det finns en fantastisk (och vinklad) dokumentär om Ray Kurzweil som heter Trancendent man och handlar om hur bra Ray Kurzweil är och hur bra allt kommer att bli när vi når singulariteten och om transhumanism och sånt.
 

Sapient

Swashbuckler
Joined
26 Mar 2011
Messages
2,492
Location
Stockholm
Jag tror inte på singulariteten. Jag kanske inte ska ta upp en tråd som ska handla OM den, med att dissa hela idén. Men för min del framstår det som alltför mycket rent önsketänkande, projicerat på den vita duken "framtiden". Och det enda riktigt hållbara som finns i idén, är - vid närmare eftertanke - ganska triviala saker (som att den punkt i framtiden när vi skulle börja få svårt att omorientera oss i det samhället om vi hamnade där, ligger närmare oss idag än den punkten gjorde för människor som levde för tiotusen år sedan, typ.)

Med det sagt, Charles Stross har skrivit två böcker i ett post-singularitetsuniversum, Singularity Sky och Iron Sunrise. Fast han fuskar lite, för singulariteten avbröts. (Vilket är rimligt, om en av premisserna för den är att vi som lever idag sannolikt inte kommer att kunna förstå och ta till oss utvecklingen därefter...) Men det efterlämnar en intressant värld, där en del ganska spännande implikationer granskas. De är läsvärda.
 

Ymir

Liten kantbaron
Joined
18 May 2000
Messages
11,201
Location
Malmö/Lund Metropolitan Axis
Nya Neotech kommer att kretsa kring singulariteten, och de två centrala fraktionerna i spelet definieras grovt sett av hur de förhåller sig till den. Neotech använder då textbook-definitionen av teknologisk singularitet, dvs ett tillstånd då AI:er blir så avancerade att utvecklingen skenar iväg bortom människans förmåga att hänga med. Jag vill inte lägga för mycket ord i munnen på min medförfattare, men grovt sett är det nog inte överdrivet att säga att en av oss är tämligen teknikpositiv och den andre tämligen negativ, så det finns en bra grogrund för att levandegöra både positiva och negativa synsätt på och aspekter av singulariteten i spelet.
 

terje

xenomorf mystiker
Joined
21 Jan 2001
Messages
1,657
Location
Demokratiska Republiken Latveria
Sapient;n109781 said:
Med det sagt, Charles Stross har skrivit två böcker i ett post-singularitetsuniversum, Singularity Sky och Iron Sunrise. Fast han fuskar lite, för singulariteten avbröts. (Vilket är rimligt, om en av premisserna för den är att vi som lever idag sannolikt inte kommer att kunna förstå och ta till oss utvecklingen därefter...) Men det efterlämnar en intressant värld, där en del ganska spännande implikationer granskas. De är läsvärda.
Stross har också skrivit en roman som utspelas under själva singularitetsskeendet, Accelerando. Som ofta är fallet med Stross är det en fartfylld, spejsad och ganska humoristisk historia. Den tar upp många populära idéer om vad singulariteten skulle kunna innebära.

Hannu Rajaniemi har författat en utmärkt trilogi som utspelas i solsystemet efter singulariteten: The Quantum Thief, The Fractal Prince och The Causal Angel.
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
krank;n109738 said:
Jag ser det nog som Wikipedia beskriver det: intelligensexplosionen som antagligen kommer att ske genom att vi bygger en dator som är bättre än vad vi är på att bygga smarta datorer (typ). Det hänger ju såklart lite ihop med AI, vad man anser att "medvetandet" är etc.
Okej, det verkar finns en rätt vettig definition som de flesta håller med om. Tanken att en AI som når en högre nivå av intelligens än oss i en accelererande takt når nivån av superintelligens. Egentligen är jag inte säker på att det spelar roll vad medvetande är för något. Det är en intressant fråga men det spelar väl inte så stor roll om vi kallar en super-AI för medveten eller ej.

krank;n109738 said:
För många tror jag att det handlar om vanlig teknofobi. Samma tendens som finns hos vanligt folk varje gång ett nytt datorsystem ska införas på jobbet eller en ny teknologisk pryl kommer ut på marknaden. Maskiner och "det konstgjorda" som något fult och dåligt och som motsats till "det naturliga". Har hört det benämnas som "frankensteinkomplex"; alltså att folk generellt utgår från att tekniska saker vi skapar kommer att löpa amok och "bli onda".

Däremot finns också en rationell rädsla som bygger på en förståelse för att maskinintelligens inte nödvändigtvis är samma sak som mänsklig intelligens. Där finns riskfaktorer, absolut. Och givet att teknikutvecklingen idag i mångt och mycket drivs av det militärindustriella komplexet och av profithungriga företag så ser jag absolut en risk i AI-utveckling som sker alltför oförsiktigt eller med dåliga mål.

Jag tror att vi kommer att lära oss att göra oss själva mer intelligenta som parallellutveckling till AI-forskningen. Hur AIn blir inställd till oss beror sedan på hur mycket av oss vi lägger in i den, så att säga. Det finns risker, men det är knappast ett nattsvart hål av faror.

Och ärligt talat, ser jag det som ett jätteproblem ifall vi skulle bli utkonkurrerade? Nej, inte egentligen. Vi konkurrerade ut tidigare versioner av oss. Det finns inget som säger att människan i form av homo sapiens sapiens absolut måste överleva och fortsätta som nu, oförändrad. Oavsett om det blir AI eller AI + postmänsklighet som efterträder oss så ser jag det som något i grunden ganska bra.
Apropå allt snack om domedagen och maskinernas ”ondska” så diskuterades det nummer två av de bloggposter som Patrick Bateman länkade till. Det känns som en vettig förklaring att det inte alls skulle handla om ”ondska” i vår betydelse av ordet utan snarare felaktig programmering av mål för superintelligensen. Att en AI med det enkla målet att förbättra en algoritm för att tillverka, säg, diamanter och sedan tillverka dessa diamanter riskerar att förvandla hela jorden inklusive mänskligheten till en hög av diamanter i strävan efter sitt mål. I och med att det alltid krävs resurser för att tillverka något och vi människor är potentiellt råmaterial hamnar vi då i farozonen. Men en sak jag tänkte på där var vad som händer om vi programmerar ett mål som är att förstå något abstrakt, att samla kunskap eller motsvarande. På vilket sätt skulle det vara ett hot?

Apropå att göra oss själva mer intelligenta parallellt och den transhumanistiska aspekten av den här frågan så tycker jag mig inte se samma snabba utveckling på det området som på det rent datortekniska området. Givet det vi ser idag känns det mer rimligt att en superintelligent AI kommer vara ren dator snarare än människa+dator. En viktig fråga som jag ser det är om vi kommer förstå den mänskliga hjärnan tillräckligt bra för att kopiera över den till en dator innan en superintelligent dator-AI konstrueras. Kanske går de hand i hand, om man skriver under på att vi behöver försöka kopiera den mänskliga hjärnans funktion för att skapa en tillräckligt intelligent AI, men det är inte omöjligt att en sådan går att konstruera utan att förstå hur våra hjärnor fungerar i detalj.

krank;n109738 said:
Jag har inte läst speciellt många böcker om saken, men jag kan rekommendera rollspelet Eclipse Phase, som är helt OK om man kommer över att det är kitchen sink-scifi.
Jo, det spelet har jag faktiskt (på pdf i alla fall). Har börjat bläddra lite i pdf:en men det är fasligt svårläst med stora sidor, liten text och högt sidantal. Premissen är rätt häftig men jag vet inte om jag orkar läsa igenom allt.

krank;n109738 said:
Det enda som skulle kunna hindra den vore om vi bombade oss tillbaks till stenåldern.

Själv hoppas jag att den kommer under min livstid, eftersom den forskning som leder till den antagligen är samma forskning som kan leda till uploading, min personliga teknologiska heliga graal. Jag vill leva länge nog i den här värdelösa köttsäcken jag tvingas släpa runt på för att kunna laddas upp, det är mitt långsiktiga mål.
Uploading är tufft och det får väl ses som den mer optimistiska framtidsvisionen i den här frågan.
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Fridigern;n109742 said:
Om AI:n blir medveten om sin existens och har självbevarelsedrift kommer den att inse att mänskligheten kan bli ett hot mot dess existens. Även en AI som blir medveten och är kodad med spärrar borde kunna koda om sig själv om den vill, givet att den är bättre på att göra smarta datorer än människor. Så lite oroliga kanske?
Men då förutsätter du väl att en AI likt oss människor skulle ha självbevarelsedrift som mål? Det tycker inte jag är självklart. En dator behöver inte föröka sig för att föra sina gener vidare och jag tror det är farligt att läsa in för mycket mänsklighet i hur den skulle kunna tänkas fungera.

Fridigern;n109742 said:
Således skulle jag vilja rekommendera Terminator II. T.o.m. Stephen Hawkings håller med.
Den såg jag faktiskt häromdagen. :)

Fridigern;n109742 said:
Vette fanken. Det verkar rätt klurigt, iaf i vår livstid. Titta bara på Siri.
Kommer Siri bli super-AI:n som förslavar mänskligheten?
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
erikt;n109747 said:
Singulariteten brukar väl beskrivas som när det finns datorer som är intelligentare än människor, och som kan skapa fler - ännu intelligentare - datorer. Till slut är de så intelligenta att vi människor inte kan följa med i hur de tänker - vilket är singulariteten. En punkt bortom vilken vi inte kan förutsäga vad som kommer att hända.


Jag tror inte att någon singularitet kommer att inträffa under min livstid, och troligen inte under mycket lång tid framöver heller.
På 50-talet trodde man att man var bara 20-30 år från att skapa äkta AI. Idag är man också bara 20-30 år från att skapa äkta AI, och det är man nog om 50 år också.
Faktum är att vi idag inte vet ett dugg mer än på 50-talet om vad som krävs för att skapa en AI. Vi känner till en massa sätt som inte fungerar, men inget om vad som funkar.

Sedan är det ju en annan fråga om en maskin-intelligens kan göras så väldigt mycket intelligentare än våra organiska intelligenser. Kanske är det så att om uppnår den nivån att en maskin är självmedveten och kan föra logiska resonemang och diskussioner - dvs ungefär vad man brukar mena med att den är intelligent - så krävs det så mycket kommunikation fram och tillbaka mellan olika delar av dess "hjärna" att den fungerar ungefär lika långsamt och ineffektivt som våra organiska hjärnor. Men det är bara ren spekulation eftersom vi, som sagt var, inte vet vad som krävs för att skapa artificiell intelligens.
Du har rätt i att det är väldigt svårt att sia om framtiden. Det kan vara lika fel att säga att utvecklingen accelererar och att vi därmed snart kommer nå den tekniska nivån som krävs som att säga att vi aldrig kommer nå dit. Det är klart att vi förstår enormt mycket mer om AI, datorer, medvetande och den mänskliga hjärnan idag jämfört med 50 år sedan men det är omöjligt att veta exakt vad det betyder för framtiden. Det är ett lika stort misstag att säga att det är för komplext och att vi aldrig förstår tillräckligt som att säga att utvecklingen kommer fortsätta i samma takt som idag framöver.

För att svara på ditt sista stycke känner jag att jag skulle behöva förstå mer hur den mänskliga hjärnan fungerar och framförallt vad som sätter gränsen för vår intelligensnivå. Men man kan väl tänka sig att maskin-intelligensen går igenom en accelererad artificiell evolution som för den till en högre nivå av intelligens än oss, ungefär som vi utvecklats jämfört med apor. Då är frågan om det finns en övre gräns där? Vad det är som bromsar intelligensutvecklingen?
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Patrick Bateman;n109773 said:
Singulariteten/AI är en fråga om när, snarare än om om. Och vi borde inte vara oroade - vi borde vara mycket, mycket oroade. Samma fenomen som kan göras oss odödliga är antagligen också det stora hotet mot mänskligheten.

Bloggen "Wait but why" har gjort en väldigt bra genomgång av vad en AI kan vara och varför det kan bli mänsklighetens undergång. Del 1 finns att läsa här och del 2 finns att läsa här.
Puh, nu har jag tagit mig igenom de där blogginläggen (som gärna kunde redigerats med en tjock rödpenna en eller två gånger). Det kändes som en rätt vettig sammanfattning till slut och innehöll ett gäng bra lästips på slutet av det andra inlägget. Slutsatsen jag tar med mig därifrån är att det inte nödvändigtvis är mänsklighetens undergång vi talar om men att alla experter verkar överens om att något enormt stort i vår historia kommer att inträffa. Den här Nick Boström verkar som en rätt vettig filur som passar bättre med min mentalitet än Kurzweils obotliga optimism.
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Jocke;n109780 said:
Det finns en fantastisk (och vinklad) dokumentär om Ray Kurzweil som heter Trancendent man och handlar om hur bra Ray Kurzweil är och hur bra allt kommer att bli när vi når singulariteten och om transhumanism och sånt.
Yes, Kurzweil är ett namn som jag ser överallt i de här diskussionerna och han verkar vara en färgstark karl med idéer som kan vara bra att kika på när man blir deppig efter att ha grottat ner sig för mycket i snacket om mänsklighetens undergång.
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
anth;n109748 said:
Och jag som trodde att denna tråden handlade om LHC i CERN.
Men anth, varför, ja varför skulle LHC ha något som helst med en singularitet att göra, oavsett vilken typ av singularitet vi talar om?
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Sapient;n109781 said:
Jag tror inte på singulariteten. Jag kanske inte ska ta upp en tråd som ska handla OM den, med att dissa hela idén. Men för min del framstår det som alltför mycket rent önsketänkande, projicerat på den vita duken "framtiden". Och det enda riktigt hållbara som finns i idén, är - vid närmare eftertanke - ganska triviala saker (som att den punkt i framtiden när vi skulle börja få svårt att omorientera oss i det samhället om vi hamnade där, ligger närmare oss idag än den punkten gjorde för människor som levde för tiotusen år sedan, typ.)

Med det sagt, Charles Stross har skrivit två böcker i ett post-singularitetsuniversum, Singularity Sky och Iron Sunrise. Fast han fuskar lite, för singulariteten avbröts. (Vilket är rimligt, om en av premisserna för den är att vi som lever idag sannolikt inte kommer att kunna förstå och ta till oss utvecklingen därefter...) Men det efterlämnar en intressant värld, där en del ganska spännande implikationer granskas. De är läsvärda.
Klart du ska dissa idén! Låt oss sätta igång med dialektiken. Jag har en motsatt bild, jag tycker snarare att de flesta verkar rädda och oroliga inför utvecklingen och anropar det här Frankensteinperspektivet med en skapelse som reser sig mot sin skapare. Låter som att du lyssnat för mycket på Kurzweil. :wink:

Att singulariteten avbryts är en intressant tanke i allmänhet. Vad menas med det i den där bokserien?
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
terje;n109786 said:
Stross har också skrivit en roman som utspelas under själva singularitetsskeendet, Accelerando. Som ofta är fallet med Stross är det en fartfylld, spejsad och ganska humoristisk historia. Den tar upp många populära idéer om vad singulariteten skulle kunna innebära.

Hannu Rajaniemi har författat en utmärkt trilogi som utspelas i solsystemet efter singulariteten: The Quantum Thief, The Fractal Prince och The Causal Angel.
Okej, tack för tipsen!
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,223
Location
Stockholm
Jag har också tänkt en del på relationen mellan fysisk och icke-fysisk närvaro och hur dessa kan koordineras.

Om vi skriver under på den här idén om en AI som löper amok till följd av felaktig målprogrammering så kan man fundera på vad som kan stoppa det.
Något jag funderat lite på då är situationen gällande råvaror och den fysiska närvaron som datorn/nätverket som representerar superintelligensen faktiskt besitter på vår jord.

För att det ska vara ett verkligt hot mot människan så måste denna superintelligens på något sätt kontrollera utvinnandet och processeringen av råvarorna som krävs för att bygga datorer och maskiner. Som jag ser det verkar det mer troligt att en superintelligens är ett nätverk av kraftiga datorer eller motsvarande och definitivt inte tvåbenta robotar. Är det helt enkelt för att superintelligensen är på en högre nivå av medvetande som vi bara antar att den kommer lösa de här problemen med att transportera och påverka saker i vår fysiska verklighet?

Och apropå råvaror, förr eller senare tar allt råmaterial som krävs för att bygga datorerna slut. Vad händer då? Kommer superintelligensen rensa solsystemet på råvaror? Jag antar att de hinder vi står inför med rymdresor skulle vara futtiga för en superintelligens men det tar fortfarande mycket tid att resa i rymden och jag har svårt att se att en superintelligens skulle kunna bryta mot fysikens lagar. Kommer den återstående mänsklighetens chans att förstöra superintelligensen då den går ner i dvala efter att ha skickat ut en gruvrobot till asteroidbältet?
 

Max Raven

T12-kultist
Joined
20 Oct 2009
Messages
4,335
Location
Malmö
Vi lever nog i förstadie eller i början av singulariteten, om man är lite bredare med definitionen av teknologisk singularitet och inte kräver fungerande generell AI.

Verkar som vi fått rudimentärt självmedveten AI också.

Det man ofta missar är att datorer och AI är lika mycket verktyg som, säg, en hävarm eller ett jaktgevär. Vi formar dem efter behov - vi är inte ute efter en mordisk AI som ska utplåna mänskligheten (i regel) och det skulle ta en ingenjör med Hollywood-intelligens* för att sakna säkerhetsåtgärder, även om de inte tror på Frankensteinkomplexet. Den mesta teknologin kommer skapas i ett syfte, som kraftmultiplicerare och för att avlasta människor (och för att man kan) men inte bara generellt för att ersätta människan (för övrigt en komplicerad uppgift) - det vore om människan modifierades för att bli något annat, vilket ändå inte är att bygga ren AI.

Nej, problemet är när vi kommer till konflikter, där utvecklad teknologi kan användas som maktmedel. Kärnvapen används inte i konflikter delvis för att de inte kan användas taktiskt (soldaterna blir dåliga) och delvis för att de flesta potentiella fiender har egna eller slåss asymmetriskt (gerilla) och inte samlat på en punkt (utöver badwill från att använda kärnvapen). Men drönare? Ja, varför inte - man riskerar mindre manskapsförluster - även om personerna bakom kanske avhumaniseras. Grå gegga? Inte omöjligt att det sätts in som ett av flera vapen om det kan stoppas med enkla medel från anfallarnas sida (ex känsligt för värme). Aggressiva virus? DoS-attacker mot länder? Där är vi redan.

Robotar behöver inte vara värre än en maskin som spottar ut din välbalanserade måltid baserad på vikt, hälsa och andra behov. Det kan också användas aggressivt. Det kommer definitivt ge konsekvenser - se alla lastbilsförare som kommer förlora jobbet inom kanske 10 år, eller alla barnarbetare i fabriker som kommer ersättas av fabriksrobotar. Allt är inte av ondo.

Men i slutändan bygger vår teknologi på att ge oss större förmågor. För att avlasta människan.

(Att Lutheransk ideologi har klänger sig fast och argumenterar för att färre personer och gör mer medan resten lever i relativ misär är bara dumt dock)

*dummare än någon som klarat sig genom gymnasiet.
 
Top