Root NationNyheterIT-nyheterDet kommer att vara omöjligt att hantera en superintelligent artificiell intelligens

Det kommer att vara omöjligt att hantera en superintelligent artificiell intelligens

-

Idén om att artificiell intelligens störta mänskligheten har diskuterats i decennier, och i januari 2021 gav forskare sin dom om huruvida vi kunde kontrollera en datorsuperintelligens på hög nivå. Svar? Nästan absolut inte.

Problemet är att kontrollera en supermind långt bortom mänsklig förståelse skulle kräva en simulering av det supermind som vi skulle kunna analysera. Men om vi inte kan förstå det är det omöjligt att skapa en sådan simulering.

Regler som "gör ingen skada på människor" kan inte fastställas om vi inte förstår vilka scenarier artificiell intelligens (AI) kommer att hitta på, tror författarna till en tidning från 2021. Så fort datorsystemet fungerar på en nivå som överstiger våra programmerares kapacitet kommer vi inte längre att kunna sätta gränser.

Artificiell intelligens

"Superintelligens är ett fundamentalt annorlunda problem än de som vanligtvis studeras under flaggan "robotetik", skriver forskarna. "Detta beror på att supersinnet är mångfacetterat och därför potentiellt kan mobilisera en mängd olika resurser för att uppnå mål som är potentiellt outgrundliga för människor, än mindre kontrollerbara."

En del av lagets resonemang kommer från stoppproblem, föreslog av Alan Turing 1936. Utmaningen är att ta reda på om datorprogrammet kommer att komma till en slutsats och svara (och sluta) eller bara hänga runt för evigt och försöka hitta svaret.

Som Turing bevisade med hjälp intelligent matematik, även om vi kanske vet detta för vissa specifika program, är det logiskt sett omöjligt att hitta ett sätt som skulle tillåta oss att veta detta för varje potentiellt program som någonsin skulle kunna skrivas. Detta för oss tillbaka till AI, som i ett superintelligent tillstånd kunde lagra alla möjliga datorprogram i sitt minne samtidigt.

Också intressant:

Alla program som till exempel är skrivna för att stoppa en AI från att skada människor och förstöra världen kan eller kanske inte kommer fram till en slutsats (och slutar) - det är matematiskt omöjligt att vara helt säker på båda hållen, vilket betyder att det inte kan hållas tillbaka. "Det gör i princip avskräckningsalgoritmen oanvändbar", sa datavetaren Iyad Rahwan vid Max Planck Institute for Human Development i Tyskland i januari.

Ett alternativ till att lära ut AI-etik och förbud mot att förstöra världen, vilket ingen algoritm kan vara helt säker på, menar forskarna, är att begränsa supersinnets möjligheter. Det kan till exempel vara avstängt från en del av Internet eller vissa nätverk.

Författarna till en nyligen genomförd studie avvisar också denna idé, och tror att den kommer att begränsa tillämpningsområdet för artificiell intelligens - de säger, om vi inte ska använda den för att lösa problem bortom mänsklig förmåga, varför skapa den då överhuvudtaget?

Artificiell intelligens

Om vi ​​ska utveckla artificiell intelligens kanske vi inte ens vet när en superintelligens kommer att dyka upp, bortom vår kontroll, så outgrundligt är det. Det betyder att vi måste börja ställa allvarliga frågor om vart vi är på väg.

"En superintelligent maskin som driver världen låter som science fiction", säger datavetaren Manuel Kebrian från Max Planck Institute for Human Development. Men det finns redan maskiner som självständigt utför några viktiga uppgifter, medan programmerare inte helt förstår hur de lärde sig detta.

Därför uppstår frågan om det någon gång kan bli okontrollerbart och farligt för mänskligheten...

Läs också:

Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer