Root NationNyheterIT-nyheterDen tidigare chefen för Google jämförde artificiell intelligens med kärnvapen

Den tidigare chefen för Google jämförde artificiell intelligens med kärnvapen

-

Tidigare Google-vd Eric Schmidt jämförde artificiell intelligens (AI) med kärnvapen och efterlyste en avskräckningsregim, liknande ömsesidigt säkerställd förstörelse, som hindrar världens mäktigaste nationer från att förstöra varandra.

Den tidigare chefen för Google jämförde artificiell intelligens med kärnvapen

Schmidt talade om farorna med artificiell intelligens vid Aspen Security Forum den 22 juli under en diskussion om nationell säkerhet och AI. På frågan om värdet av moral i tekniken förklarade Schmidt att han själv var naiv om kraften i information i Googles tidiga dagar. Han efterlyste sedan teknik för att bättre matcha etiken och moralen hos de människor de tjänar, och gjorde en märklig jämförelse mellan artificiell intelligens och kärnvapen.

Schmidt talade om den närmaste framtiden, där Kina och USA måste sluta ett avtal om artificiell intelligens. "På 50- och 60-talen slutade vi med att skapa en värld där det fanns en regel om "inga överraskningar" för kärnvapenprov, och som ett resultat förbjöds de, säger Schmidt. "Detta är ett exempel på balansen mellan förtroende eller brist på förtroende, det här är regeln om "inga överraskningar." Jag är mycket oroad över att USA:s syn på Kina som korrupt eller kommunistiskt eller vad som helst, och Kinas syn på Amerika som en förlorare... kommer att tillåta människor att säga, "Herregud, de har på sig något" och sedan något obegripligt börjar...

AI och maskininlärning är en fascinerande och ofta missförstådd teknik. Han är i grunden inte så smart som folk tror. Det kan skapa konstverk på mästerverksnivå, slå människor på Starcraft II och ringa rudimentära telefonsamtal för användare. Men försök att få den att utföra svårare uppgifter, som att köra bil i en stor stad, har dock inte varit framgångsrika.

Schmidt talar om en imaginär nära framtid där både Kina och USA kommer att oroa sig för säkerhetsfrågor, vilket kommer att tvinga dem att ingå ett slags fördrag för att innehålla AI. Han mindes 1950- och 60-talen, när diplomatin utvecklade en serie kontroller kring de dödligaste vapnen på planeten. Men det tog ett decennium av kärnvapenexplosioner och, viktigast av allt, förstörelsen av Hiroshima och Nagasaki, för fred att komma före ingåendet av fördraget om förbud mot kärnvapenprov, SALT II och annan landmärkeslagstiftning.

Två japanska städer som förstördes av Amerika i slutet av andra världskriget tog livet av tiotusentals människor och bevisade för världen kärnvapenens eviga fasa. Sedan rusade Rysslands och Kinas regeringar för att skaffa vapen. Sättet vi lever med möjligheten att dessa vapen kommer att användas är det som kallas Mutually Assured Destruction (MAD), en teori om avskräckning som säkerställer att om ett land skjuter upp ett kärnvapen så är det möjligt att vilket annat land som helst. Vi använder inte de mest destruktiva vapnen på planeten på grund av möjligheten att det kommer att förstöra åtminstone civilisationen runt om i världen.

Trots Schmidts färgstarka kommentarer vill eller behöver vi inte MAD för AI. För det första har AI ännu inte bevisat sin destruktiva kraft jämfört med kärnvapen. Men makthavarna fruktar denna nya teknik, och oftast av fel anledningar. Människor har till och med föreslagit att överlåta kontrollen över kärnvapen till en artificiell intelligens, i tron ​​att det skulle vara en bättre medlare av dess användning än en människa.

Den tidigare chefen för Google jämförde AI med kärnvapen

Problemet med artificiell intelligens är inte att den har den potentiellt destruktiva kraften hos ett kärnvapen. Poängen är att artificiell intelligens bara är lika bra som de människor som utvecklade den, och att den bär på sina skapares värderingar. AI lider av det klassiska problemet "skräp in, skräp ut": rasistiska algoritmer skapar rasistiska robotar, och all AI bär på sina skapares fördomar.

Demis Hassabis, VD för DeepMind, företaget som tränade den AI som slår Starcraft II-spelare, verkar förstå detta bättre än Schmidt. I en juliintervju på Lex Friedmans podcast frågade Friedman Hassabis hur en så kraftfull teknik som AI kan kontrolleras, och hur Hassabis själv kan undvika att bli korrumperad av den kraften.

Khasabis svar handlar om honom själv. "Artificiell intelligens är en för stor idé", sa han. "Det är viktigt vem som skapar AI, vilka kulturer de kommer ifrån och vilka deras värderingar är. AI-system kommer att lära sig av sig själva... men systemet kommer att förbli präglat med kulturen och värderingarna hos systemets författare."

Artificiell intelligens är en återspegling av dess författare. Den kan inte jämna ut en stad med marken med en explosion på 1,2 megaton. Om inte en person lär honom detta.

Du kan hjälpa Ukraina att slåss mot de ryska inkräktarna. Det bästa sättet att göra detta är att donera medel till Ukrainas väpnade styrkor genom Rädda liv eller via den officiella sidan NBU.

Läs också:

Dzherelovice
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer
Andra artiklar
Prenumerera för uppdateringar
Populärt nu