Root NationArtiklarAnalyticsSex bud om artificiell intelligens

Sex bud om artificiell intelligens

-

De följande åren kommer att präglas av den snabba utvecklingen av artificiell intelligensteknologi. Kanske är det nödvändigt att införa tydligt definierade ramar för skapandet och användningen av AI? Är 6 månaders erfarenhet tillräckligt för att reglera en teknik som inte ens har lämnat labbet ännu? Denna fråga kommer alltmer från experters och journalisters mun när det gäller artificiell intelligens. Röster och uppmaningar om att vidta åtgärder för att reglera artificiell intelligens – både på användarnivå och på projektutvecklingsnivå – hörs allt oftare. Historien om sådana överklaganden började för ganska länge sedan.

Den allestädes närvarande närvaron av artificiell intelligens i det digitala rummet och framför allt av modeller som kan skapa innehåll som inte kommer att skilja sig från det som skapats av människor, väcker väldigt olika känslor. Å ena sidan har vi en grupp entusiaster som ser framtiden inom AI och, trots dess relativt begränsade kapacitet (eftersom AI inte tänker, och ofta bara tar information från Internet), inte är rädda för att anförtro den många uppgifter . På andra sidan barrikaden finns en grupp som uttrycker sin skepsis och oro över de nuvarande trenderna i utvecklingen av artificiell intelligens.

AI-postulat

Bron mellan de två grupperna är artificiell intelligensforskare, som å ena sidan nämner åtskilliga exempel på hur artificiell intelligens har påverkat den omgivande verkligheten positivt. Samtidigt förstår de att det är för tidigt att vila på lagrarna och ett enormt tekniskt språng medför många utmaningar och stort ansvar. Ett tydligt exempel på denna attityd är en internationell grupp av forskare inom artificiell intelligens och maskininlärning under ledning av Dr Ozlem Garibay från University of Central Florida. Den 47-sidiga publikationen, skriven av 26 forskare från hela världen, identifierar och beskriver sex utmaningar som forskningsinstitutioner, företag och företag måste ta itu med för att göra sina modeller (och programvaran som använder dem) säkra.

Ja, detta är ett seriöst vetenskapligt arbete med viktiga förklaringar för att förstå framtiden för artificiell intelligens. Den som är intresserad kan självständigt läs denna vetenskapliga rapport och dra dina egna slutsatser. Med enkla ord har forskare identifierat 6 bud om artificiell intelligens. Alla AI-utvecklingar och åtgärder måste överensstämma med dem så att det är säkert för människor och världen.

AI-postulat

I min artikel, skriven just på grundval av detta vetenskapliga arbete, kommer jag att försöka formulera huvudpostulaten, lagar enligt vilka artificiell intelligens ska existera och utvecklas. Ja, detta är min nästan fria tolkning av forskarnas slutsatser angående utvecklingen av artificiell intelligens och ett försök att presentera dem i så att säga en biblisk version. Men det är så här jag ville introducera dig till detta vetenskapliga arbete av respekterade vetenskapsmän.

Också intressant: Bygga AI: Vem leder loppet?

Den första lagen: Människans välbefinnande

Forskarnas första postulat är att fokusera arbetet med artificiell intelligens på mänskligt välbefinnande. På grund av bristen på "mänskliga värderingar, sunt förnuft och etik" kan artificiell intelligens agera på ett sätt som kommer att leda till en betydande försämring av mänskligt välbefinnande. Problem kan vara resultatet av AI:s övermänskliga förmågor (till exempel hur lätt AI slår människor - och inte bara i schack), men också det faktum att AI inte tänker själv, och därför inte kan "filtrera bort" fördomar eller uppenbara misstag.

AI Postulat

- Annons -

Forskare noterar att överdrivet förtroende för artificiell intelligensteknik kan påverka människors välbefinnande negativt. Ett samhälle som har liten förståelse för hur algoritmer för artificiell intelligens faktiskt fungerar tenderar att övertro på det, eller tvärtom, har en negativ inställning till innehåll som genereras av en viss modell, i synnerhet chatbots. Med tanke på dessa och andra faktorer, kräver Garibays team att sätta mänskligt välbefinnande i centrum för framtida interaktioner mellan AI och människa.

Läs också: ChatGPT: en enkel användarguide

Den andra lagen: Ansvar

Ansvarsskyldighet är en term som ständigt dyker upp i AI-världen i samband med vad vi använder maskininlärning till, och hur exakt AI-modeller och algoritmer utvecklas och tränas. Det internationella teamet betonar att design, utveckling och implementering av artificiell intelligens ska ske uteslutande med goda avsikter.

AI Postulat

Enligt deras uppfattning bör ansvar ses inte bara i ett tekniskt, utan också i ett juridiskt och etiskt sammanhang. Tekniken måste betraktas inte bara utifrån dess effektivitet, utan också i samband med dess användning.

"Med introduktionen av avancerade maskininlärningstekniker blir det allt viktigare att förstå hur ett beslut togs och vem som är ansvarig för det” - skriver forskarna.

Den tredje lagen: Sekretess

Sekretess är ett ämne som bumeranger i varje diskurs om teknik. Speciellt när allt diskuteras i sociala nätverk. Detta är dock extremt viktigt för artificiell intelligens eftersom det inte finns utan en databas. Och vad är databaser?

Forskare beskriver dem som "en abstraktion av de grundläggande byggstenarna som utgör hur vi ser världen." Dessa block är vanligtvis vardagliga värden: färger, former, texturer, avstånd, tid. Medan smal AI fokuserad på ett enda mål, till exempel i vilken grad slutaren öppnar vid en given ljusintensitet, använder den offentligt tillgängliga objektiva data, AI i bredare applikationer (här till exempel text-till-bild-modeller som Midjourney , eller språkmodeller som ChatGPT ) kan använda data om och skapade av människor. Artiklar i pressen, böcker, illustrationer och fotografier publicerade på Internet bör också nämnas. Algoritmer för artificiell intelligens har tillgång till allt eftersom vi själva gav dem det. Annars kommer han inte att veta någonting och kommer inte att ge svar på någon fråga.

AI Postulat

Användardata påverkar i grunden både personerna om vilka denna data samlas in och personerna i systemet där algoritmerna för artificiell intelligens kommer att implementeras.

Den tredje utmaningen hänför sig därför till en bred förståelse av privatlivet och tillhandahållandet av sådana rättigheter som rätten att förbli ensam, rätten att begränsa tillgången till sig själv, rätten till sekretess för sitt personliga liv eller företag, rätten att kontrollera personliga information, det vill säga rätten att skydda sin personlighet, individualitet och värdighet. Allt detta måste skrivas in i algoritmerna, annars kommer integritet helt enkelt inte existera, och AI-algoritmer kan användas i såväl bedrägliga system som brott.

Läs också: 7 coolaste sätten att använda ChatGPT

Fjärde lagen: Projektstruktur

Artificiell intelligens kan vara extremt enkel och ensidig, men när det gäller större modeller med en bred och multi-tasking karaktär är problemet inte bara datasekretess utan även designstrukturen.

Till exempel har GPT-4, OpenAI:s senaste artificiella intelligensmodell, trots sin storlek och inverkan på AI-världen (och bortom), inte helt offentlig dokumentation. Det vill säga att vi inte har en förståelse för vad de slutliga målen är för utvecklarna, vad de vill få fram i slutresultatet. Därför kan vi inte helt bedöma riskerna förknippade med användningen av denna AI-modell. GPT-3, å andra sidan, tränad på data från 4chan-forumet är en modell du definitivt inte vill interagera med. 4chan-forumet är ett av de mest intressanta fenomenen på Internet. Detta är ett exempel på absolut, total anarki, som i praktiken inte begränsas av något ramverk. Det var här hackgrupper som Anonymous eller LulzSec skapades. Det är källan till många av de mest populära memesna, en plats för att diskutera kontroversiella ämnen och publicera ännu mer kontroversiella åsikter. Även om den engelskspråkiga bildtavlan noterar att "hittills är det lagligt", är detta något tveksamt, med tanke på att 4chan emellanåt engagerar sig i media, inklusive rasistiskt, nazistiskt och sexistiskt innehåll.

AI Postulat

- Annons -

Professor Garibays team vill att varje modell av artificiell intelligens ska fungera inom ett tydligt definierat ramverk. Inte bara på grund av välbefinnandet för den person som AI interagerar med, utan också på grund av förmågan att bedöma riskerna i samband med användningen av modellen. Strukturen i varje projekt bör innefatta respekt för olika kulturgruppers och intressenters behov, värderingar och önskemål. Processen att skapa, träna och finjustera AI bör fokuseras på mänskligt välbefinnande, och slutprodukten – AI-modellen – bör fokuseras på att förbättra och förbättra produktiviteten i själva det mänskliga samhället. Modeller där risker inte kan identifieras bör ha begränsad eller kontrollerad tillgång. De ska inte vara ett hot mot mänskligheten, utan tvärtom bidra till utvecklingen av människan och samhället som helhet.

Läs också: Twitter i händerna på Elon Musk - ett hot eller "förbättring"?

Den femte lagen: styrning och oberoende tillsyn

Algoritmer för artificiell intelligens förändrade bokstavligen världen på bara ett år. Bard av Google och Bing har premiär av Microsoft avsevärt påverkat de båda jättarnas aktier på börsen. Förresten, de bidrog till tillväxten av aktierna i dessa företag även mot bakgrund av aktier Apple. ChatGPT har börjat användas aktivt av skolelever, de kommunicerar med det, undersöker det och ställer frågor. Det viktigaste är att han har förmågan att själv lära sig, rätta till sina misstag. Artificiell intelligens börjar till och med fungera i regeringarna i vissa länder. Detta är fallet med Rumäniens premiärminister Nicolae Chuca anlitat en virtuell en assistent som ska informera honom om samhällets behov. Det vill säga att artificiell intelligens spelar en allt viktigare roll i våra liv.

AI

Med tanke på det ständigt ökande ömsesidiga beroendet mellan artificiell intelligens, människor och miljön, anser forskare att det är nödvändigt att skapa styrande organ och oberoende övervakning av dess utveckling. Dessa organ kommer att kontrollera hela livscykeln för artificiell intelligens: från idé till utveckling och implementering. Myndigheterna kommer att korrekt definiera olika modeller av AI och överväga fall relaterade till artificiell intelligens och ämnen i det sociala livet. Det vill säga att artificiell intelligens kan bli föremål för rättsfall, såväl som stämningar. Fast, naturligtvis, inte honom personligen, utan hans utvecklare.

Läs också: Allt om Neuralink: The Beginning of Cyberpunk Madness?

Den sjätte lagen: Samspelet mellan människan och artificiell intelligens

I artificiell intelligens-program kan alla hitta något för sig själva: generera text, upptäcka innehåll i bilder, svara på frågor, generera bilder, känna igen personer på foton, analysera data. Dessa mångfaldiga användningar är inte bara ett problem för människor som försöker anpassa artificiell intelligens till juridiska och etiska standarder. Många fruktar att bli förskjutna från arbetsmarknaden av AI-modeller. Eftersom artificiell intelligens algoritmer kommer att kunna göra samma sak snabbare, billigare och kanske till och med bättre än en person. Samtidigt finns det människor som förlitar sig på AI i sitt arbete, det vill säga artificiell intelligens är redan idag en oumbärlig assistent för dem.

AI

Men från de studier som forskarna hänvisar till är det tydligt att ersättningen av människor med billig konstgjord arbetskraft fortfarande är ganska långt borta. Trots detta insisterar de redan på behovet av att upprätta en strikt hierarki av interaktion mellan människor och artificiell intelligens. Enligt deras åsikt bör människor ställas över artificiell intelligens. Artificiell intelligens måste skapas med respekt för en persons kognitiva förmågor, med hänsyn till hans känslor, sociala interaktioner, idéer, planering och interaktion med föremål. Det vill säga att i alla lägen är det personen som ska stå över den artificiella intelligensen, kontrollera beteendet och innehållet som modellen skapar och ansvara för det. Med enkla ord måste även den mest avancerade AI lyda en person och inte gå utöver vad som är tillåtet, för att inte skada dess skapare.

Läs också: Hur Ukraina använder och anpassar Starlink under krigstid

Visnovki

Ja, någon kommer att säga att forskarna inte angav något viktigt och nytt i sin rapport. Alla har pratat om det här länge. Men redan nu är det nödvändigt att sätta AI i något ramverk av lagar. Att sträcka sig efter GPT-4 är som att sträcka sig blint efter en kniv. De döljer viktig information för oss. All utveckling inom artificiell intelligens, och i synnerhet ChatGPT-projektet från Open AI, påminner mig ofta om att uppfostra ett litet barn. Ibland verkar det som att detta är ett barn av främmande ursprung. Ja, en utomjording, men han är fortfarande ett barn som lär sig, gör misstag, ibland beter sig olämpligt, är irriterad, argumenterar med sina föräldrar. Även om den växer och utvecklas väldigt snabbt.

AI

Mänskligheten kanske inte hänger med i sin utveckling, och saker och ting kan komma utom kontroll. Därför behöver mänskligheten redan förstå varför vi utvecklar allt detta, att veta de slutliga målen, att vara "ansvariga föräldrar", för annars kan "barnet" helt enkelt förstöra sina "föräldrar".

Läs också: 

Yuri Svitlyk
Yuri Svitlyk
Son till Karpaterna, okänt geni inom matematiken, "advokat"Microsoft, praktisk altruist, vänster-höger
- Annons -
Bli Medlem
Meddela om
gäst

0 Kommentarer
Inbäddade recensioner
Visa alla kommentarer