Artificiell intelligens. Framtiden för Rysslands nationella säkerhet?

Innehållsförteckning:

Artificiell intelligens. Framtiden för Rysslands nationella säkerhet?
Artificiell intelligens. Framtiden för Rysslands nationella säkerhet?

Video: Artificiell intelligens. Framtiden för Rysslands nationella säkerhet?

Video: Artificiell intelligens. Framtiden för Rysslands nationella säkerhet?
Video: Heart of Pluto 2024, December
Anonim
Bild
Bild

Tio års utveckling

Det är ingen hemlighet att artificiell intelligens tränger djupare och djupare in i vanliga människors liv runt om i världen. Detta underlättas av både den globala spridningen av Internet och den massiva ökningen av datorkraft. Neurala nätverk, som har en viss likhet med den mänskliga hjärnan, har gjort det möjligt att kvalitativt förbättra arbetet med den utvecklade programvaran. Det finns dock ett par förtydligande punkter: neurala nätverk är fortfarande väldigt långt från människans hjärnans nivå, särskilt när det gäller energieffektivitet, och arbetsalgoritmerna är fortfarande extremt svåra att förstå.

Bild
Bild

Pengarna till den konstgjorda intelligensindustrin, trots vissa begränsningar och uppmärksammade olyckor med självkörande bilar, är en bred flod. Förra året, enligt den godkända nationella strategin, översteg marknaden för IT -lösningar inom detta område 21,5 miljarder dollar. Gud vet vilket belopp, men det kommer bara att öka varje år, och år 2024 kommer den totala AI i världen villkorat att kosta 140 miljarder, och den potentiella ekonomiska tillväxten från introduktionen av AI vid denna tidpunkt kommer att nå en hyfsad 1 biljon. dollar. Faktum är att godkännande av president Vladimir Putins ovannämnda nationella strategi den 10 oktober 2019 var ett försök att hänga med i världstrenderna. Samtidigt förklarar programmet i sig inte bara en minskning av klyftan med världsledare, utan ett inträde i antalet toppspelare på denna marknad. Och det är planerat att göra detta till 2030. Bland de uppenbara hindren på denna väg kommer att vara de protektionistiska uttalandena från ett antal länder om att rysk programvara medför en potentiell fara.

Var ska de implementera AI: s "gränslösa" kapacitet på rysk mark? Först och främst är detta automatisering av rutinoperationer tillsammans med utbyte av en person i farliga industrier (läs: inklusive i armén). Vidare planeras ett seriöst arbete med big data, som har genererats precis som en lavin den senaste tiden. Det antas att de kommer att kunna förbättra prognoser för ledningsbeslut, samt optimera urval och utbildning av personal. Sjukvård med utbildning om tio år kommer också att vara aktiva användare av AI. Inom medicin kommer profylax, diagnostik, dosering av läkemedel och till och med kirurgi att överlämnas till maskinens sinne, helt eller delvis. I skolorna kommer AI att vara involverad i individualiseringen av inlärningsprocesser, analysen av barnets benägenhet för yrkesmässig aktivitet och tidig identifiering av begåvade ungdomar. I strategin kan man hitta en bestämmelse om "utveckling och genomförande av utbildningsmoduler inom utbildningsprogrammen på alla utbildningsnivåer." Det vill säga, grunderna i AI kommer att läras ut i skolan?

Som vanligt, förutom de konkreta resultaten av utvecklingen av AI, kommer det vetenskapliga samfundet att behöva öka antalet och citeringsindexet för artiklar av ryska forskare i världens specialpublikationer. Och senast 2024, det vill säga mycket snart, bör antalet medborgare med AI -kompetens öka i Ryssland. I synnerhet kommer detta att realiseras genom att locka inhemska specialister från utlandet, liksom att locka utländska medborgare att arbeta med detta ämne i Ryssland.

AI har emellertid en kontroversiell egenskap, som antas tas upp i strategin genom att "utveckla etiska regler för mänsklig interaktion med artificiell intelligens." Det visar sig att den kalla beräkningen av datorsinnet leder till att det gör partiska och orättvisa generaliseringar.

AI -fördom

Bland massorna av frågor om hur moderna AI -system fungerar, sticker de för närvarande ofullkomliga algoritmerna för autopilotering av hjulfordon ut, som fortfarande inte tillåter att de lagligt får användas i stor utsträckning. Mest troligt kommer vi inom överskådlig framtid inte att se AI -bilar på våra vägar. Våra vägförhållanden är inte lämpliga för detta, och klimatet gynnar inte att använda autopiloten året runt: lera och snö kommer snabbt att "blinda" de sensoriska systemen hos den mest avancerade roboten. Dessutom kommer den massiva introduktionen av AI oundvikligen att ta jobb från miljontals människor runt om i världen - de måste antingen utbilda sig eller tillbringa resten av sina dagar i ledighet. Det är rättvist att säga att olika nyblivna "Atlaser of the future professions" ibland bär uppenbart nonsens: i en av dem, daterad 2015, av det nya 2020, bör till exempel yrken som revisor, bibliotekarie, korrekturläsare och testare har blivit föråldrade. Men profilen för de flesta yrken kommer att förändras, och den negativa faktorn för AI kommer att råda här. I alla fall ställer utsikterna till ytterligare introduktion av AI i samhället många frågor för statliga tillsynsmyndigheter. Och det verkar som att få människor vet hur de ska lösa dem.

Bild
Bild

En annan fråga som redan väntar i horisonten är AI -partiskhet vid beslutsfattande. Amerikanerna var en av de första som mötte detta när COMPAS -systemet infördes i 15 stater för att förutsäga fall av återfall av kriminella. Och allt verkade börja mycket bra: vi lyckades utveckla en algoritm som, baserat på massan av data (Big Data), bildar rekommendationer om straffets svårighetsgrad, en korrigeringsinstitutions regim eller tidig frigivning. Programmerarna argumenterade med rätta att på eftermiddagen kan en hungrig domare utstå ett alltför hårt straff, och en välmatad är tvärtom för mild. AI måste lägga till kall beräkning till denna procedur. Men det visade sig att COMPAS och alla liknande program är rasistiska: AI hade dubbelt så stor risk att felaktigt skylla afroamerikaner för återfall än vita (45% mot 23%). AI betraktar i allmänhet ljusa kriminella som människor med en låg risknivå, eftersom de statistiskt sett är mindre benägna att bryta mot lagen - därför är prognoserna för dem mer optimistiska. I detta avseende, i USA, hörs allt fler röster om avskaffandet av AI för att lösa frågor om borgen, dömande och tidig frigivning. Samtidigt har den amerikanska rättvisan ingenting att göra med programkoden för dessa system - allt köps från tredjepartsutvecklare. Programvarorna Predpol, HunchLab och Series Finder som fungerar på gatorna i många städer runt om i världen har redan statistiskt bevisat sin effektivitet: brottsligheten minskar, men de saknar rasfördomar. Det mest intressanta är att vi inte vet vilka andra "kackerlackor" som sys i de artificiella hjärnorna i dessa system, eftersom många parametrar i analysen är klassificerade. Det finns också tvivel om att utvecklarna själva förstår hur AI tar vissa beslut, vilka parametrar den anser vara viktiga. Liknande situationer utvecklas inte bara inom brottsbekämpning och rättvisa, utan också i rekryteringsbyråer. AI ger i de flesta fall företräde åt att anställa unga män, utan att lämna svagare kön och ålder. Det är roligt att västvärderingarna, som de så ivrigt främjar (jämställdhet mellan kön och raser), trampas på av den senaste västerländska prestationen - artificiell intelligens.

Bild
Bild

Slutsatsen från en liten utflykt till teori och praktik av AI föreslår följande. Det är en sak när våra uppgifter från sociala nätverk och andra källor behandlas massivt för marknadsföring eller politisk manipulation, och en annan sak när rättvisans svärd eller, ännu värre, arsenalen för nationell säkerhet överlämnas till AI. Priset på ett partiskt beslut stiger många gånger, och något måste göras åt det. Den som lyckas med detta kommer att bli den verkliga härskaren under XXI -talet.

Rekommenderad: