Forskare är rädda för hotet från artificiell intelligens

Forskare är rädda för hotet från artificiell intelligens
Forskare är rädda för hotet från artificiell intelligens

Video: Forskare är rädda för hotet från artificiell intelligens

Video: Forskare är rädda för hotet från artificiell intelligens
Video: Apple Cider Vinegar… For Acid Reflux? 🍎🍏 2024, Maj
Anonim

Självförbättrande artificiell intelligens (AI) i framtiden kan förslava eller döda människor om han vill. Detta berättades av forskaren Amnon Eden, som tror att riskerna med utvecklingen av ett fritt tänkande och mycket intelligent medvetande är mycket höga, och "om du inte tar hand om frågorna om AI-kontroll redan i det nuvarande stadiet av utveckling, så kanske morgondagen helt enkelt inte kommer. " Enligt den engelska upplagan Express är mänskligheten, enligt Amnon Eden, idag på "point of no return" för genomförandet av handlingen i det berömda filmeposet "The Terminator".

Det är värt att notera att Dr Amnon Eden är en projektledare vars främsta mål är att analysera de potentiella förödande effekterna av AI. Utan en korrekt förståelse av konsekvenserna av att skapa artificiell intelligens kan dess utveckling hota med katastrof, tror forskaren. För närvarande är vårt samhälle dåligt informerat om debatten som pågår i det vetenskapliga samfundet om analysen av AI: s potentiella inverkan. "Under det kommande 2016 måste analysen av möjliga risker bli betydligt mer utbredd i tankar hos företag och regeringar, politiker och dem som är ansvariga för att fatta beslut", säger Eden.

Forskaren är säker på att science fiction, som beskriver robotens förstörelse av mänskligheten, snart kan bli vårt vanliga problem, eftersom processen att skapa AI har kommit ur kontroll. Till exempel, Elon Musk, med stöd av entreprenören Sam Altman, beslutade att skapa en ny 1 miljard dollar ideell som utvecklar AI med öppen källkod som bör överträffa det mänskliga sinnet. Samtidigt rankar den amerikanska miljardären Elon Musk själv artificiell intelligens bland de "största hoten mot vår existens". Steve Wozniak, som var med och grundade Apple, sa i mars förra året att”framtiden ser skrämmande och mycket farlig ut för människor … så småningom kommer dagen då datorer kommer att tänka snabbare än vi och de kommer att bli av med långsamma människor för att så att företag kan arbeta mer effektivt."

Bild
Bild

Det är värt att notera att många forskare ser hotet från AI. Dussintals välkända forskare, investerare och entreprenörer, vars verksamhet på ett eller annat sätt är relaterade till utvecklingen av artificiell intelligens, har undertecknat ett öppet brev som kräver mer uppmärksamhet kring frågan om säkerhet och social nytta av arbete i inom AI. Astrofysiker Stephen Hawking och grundare av Tesla och SpaceX Elon Musk är bland undertecknarna av detta dokument. Brevet, tillsammans med ett medföljande dokument, som utarbetades av Future of Life Institute (FLI), skrevs bland växande oro över effekterna av artificiell intelligens på arbetsmarknaden och till och med hela mänsklighetens långsiktiga överlevnad i en miljö där robotarnas och maskinernas möjligheter kommer att växa nästan okontrollerbart.

Forskare förstår det faktum att potentialen för AI idag är mycket stor, så det är nödvändigt att till fullo undersöka möjligheterna för dess optimala användning för oss för att undvika de medföljande fallgroparna, skriver FLI -brevet. Det är absolut nödvändigt att konstgjorda AI-system gör precis vad vi vill att de ska göra. Det är värt att notera att Future of Life Institute grundades först förra året av ett antal entusiaster, bland dem var skaparen av Skype, Jaan Tallinn, för att”minimera de risker mänskligheten står inför” och stimulera forskning med en”optimistisk vision av framtiden . Först och främst talar vi här om de risker som utvecklingen av AI och robotik orsakar. I FLI Advisory Board ingår Musk och Hawking, tillsammans med den hyllade skådespelaren Morgan Freeman och andra kända personer. Enligt Elon Musk är den okontrollerade utvecklingen av artificiell intelligens potentiellt farligare än kärnvapen.

Den berömda brittiska astrofysikern Stephen Hawking i slutet av 2015 försökte förklara sitt avslag på AI -teknik. Enligt hans åsikt kommer överintelligenta maskiner med tiden att se på människor som förbrukningsvaror eller myror som helt enkelt stör lösningen av deras uppgifter. Stephen Hawking talade med användare av Reddit -portalen och noterade att han inte tror att sådana superintelligenta maskiner kommer att vara "onda varelser" som vill förstöra hela mänskligheten på grund av deras intellektuella överlägsenhet. Mest troligt kommer det att vara möjligt att tala om det faktum att de helt enkelt inte kommer att märka mänskligheten.

Bild
Bild

”Media har ständigt förvanskat mina ord på sistone. Den största risken vid utvecklingen av AI är inte maskinernas ondska, utan deras kompetens. Superintelligent artificiell intelligens kommer att göra ett utmärkt jobb, men om det och våra mål inte sammanfaller kommer mänskligheten att ha mycket allvarliga problem”, förklarar den berömda forskaren. Som ett exempel nämnde Hawking en hypotetisk situation där en superkraftig AI är ansvarig för driften eller byggandet av en ny vattenkraftsdamm. För en sådan maskin kommer prioriteringen att vara hur mycket energi det anförtrotts systemet kommer att generera, och människors öde spelar ingen roll.”Vi är få som trampar myrstackar och trampar på myror av ilska, men låt oss föreställa oss en situation - du styr ett kraftfullt vattenkraftverk som genererar el. Om du behöver höja vattennivån och som ett resultat av dina handlingar kommer en myrstack att översvämmas, då är det osannolikt att problemen med att drunkna insekter stör dig. Låt oss inte sätta människor på myrornas plats, sa forskaren.

Det andra potentiella problemet för vidareutveckling av artificiell intelligens, enligt Hawking, kan vara "maskinägarnas tyranni" - den snabba ökningen av klyftan i inkomstnivån mellan rika människor som kommer att kunna monopolisera produktionen av intelligenta maskiner och resten av världens befolkning. Stephen Hawking föreslår att lösa dessa möjliga problem på följande sätt - att bromsa AI -utvecklingsprocessen och gå över till utvecklingen av inte "universell", men högspecialiserad artificiell intelligens, som bara kan lösa ett mycket begränsat antal problem.

Förutom Hawking och Musk undertecknades brevet av Nobelpristagaren och MIT -fysikprofessorn Frank Wilczek, verkställande direktören för Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, liksom många specialister från stora IT -företag: Google, Microsoft och IBM, liksom företagare som grundade AI -företagen Vicarious och DeepMind. Författarna till brevet noterar att de inte syftar till att skrämma allmänheten, utan planerar att lyfta fram både de positiva och negativa aspekterna som är förknippade med skapandet av artificiell intelligens. "För närvarande är alla överens om att forskningen inom AI utvecklas stadigt, och AI: s inflytande på det moderna mänskliga samhället kommer bara att öka", säger brevet, "möjligheterna som öppnas för människor är enorma, allt som den moderna civilisationen har att erbjuda skapades av intelligens. person. Vi kan inte förutsäga vad vi kommer att kunna uppnå om mänsklig intelligens kan multipliceras med AI, men problemet med att bli av med fattigdom och sjukdom är inte längre oändligt svårt.”

Bild
Bild

Många utvecklingar inom artificiell intelligens ingår redan i det moderna livet, inklusive bild- och taligenkänningssystem, obemannade fordon och mycket mer. Observatörer av Silicon Valley uppskattar att mer än 150 startups för närvarande genomförs inom detta område. Samtidigt lockar utvecklingen inom detta område fler och fler investeringar, och fler och fler företag som Google utvecklar sina projekt baserade på AI. Därför tror författarna till brevet att det är dags att ägna ökad uppmärksamhet åt alla möjliga konsekvenser av den observerade högkonjunkturen för de ekonomiska, sociala och juridiska aspekterna av mänskligt liv.

Ställningen om att artificiell intelligens kan utgöra en fara för människor delas av Nick Bostrom, professor vid University of Oxford, som är känd för sitt arbete med den antropiska principen. Denna specialist tror att AI har kommit till den punkt som kommer att följas av dess inkompatibilitet med människor. Nick Bostrom betonar att "till skillnad från genteknik och klimatförändringar, för vilka regeringar avsätter tillräckliga medel för att kontrollera," görs ingenting för att kontrollera utvecklingen av AI. " Enligt professorn bedrivs för närvarande en "politik för ett juridiskt tomrum som måste fyllas" när det gäller artificiell intelligens. Även teknik som självkörande bilar, som verkar ofarliga och användbara, väcker ett antal frågor. Skulle till exempel en sådan bil behöva utföra nödbromsning för att rädda sina passagerare och vem är ansvarig vid en olycka som begåtts av ett obemannat fordon?

Nick Bostrom diskuterade de potentiella riskerna och noterade att "datorn inte kan avgöra fördelarna och skadorna för människor" och "inte ens har den minsta uppfattningen om mänsklig moral." Dessutom kan självförbättringscykler i datorer uppstå med en sådan hastighet att en person helt enkelt inte kan hålla reda på, och nästan ingenting kan göras åt detta heller, säger forskaren. "I utvecklingsstadiet när datorer kan tänka själva kan ingen säkert förutspå om detta kommer att leda till kaos eller förbättra vår värld avsevärt", säger Nick Bostrom, som ett exempel på en enkel möjlig lösning för en dator - att stänga av i länder med kall klimatuppvärmning för att förbättra människors hälsa och öka deras uthållighet, som "kan komma till huvudet för artificiell intelligens."

Bild
Bild

Dessutom lyfter Bostrom också problemet med att chippa den mänskliga hjärnan för att öka vår biointelligens.”På många sätt kan ett sådant förfarande vara användbart om alla processer styrs, men vad händer om det implanterade chipet kan omprogrammera sig själv? Vilka konsekvenser kan detta leda till - framväxten av en superman eller framväxten av en dator som bara kommer att se ut som en människa? " - frågar professorn. Datorernas sätt att lösa mänskliga problem skiljer sig mycket från vårt. Till exempel, i schack, betraktar den mänskliga hjärnan endast en smal uppsättning drag och väljer det bästa alternativet från dem. I sin tur överväger datorn alla möjliga drag och väljer det bästa. Samtidigt förväntar sig inte datorn att uppröra eller överraska sin motståndare i spelet. Till skillnad från en människa som spelar schack, kan en dator göra ett listigt och subtilt drag bara av misstag. Artificiell intelligens kan beräkna på bästa sätt - att eliminera felet från vilket system som helst genom att ta bort den "mänskliga faktorn" därifrån, men till skillnad från en människa är en robot inte redo att utföra prestationer som skulle rädda människors liv.

Bland annat representerar ökningen av antalet smarta maskiner scenen i en ny industriell revolution. I sin tur betyder detta att mänskligheten inom en snar framtid kommer att möta oundvikliga sociala förändringar. Med tiden kommer arbetet att bli en del av högkvalificerade specialister, eftersom nästan alla enkla uppgifter kan utföras av robotar och andra mekanismer. Forskare tror att artificiell intelligens "behöver ett öga och ett öga" så att vår planet inte blir till en tecknad planet "Zhelezyaka", som var bebodd av robotar.

När det gäller mer och mer automatisering av produktionsprocesser har framtiden redan kommit. World Economic Forum (WEF) presenterade sin rapport, enligt vilken automatisering kommer att leda till att år 2020 kommer mer än 5 miljoner människor som arbetar inom olika områden att förlora sina jobb. Detta är effekterna av robotar och robotsystem på våra liv. För att sammanställa rapporten använde WEF -anställda data om 13,5 miljoner anställda från hela världen. Enligt dem kommer det totala behovet av mer än 7 miljoner jobb att försvinna år 2020, medan den förväntade tillväxten i sysselsättningen i andra branscher kommer att uppgå till drygt 2 miljoner jobb.

Rekommenderad: