Artificiell intelligens. Del två: utrotning eller odödlighet?

Innehållsförteckning:

Artificiell intelligens. Del två: utrotning eller odödlighet?
Artificiell intelligens. Del två: utrotning eller odödlighet?

Video: Artificiell intelligens. Del två: utrotning eller odödlighet?

Video: Artificiell intelligens. Del två: utrotning eller odödlighet?
Video: Jägarsoldat #16 - Jägarprovet del 1 2024, April
Anonim
Artificiell intelligens. Del två: utrotning eller odödlighet?
Artificiell intelligens. Del två: utrotning eller odödlighet?

Innan du är den andra delen av en artikel från serien "Vänta, hur allt detta kan vara verkligt, varför talas det fortfarande inte om i varje hörn." I den föregående serien blev det känt att en explosion av intelligens gradvis kryper fram till människorna på planeten Jorden, den försöker utvecklas från snävt fokuserad till universell intelligens och slutligen artificiell superintelligens.

"Kanske står vi inför ett extremt svårt problem, och det är inte känt hur mycket tid som är avsatt för dess lösning, men mänsklighetens framtid kan bero på dess lösning." - Nick Bostrom.

Första delen av artikeln började oskyldigt nog. Vi diskuterade snävt fokuserad artificiell intelligens (AI, som specialiserat sig på att lösa ett specifikt problem som att bestämma rutter eller spela schack), det finns mycket av det i vår värld. Sedan analyserade de varför det är så svårt att växa allmän riktad artificiell intelligens (AGI, eller AI, som, när det gäller intellektuell kapacitet, kan jämföra med en människa för att lösa alla problem), är så svårt. Vi drog slutsatsen att den exponentiella tekniska utvecklingen antyder att AGI kan vara runt hörnet ganska snart. Till slut bestämde vi oss för att så fort maskinerna nått mänsklig intelligens kan följande hända direkt:

Bild
Bild
Bild
Bild
Bild
Bild
Bild
Bild

Som vanligt tittar vi på skärmen utan att tro att artificiell superintelligens (ISI, som är mycket smartare än någon person) kan dyka upp under vår livstid och välja känslor som bäst återspeglar vår åsikt om denna fråga.

Innan vi går in på ISI: s detaljer, låt oss påminna oss själva vad det betyder för en maskin att vara superintelligent.

Huvudskillnaden ligger mellan snabb superintelligens och superintelligens av hög kvalitet. Ofta är det första man tänker på när man tänker på en superintelligent dator att den kan tänka mycket snabbare än en person - miljontals gånger snabbare, och på fem minuter kommer den att förstå vad det skulle ta en person tio år. ("Jag vet kung fu!")

Det låter imponerande, och ISI borde verkligen tänka snabbare än någon annan - men den viktigaste separationsfunktionen är kvaliteten på dess intelligens, som är helt annorlunda. Människor är mycket smartare än apor, inte för att de tänker snabbare, utan för att deras hjärnor innehåller ett antal sinnrika kognitiva moduler som utför komplexa språkliga representationer, långsiktig planering, abstrakt tänkande, vilket apor inte kan. Om du accelererar hjärnan hos en apa tusen gånger blir den inte smartare än oss - även efter tio år kommer den inte att kunna montera en konstruktör enligt instruktionerna, vilket skulle ta en person som mest ett par timmar. Det finns saker som en apa aldrig kommer att lära sig, oavsett hur många timmar den tillbringar eller hur snabbt hjärnan fungerar.

Dessutom vet apan inte hur mänskligt, eftersom dess hjärna helt enkelt inte kan inse att det finns andra världar - apan kanske vet vad en person är och vad en skyskrapa är, men kommer aldrig att förstå att en skyskrapa byggdes av människor. I hennes värld tillhör allt naturen, och makaken kan inte bara bygga en skyskrapa, utan förstår också att vem som helst kan bygga den alls. Och detta är resultatet av en liten skillnad i intelligensens kvalitet.

I det allmänna intelligensschema som vi talar om, eller helt enkelt enligt biologiska varelsers mått, är skillnaden i intelligensens kvalitet mellan människor och apor liten. I föregående artikel placerade vi biologiska kognitiva förmågor på en stege:

Bild
Bild

För att förstå hur allvarlig en superintelligent maskin kommer att vara, placera den två snäpp högre än personen på den stegen. Denna maskin är kanske bara lite superintelligent, men dess överlägsenhet över våra kognitiva förmågor kommer att vara densamma som vår - över aporna. Och precis som en schimpans aldrig kommer att förstå att en skyskrapa kan byggas, kan vi aldrig förstå vad en maskin ett par steg högre kommer att förstå, även om maskinen försöker förklara det för oss. Men detta är bara ett par steg. Den smartare maskinen kommer att se myror i oss - den kommer att lära oss de enklaste sakerna från sin position i åratal, och dessa försök kommer att vara helt hopplösa.

Den typ av superintelligens vi talar om idag ligger långt bortom denna stege. Detta är en explosion av intelligens - när ju smartare en bil blir, desto snabbare kan den öka sin egen intelligens, gradvis öka momentum. Det kan ta år för en maskin som denna att överträffa schimpanser i intelligens, men kanske ett par timmar att överträffa oss med ett par snäpp. Från det ögonblicket kan bilen redan hoppa över fyra steg varje sekund. Det är därför vi borde förstå att mycket snart efter att de första nyheterna om att maskinen har nått nivån på mänsklig intelligens dyker upp, kan vi möta verkligheten av samexistens på jorden med något som kommer att vara mycket högre än oss på denna stege (eller kanske, och miljontals gånger högre):

Bild
Bild

Och eftersom vi har fastställt att det är helt meningslöst att försöka förstå kraften i en maskin som bara ligger två steg ovanför oss, låt oss definiera en gång för alla att det inte finns något sätt att förstå vad ISI kommer att göra och vad konsekvenserna av detta kommer att vara för oss. Den som påstår motsatsen förstår helt enkelt inte vad superintelligens betyder.

Evolutionen har långsamt och gradvis utvecklat den biologiska hjärnan under hundratals miljoner år, och om människor skapar en superintelligent maskin kommer vi på ett sätt att överskrida evolutionen. Eller så kommer det att vara en del av evolutionen - kanske fungerar evolutionen på ett sådant sätt att intelligensen utvecklas gradvis tills den når en vändpunkt som inbjuder till en ny framtid för alla levande saker:

Bild
Bild

Av skäl som vi kommer att diskutera senare tror en stor del av det vetenskapliga samfundet att frågan inte är om vi kommer till denna vändpunkt, utan när.

Var hamnar vi efter det här?

Jag tror att ingen i den här världen, varken jag eller du, kommer att kunna säga vad som kommer att hända när vi når topppunkten. Oxford -filosofen och ledande AI -teoretikern Nick Bostrom tror att vi kan koka alla möjliga resultat i två stora kategorier.

Först, när vi tittar på historien, vet vi följande om livet: arter förekommer, existerar under en viss tid och faller oundvikligen av balken och dör ut.

Bild
Bild

"Alla arter dör ut" har varit en lika tillförlitlig regel i historien som "alla människor dör en dag". 99,9% av arterna har fallit från en stock av liv, och det är helt klart att om en art hänger på denna stock för länge, kommer ett vindkast eller en plötslig asteroid att vända stocken. Bostrom kallar utrotning tillståndet för en lockare - en plats där alla arter balanserar för att inte falla dit inga arter har återvänt än.

Och även om de flesta forskare medger att ISI kommer att ha förmågan att döda människor till utrotning, tror många också att användningen av ISI: s förmåga kommer att göra det möjligt för individer (och arten som helhet) att uppnå attraktionens andra tillstånd - artodödlighet. Bostrom tror att odödligheten hos en art är lika mycket en attraktion som utrotningen av en art, det vill säga om vi når detta kommer vi att vara dömda till evig existens. Således, även om alla arter hittills faller från denna pinne i utrotningens malström, tror Bostrom att stocken har två sidor, och det uppträdde helt enkelt inte på jorden en sådan intelligens som skulle förstå hur man skulle falla till andra sidan.

Bild
Bild

Om Bostrom och andra har rätt, och att döma av all information som finns tillgänglig för oss, så kan de mycket väl vara så, vi måste acceptera två mycket chockerande fakta:

Framväxten av ISI för första gången i historien kommer att öppna vägen för en art att uppnå odödlighet och falla ut ur den dödliga utrotningscykeln.

Framväxten av ISI kommer att få en så ofattbart stor inverkan att det troligtvis kommer att driva mänskligheten från denna stock i den ena eller andra riktningen.

Det är möjligt att när evolutionen når en sådan vändpunkt, sätter den alltid stopp för förhållandet mellan människor och livets ström och skapar en ny värld, med eller utan människor.

Detta leder till en intressant fråga som bara en bummer inte skulle ställa: när kommer vi till denna tipppunkt och var kommer den att placera oss? Ingen i världen vet svaret på denna dubbla fråga, men många smarta människor har försökt lista ut det i decennier. I resten av artikeln kommer vi att ta reda på var de kom ifrån.

* * *

Låt oss börja med den första delen av denna fråga: när ska vi nå tipppunkten? Med andra ord: hur lång tid är det kvar tills den första maskinen når superintelligens?

Åsikterna varierar från fall till fall. Många, däribland professor Vernor Vinge, forskaren Ben Herzel, Sun Microsystems grundare Bill Joy, futuristen Ray Kurzweil, höll med maskininlärningsexperten Jeremy Howard när han presenterade följande graf på TED Talk:

Bild
Bild

Dessa människor delar uppfattningen att ISI kommer snart - denna exponentiella tillväxt, som verkar långsam för oss idag, kommer bokstavligen att explodera under de närmaste decennierna.

Andra, som Microsofts grundare Paul Allen, forskningspsykologen Gary Marcus, datorexperten Ernest Davis och teknikentreprenören Mitch Kapor, tror att tänkare som Kurzweil allvarligt underskattar problemets omfattning och tror att vi inte är så nära ett brytpunkten.

Kurzweils läger hävdar att den enda underskattningen som uppstår är bortseendet från exponentiell tillväxt, och tvivlarna kan jämföras med dem som tittade på det långsamt blomstrande internet 1985 och hävdade att det inte skulle ha någon inverkan på världen inom en snar framtid.

Tvivlar kan avvärja att det är svårare för framsteg att ta varje nästa steg när det gäller den exponentiella utvecklingen av intelligens, vilket neutraliserar den typiska exponentiella karaktären hos tekniska framsteg. Etc.

Det tredje lägret, där Nick Bostrom är, håller inte med om antingen det första eller det andra och hävdar att a) allt detta absolut kan hända inom en snar framtid; och b) det finns ingen garanti för att detta kommer att hända alls eller att det kommer att ta längre tid.

Andra, som filosofen Hubert Dreyfus, tror att alla tre grupperna naivt tror att det kommer att finnas en vändpunkt överhuvudtaget, och att vi med största sannolikhet aldrig kommer till ISI.

Vad händer när vi sätter ihop alla dessa åsikter?

År 2013 genomförde Bostrom en undersökning där han intervjuade hundratals AI -experter vid en serie konferenser om följande ämne: "Vilka blir dina förutsägelser för att uppnå AGI på mänsklig nivå?" och bad oss att nämna ett optimistiskt år (där vi kommer att ha AGI med 10 procents chans), ett realistiskt antagande (ett år där vi kommer att ha AGI med 50 procents sannolikhet) och ett säkert antagande (det tidigaste året då AGI kommer att visas sedan 90 -procents sannolikhet). Här är resultaten:

* Genomsnittligt optimistiskt år (10%): 2022

* Genomsnittligt realistiskt år (50%): 2040

* Genomsnittligt pessimistiskt år (90%): 2075

Genomsnittliga respondenter tror att vi om 25 år kommer att ha AGI snarare än inte. En 90 procents chans att AGI inträffar 2075 innebär att om du fortfarande är ganska ung nu kommer det troligtvis att hända under din livstid.

En separat studie som nyligen genomförts av James Barratt (författare till den hyllade och mycket bra boken Our Latest Invention, utdrag ur Jag presenterade för läsarnas uppmärksamhet Hi-News.ru) och Ben Hertzel på AGI-konferensen, den årliga AGI-konferensen, visade helt enkelt människors åsikter om året då vi kommer till AGI: 2030, 2050, 2100, senare eller aldrig. Här är resultaten:

* 2030: 42% av de tillfrågade

* 2050: 25%

* 2100: 20%

Efter 2100: 10%

Aldrig: 2%

Liknar Bostroms resultat. I Barratts undersökning tror mer än två tredjedelar av de tillfrågade att AGI kommer att vara här 2050, och mindre än hälften tror att AGI kommer att dyka upp under de närmaste 15 åren. Det är också slående att endast 2% av de tillfrågade i princip inte ser AGI i vår framtid.

Men AGI är inte en tipppunkt som ISI. När ska vi enligt experter ha ett ISI?

Bostrom frågade experterna när vi når ASI: a) två år efter att ha nått AGI (det vill säga nästan omedelbart på grund av en explosion av intelligens); b) efter 30 år. Resultat?

Den genomsnittliga åsikten är att den snabba övergången från AGI till ISI kommer att ske med 10% sannolikhet, men om 30 år eller mindre kommer det att ske med en 75% sannolikhet.

Från dessa data vet vi inte vilket datum respondenterna skulle kalla 50 procent chans för ASI, men utifrån de två svaren ovan, låt oss anta att det är 20 år. Det vill säga världens ledande AI -experter tror att vändpunkten kommer 2060 (AGI kommer att dyka upp 2040 + det kommer att ta 20 år för övergången från AGI till ISI).

Bild
Bild

Självklart är all ovanstående statistik spekulativ och representerar helt enkelt experternas åsikt inom artificiell intelligens, men de indikerar också att de flesta intresserade är överens om att AI kommer att komma fram till 2060. På bara 45 år.

Låt oss gå vidare till den andra frågan. När vi kommer till tipppunkten, vilken sida av det dödliga valet kommer att avgöra oss?

Superintelligens kommer att ha den mest kraftfulla kraften, och den kritiska frågan för oss kommer att vara följande:

Vem eller vad kommer att styra denna makt och vad kommer att vara deras motivation?

Svaret på denna fråga kommer att bero på om ISI får en otroligt kraftfull utveckling, en omätligt skrämmande utveckling eller något däremellan.

Naturligtvis försöker expertgruppen också svara på dessa frågor. Bostroms undersökning analyserade sannolikheten för möjliga konsekvenser av AGI: s påverkan på mänskligheten, och det visade sig att med 52 procents chans kommer allt att gå väldigt bra och med 31 procents chans kommer allt att gå antingen dåligt eller extremt dåligt. Undersökningen bifogad i slutet av föregående del av detta ämne, som genomfördes bland er, kära läsare av Hi-News, visade ungefär samma resultat. För ett relativt neutralt utfall var sannolikheten bara 17%. Med andra ord tror vi alla att AGI kommer att bli en stor grej. Det är också värt att notera att denna undersökning gäller uppkomsten av AGI - i fallet ISI kommer andelen neutralitet att vara lägre.

Innan vi går djupare in i att tänka på de goda och dåliga sidorna av frågan, låt oss kombinera båda sidor av frågan - "när kommer detta att hända?" och "är detta bra eller dåligt?" i en tabell som täcker de flesta experters åsikter.

Bild
Bild

Vi pratar om huvudlägret om en minut, men besluta först om din position. Chansen är stor att du är på samma plats som jag var innan jag började arbeta med detta ämne. Det finns flera anledningar till att människor inte alls tänker på detta ämne:

* Som nämnts i den första delen har filmerna allvarligt förvirrat människor och fakta och presenterat orealistiska scenarier med artificiell intelligens, vilket ledde till att vi inte alls borde ta AI på allvar. James Barratt liknade denna situation med att utfärdas av Centers for Disease Control (CDC) med en allvarlig varning om vampyrer i vår framtid.

* På grund av så kallade kognitiva fördomar är det mycket svårt för oss att tro att något är verkligt tills vi har bevis. Man kan med säkerhet föreställa sig datavetenskapsmännen från 1988 som regelbundet diskuterar internetets långtgående konsekvenser och vad det kan bli, men folk trodde knappt att det skulle förändra deras liv förrän det faktiskt hände. Det är bara det att datorer inte visste hur de skulle göra 1988, och folk tittade bara på sina datorer och tänkte: "Verkligen? Är det detta som kommer att förändra världen? " Deras fantasi begränsades av vad de hade lärt sig av personlig erfarenhet, de visste vad en dator var och det var svårt att föreställa sig vad en dator skulle kunna ha i framtiden. Samma sak händer nu med AI. Vi hörde att det kommer att bli en allvarlig sak, men eftersom vi ännu inte har stött på det ansikte mot ansikte och i allmänhet observerar vi ganska svaga manifestationer av AI i vår moderna värld, är det ganska svårt för oss att tro att det radikalt kommer att förändra vårt liv. Det är mot dessa fördomar som många experter från alla läger, liksom intresserade människor, är emot att försöka fånga vår uppmärksamhet genom bullret från vardaglig kollektiv egocentrism.

* Även om vi trodde på allt detta - hur många gånger idag har du tänkt på det faktum att du kommer att spendera resten av evigheten i ingenting? Lite, håller med. Även om detta faktum är mycket viktigare än något du gör dag ut och dag in. Detta beror på att våra hjärnor vanligtvis är fokuserade på små vardagliga saker, oavsett hur vanföreställande den långsiktiga situationen befinner oss i. Det är bara det att vi är skapade.

Ett av målen med den här artikeln är att få dig ur lägret som heter "Jag gillar att tänka på andra saker" och sätta dig i expertlägret, även om du bara står vid korsningen mellan de två prickade linjerna på torget ovan, helt osäker.

Under forskningens gång blir det uppenbart att de flesta människors åsikter snabbt driver mot "huvudlägret", och tre fjärdedelar av experterna faller i två underläger i huvudlägret.

Bild
Bild

Vi kommer att besöka båda dessa läger i sin helhet. Låt oss börja med kul.

Varför kan framtiden vara vår största dröm?

När vi utforskar AI -världen hittar vi förvånansvärt många människor i vår komfortzon. Människorna i det övre högra torget surrar av spänning. De tror att vi kommer att falla på den goda sidan av stocken, och de tror också att vi oundvikligen kommer att komma till detta. För dem är framtiden bara det bästa som bara kan drömmas om.

Poängen som skiljer dessa människor från andra tänkare är inte att de vill vara på den lyckliga sidan - utan att de är säkra på att det är hon som väntar på oss.

Detta förtroende kommer ur kontroverser. Kritiker tror att det kommer från en bländande spänning som överskuggar potentiella negativa sidor. Men förespråkarna säger att dystra förutsägelser alltid är naiva; tekniken fortsätter och kommer alltid att hjälpa oss mer än att skada oss.

Du är fri att välja någon av dessa åsikter, men lägg åt sidan skepsis och ta en bra titt på balansstrålens glada sida, försök att acceptera att allt du läser om redan kan ha hänt. Om du visade jägare -samlare vår värld av komfort, teknik och oändligt överflöd skulle det tyckas att det var en magisk fiktion - och vi beter oss ganska blygsamt och kan inte erkänna att samma oförstående förändring väntar oss i framtiden.

Nick Bostrom beskriver tre vägar som ett superintelligent AI -system kan ta:

* Ett orakel som kan svara på alla exakta frågor, inklusive svåra frågor som människor inte kan svara på - till exempel "hur man gör en bilmotor mer effektiv?" Google är en primitiv typ av "orakel".

* En snille som kommer att utföra alla kommandon på hög nivå - med hjälp av molekylär assembler för att skapa en ny, mer effektiv version av en bilmotor - och väntar på nästa kommando.

* En suverän som kommer att ha bred tillgång och förmåga att fungera fritt i världen, fatta egna beslut och förbättra processen. Han kommer att uppfinna ett billigare, snabbare och säkrare sätt för privat transport än en bil.

Dessa frågor och uppgifter, som verkar svåra för oss, kommer att verka för det superintelligenta systemet som om någon bad om att förbättra situationen "min penna föll av bordet", där du helt enkelt skulle ta upp den och lägga tillbaka den.

Eliezer Yudkowski, en amerikansk specialist på artificiell intelligens, uttryckte det väl:

”Det finns inga hårda problem, bara problem som är svåra för en viss intelligens. Gå ett steg högre (när det gäller intelligens), och vissa problem kommer plötsligt att flytta från kategorin "omöjligt" till lägret "uppenbart". Ett steg högre - och de kommer alla att bli uppenbara."

Det finns många otåliga forskare, uppfinnare och entreprenörer som har valt en zon med trygg komfort från vårt bord, men vi behöver bara en guide för att gå för de bästa i denna bästa värld.

Ray Kurzweil är tvetydig. Vissa avgudar hans idéer, andra föraktar honom. Vissa stannar i mitten - Douglas Hofstadter, som diskuterar idéerna i Kurzweils böcker, noterade vältaligt att "det är som om du tog mycket god mat och lite hundpall och sedan blandade allt på ett sådant sätt att det är omöjligt att förstå vad som är bra och vad som är dåligt."

Oavsett om du gillar hans idéer eller inte, är det omöjligt att passera dem utan en skugga av intresse. Han började uppfinna saker som tonåring, och under de följande åren uppfann han flera viktiga saker, inklusive den första flatbäddsskannern, den första skannern som konverterade text till tal, den välkända Kurzweil-musiksyntetiseraren (det första riktiga elektriska pianot) och den första kommersiellt framgångsrika taligenkännaren. Han är också författare till fem sensationella böcker. Kurzweil uppskattas för sina vågade förutsägelser, och hans meritlista är ganska bra - i slutet av 80 -talet, när Internet fortfarande var i sin linda, förutspådde han att webben skulle bli ett globalt fenomen vid 2000 -talet. Wall Street Journal kallade Kurzweil för ett "rastlöst geni", Forbes en "global tänkande maskin", Inc. Magazine - "Edisons rättmätiga arvinge", Bill Gates - "den bästa av dem som förutspår framtiden för artificiell intelligens." 2012 bjöd Googles medgrundare Larry Page in Kurzweil till CTO. 2011 grundade han Singularity University, som är värd för NASA och delvis sponsras av Google.

Hans biografi spelar roll. När Kurzweil berättar om sin framtidsvision låter det som en galet galning, men det riktigt galna med det är att han är långt ifrån galen - han är otroligt smart, utbildad och vettig person. Du kanske tror att han har fel i sina förutsägelser, men han är inte en dåre. Kurzweils förutsägelser delas av många komfortzonexperter, Peter Diamandis och Ben Herzel. Detta är vad han tror kommer att hända.

Kronologi

Kurzweil tror att datorer kommer att nå nivån för allmän artificiell intelligens (AGI) år 2029, och 2045 kommer vi inte bara att ha artificiell superintelligens, utan också en helt ny värld - tiden för den så kallade singulariteten. Dess kronologi av AI anses fortfarande vara skandalöst överdriven, men under de senaste 15 åren har den snabba utvecklingen av mycket fokuserade system för artificiell intelligens (AI) tvingat många experter att ställa sig vid Kurzweil. Hans förutsägelser är fortfarande mer ambitiösa än de i Bostroms undersökning (AGI 2040, ISI 2060), men inte så mycket.

Enligt Kurzweil drivs singulariteten 2045 av tre samtidiga revolutioner inom bioteknik, nanoteknik och, ännu viktigare, AI. Men innan vi fortsätter - och nanoteknik följer noga artificiell intelligens - låt oss ta en stund till nanoteknik.

Bild
Bild

Några ord om nanoteknik

Vi brukar kalla nanoteknologiteknik som hanterar manipulation av materia i intervallet 1-100 nanometer. En nanometer är en miljarddel av en meter, eller en miljonedel av en millimeter; inom intervallet 1-100 nanometer kan virus (100 nm i diameter), DNA (10 nm i bredd), hemoglobinmolekyler (5 nm), glukos (1 nm) och andra rymmas. Om nanoteknik någonsin blir föremål för oss, blir nästa steg att manipulera enskilda atomer som är mindre än en storleksordning (~, 1 nm).

För att förstå var människor stöter på problem som försöker manipulera materia i en sådan skala, låt oss hoppa till en större skala. Den internationella rymdstationen ligger 481 kilometer över jorden. Om människor var jättar och slog ISS med huvudet skulle de vara 250 000 gånger större än de är nu. Om du förstorar allt från 1 till 100 nanometer 250 000 gånger får du 2,5 centimeter. Nanoteknik är motsvarigheten till att en människa, som kretsar kring ISS, försöker manipulera saker i storleken på ett sandkorn eller en ögonglob. För att komma till nästa nivå - kontrollen av enskilda atomer - måste jätten noggrant placera föremål med en diameter på 1/40 millimeter. Vanliga människor behöver ett mikroskop för att se dem.

För första gången talade Richard Feynman om nanoteknik 1959. Sedan sade han:”Fysikens principer talar såvitt jag kan säga inte mot möjligheten att kontrollera saker atom för atom. I princip kan en fysiker syntetisera alla kemikalier som en kemist har skrivit ner. Hur? Genom att placera atomer där kemisten säger att få ämnet. Detta är hela enkelheten. Om du vet hur du flyttar enskilda molekyler eller atomer kan du göra nästan vad som helst.

Nanoteknologi blev ett allvarligt vetenskapligt område 1986 när ingenjören Eric Drexler presenterade sina grunder i sin spännande bok Machines of Creation, men Drexler själv anser att de som vill lära sig mer om moderna idéer inom nanoteknik bör läsa hans bok från 2013. Full överflöd (Radical) Överflöd).

Några ord om "grey goo"

Vi går djupare in i nanoteknik. I synnerhet är ämnet "grey goo" ett av de inte särskilt trevliga ämnena inom området nanoteknik, som inte kan ignoreras. Äldre versioner av teorin om nanoteknik föreslog en nano-monteringsmetod som involverade skapandet av biljoner små nanoroboter som skulle arbeta tillsammans för att skapa något. Ett sätt att skapa biljoner nanoroboter är att skapa en som kan replikera sig själv, det vill säga från en till två, från två till fyra, och så vidare. Flera biljoner nanoroboter kommer att dyka upp på en dag. Detta är kraften i exponentiell tillväxt. Roligt, eller hur?

Det är roligt, men exakt tills det leder till apokalypsen. Problemet är att kraften i exponentiell tillväxt, vilket gör det till ett ganska bekvämt sätt att snabbt skapa biljoner nanoboter, gör självreplikation till en skrämmande sak i längden. Vad händer om systemet kraschar, och i stället för att stoppa replikering för ett par biljoner, fortsätter nanoboter att föda upp? Vad händer om hela processen beror på kol? Jordens biomassa innehåller 10 ^ 45 kolatomer. En nanobot bör vara i storleksordningen 10 ^ 6 kolatomer, så 10 ^ 39 nanoboter kommer att sluka allt liv på jorden i bara 130 replikationer. Ett hav av nanoboter ("grå goo") kommer att översvämma planeten. Forskare tror att nanoboter kan replikera på 100 sekunder, vilket innebär att ett enkelt misstag kan döda allt liv på jorden på bara 3,5 timmar.

Det kan vara ännu värre - om terrorister och ogynnsamma specialister når händerna på nanoteknik. De kan skapa flera biljoner nanoboter och programmera dem att tyst sprida sig över världen på ett par veckor. Sedan, med en knapptryckning, på bara 90 minuter kommer de att äta allt alls, utan chans.

Även om denna skräckhistoria har diskuterats i många år, är den goda nyheten att det bara är en skräckhistoria. Eric Drexler, som myntade termen "grey goo", sa nyligen följande: "Folk älskar skräckhistorier, och det här är en av zombie -skräckhistorierna. Denna idé i sig äter redan hjärnor."

När vi väl kommit till botten med nanotekniken kan vi använda den för att skapa tekniska apparater, kläder, mat, bioprodukter - blodkroppar, virus- och cancerbekämpare, muskelvävnad, och så vidare - vad som helst. Och i en värld som använder nanoteknik kommer kostnaden för ett material inte längre att vara knuten till dess knapphet eller komplexiteten i dess tillverkningsprocess, utan snarare till komplexiteten i dess atomstruktur. I nanoteknologins värld kan en diamant vara billigare än ett suddgummi.

Vi har inte ens nära där än. Och det är inte helt klart om vi underskattar eller överskattar komplexiteten på denna väg. Allt går dock till den grad att nanoteknik inte är långt borta. Kurzweil antar att vi kommer att ha dem till 2020 -talet. Världsstaterna vet att nanoteknik kan lova en stor framtid, och därför investerar de många miljarder i dem.

Tänk bara vilka möjligheter en superintelligent dator skulle få om den kom till en pålitlig nanoskala -montör. Men nanoteknik är vår idé, och vi försöker åka den, det är svårt för oss. Tänk om de bara är ett skämt för ISI -systemet, och ISI själv kommer med tekniker som kommer att vara många gånger kraftfullare än något som vi i princip kan anta? Vi kom överens: ingen kan föreställa sig vad artificiell superintelligens kommer att kunna? Man tror att våra hjärnor inte kan förutsäga ens det minsta av vad som kommer att hända.

Vad kan AI göra för oss?

Bild
Bild

Beväpnad med superintelligens och all teknik som superintelligens kan skapa kommer ISI förmodligen att kunna lösa alla mänsklighetens problem. Global uppvärmning? ISI kommer först att stoppa koldioxidutsläppen genom att uppfinna en mängd effektiva sätt att generera energi som inte är relaterade till fossila bränslen. Han kommer sedan med ett effektivt, innovativt sätt att ta bort överskott av koldioxid från atmosfären. Cancer och andra sjukdomar? Inga problem - sjukvård och medicin kommer att förändras på ett sätt som är ofattbart. Världshunger? ISI kommer att använda nanoteknik för att skapa kött som är identiskt med naturligt, från grunden, riktigt kött.

Nanoteknik kommer att kunna förvandla en hög med sopor till en kärl med färskt kött eller annan mat (inte nödvändigtvis ens i sin vanliga form - tänk dig en gigantisk äppelkub) och distribuera all denna mat runt om i världen med hjälp av avancerade transportsystem. Naturligtvis kommer detta att vara bra för djur som inte längre behöver dö för mat. ISI kan också göra många andra saker, som att bevara hotade arter, eller till och med ta tillbaka utdöda från lagrat DNA. ISI kan lösa våra svåraste makroekonomiska problem - våra svåraste ekonomiska debatter, etiska och filosofiska frågor, global handel - allt detta kommer att vara smärtsamt uppenbart för ISI.

Men det är något mycket speciellt som ISI kan göra för oss. Lockande och lockande som skulle förändra allt: ISI kan hjälpa oss att hantera dödligheten … Gradvis förstå AI: s möjligheter, kanske du kommer att ompröva alla dina idéer om döden.

Det fanns ingen anledning för evolution att förlänga vår livslängd längre än den gör nu. Om vi lever tillräckligt länge för att föda och uppfostra barn till en punkt där de kan klara sig själva, är evolutionen tillräckligt. Ur en evolutionär synvinkel räcker 30+ år för utveckling, och det finns ingen anledning för mutationer att förlänga livet och minska värdet av naturligt urval. William Butler Yates kallade vår art "en själ som är knuten till ett döende djur". Inte mycket kul.

Och eftersom vi alla dör någon gång, lever vi med tanken att döden är oundviklig. Vi tänker på åldrande över tiden - fortsätter att gå framåt och inte kunna stoppa denna process. Men tanken på döden är förrädisk: fångad av den glömmer vi att leva. Richard Feynman skrev:

”Det finns en underbar sak i biologin: det finns ingenting i den här vetenskapen som talar om att döden är nödvändig. Om vi vill skapa en evig rörelsemaskin inser vi att vi har hittat tillräckligt många lagar i fysiken som antingen indikerar omöjligheten av detta, eller att lagarna är felaktiga. Men det finns inget i biologin som skulle tyda på dödens oundviklighet. Detta får mig att tro att det inte är så oundvikligt, och det är bara en tidsfråga innan biologer upptäcker orsaken till detta problem, denna fruktansvärda universella sjukdom, det kommer att botas."

Faktum är att åldrande inte har något att göra med tiden. Åldring är när kroppens fysiska material slits ut. Bildelar försämras också - men är åldrande oundvikligt? Om du reparerar din bil när delarna slits ut kommer den att vara för evigt. Människokroppen är inte annorlunda - bara mer komplex.

Kurzweil talar om intelligenta, Wi-Fi-anslutna nanoboter i blodomloppet som kan utföra otaliga uppgifter för människors hälsa, inklusive att regelbundet reparera eller byta ut slitna celler var som helst i kroppen. Att förbättra denna process (eller hitta ett alternativ som föreslås av en smartare ASI) kommer inte bara att hålla kroppen frisk, det kan vända åldrandet. Skillnaden mellan kroppen av en 60-åring och en 30-åring är en handfull fysiska problem som kan korrigeras med rätt teknik. ISI kan bygga en bil som en person skulle gå in i när de är 60 år och lämna när de är 30 år.

Även en försämrad hjärna kan förnyas. ISI skulle säkert veta hur man gör detta utan att påverka hjärndata (personlighet, minnen etc.). En 90-årig man som lider av fullständig hjärnförstöring kan genomgå omskolning, förnyelse och återgång till början av sitt liv. Det kan verka absurt, men kroppen är en handfull atomer, och ISI kan säkert enkelt manipulera dem, alla atomstrukturer. Det är inte så absurt.

Kurzweil tror också att konstgjorda material kommer att integreras mer och mer i kroppen när tiden går. Till en början kan organen ersättas med super avancerade maskinversioner som skulle vara för evigt och aldrig misslyckas. Då skulle vi kunna göra en helt ny kroppsdesign, ersätta röda blodkroppar med perfekta nanoboter som rör sig på egen hand, vilket eliminerar behovet av ett hjärta helt och hållet. Vi kan också förbättra våra kognitiva förmågor, börja tänka miljarder gånger snabbare och få tillgång till all information som är tillgänglig för mänskligheten genom molnet.

Möjligheterna att förstå nya horisonter skulle verkligen vara oändliga. Människor har lyckats förse sex med ett nytt syfte, de gör det för nöjes skull, inte bara för reproduktion. Kurzweil tror att vi kan göra detsamma med mat. Nanobots kan leverera perfekt näring direkt till kroppens celler, så att ohälsosamma ämnen kan passera genom kroppen. Nanoteknikteoretikern Robert Freitas har redan utvecklat en ersättare för blodkroppar, som, när den implementeras i människokroppen, kan tillåta honom att inte andas i 15 minuter - och detta uppfanns av en person. Tänk när ISI kommer att få makt.

När allt kommer omkring tror Kurzweil att människor kommer att nå den punkt där de blir helt artificiella; tiden då vi tittar på biologiska material och tänker på hur primitiva de var; tid då vi kommer att läsa om de tidiga stadierna i mänsklighetens historia, förvånad över hur bakterier, olyckor, sjukdomar eller helt enkelt ålderdom kan döda en person mot hans vilja. I slutändan kommer människor att besegra sin egen biologi och bli eviga - detta är vägen till den glada sidan av balansstrålen som vi har pratat om från början. Och människor som tror på detta är också säkra på att en sådan framtid väntar oss väldigt, väldigt snart.

Du kommer nog inte att bli förvånad över att Kurzweils idéer har väckt stark kritik. Dess singularitet 2045 och det efterföljande eviga livet för människor kallades "nerdarnas uppstigning" eller "intelligent skapande av människor med en IQ på 140". Andra ifrågasatte den optimistiska tidsramen, förståelsen av människokroppen och hjärnan, påminde om Moores lag, som inte har försvunnit än. För varje expert som tror på Kurzweils idéer är det tre som tror att han har fel.

Men det mest intressanta med detta är att de flesta experter som inte håller med honom på det stora hela inte säger att detta är omöjligt. Istället för att säga "bullshit, this will never happen", säger de något i stil med "allt detta kommer att hända om vi kommer till ISI, men det här är problemet." Bostrom, en av de hyllade AI -experterna som varnar för AI -faror, erkänner också:

”Det finns knappt några problem kvar som superintelligens inte kan lösa, eller ens hjälpa oss att lösa. Sjukdom, fattigdom, miljöförstörelse, lidande av alla slag - allt detta superintelligens med hjälp av nanoteknik kan lösa på ett ögonblick. Superintelligens kan också ge oss obegränsad livslängd genom att stoppa och vända åldringsprocessen med hjälp av nanomedicin eller möjligheten att ladda upp oss till molnet. Superintelligens kan också skapa möjligheter för oändliga ökningar av intellektuella och känslomässiga förmågor; han kan hjälpa oss att skapa en värld där vi kommer att leva i glädje och förståelse, närma oss våra ideal och regelbundet få våra drömmar att gå i uppfyllelse."

Detta är dock ett citat från en av Kurzweils kritiker, som medger att allt detta är möjligt om vi kan skapa ett säkert ASI. Kurzweil definierade helt enkelt vad artificiell superintelligens ska bli, om det alls är möjligt. Och om han är en bra gud.

Den mest uppenbara kritiken mot komfortzonens förespråkare är att de kan bli förbannade fel när de bedömer ISI: s framtid. I sin bok The Singularity ägnade Kurzweil 20 sidor av 700 potentiella ISI -hot. Frågan är inte när vi kommer till ISI, frågan är vad som kommer att vara dess motivation. Kurzweil besvarar denna fråga med försiktighet:”ISI härrör från många olika ansträngningar och kommer att integreras djupt i infrastrukturen i vår civilisation. Faktum är att den kommer att vara tätt inbäddad i vår kropp och hjärna. Han kommer att återspegla våra värderingar eftersom han kommer att vara ett med oss."

Men om svaret är, varför är så många smarta människor i denna värld oroliga för framtiden för artificiell intelligens? Varför säger Stephen Hawking att utvecklingen av ISI "kan innebära slutet för den mänskliga rasen"? Bill Gates säger att han "inte förstår människor som inte stör" om det. Elon Musk fruktar att vi "kallar till en demon". Varför anser många experter att ISI är det största hotet mot mänskligheten?

Vi kommer att prata om detta nästa gång.

Rekommenderad: