Intel · ligència artificial. Segona part: extinció o immortalitat?

Taula de continguts:

Intel · ligència artificial. Segona part: extinció o immortalitat?
Intel · ligència artificial. Segona part: extinció o immortalitat?

Vídeo: Intel · ligència artificial. Segona part: extinció o immortalitat?

Vídeo: Intel · ligència artificial. Segona part: extinció o immortalitat?
Vídeo: 6 июня 1944 г., день «Д», операция «Оверлорд» | Раскрашенный 2024, Abril
Anonim
Intel · ligència artificial. Segona part: extinció o immortalitat?
Intel · ligència artificial. Segona part: extinció o immortalitat?

Before you és la segona part d'un article de la sèrie "Espera, com tot això pot ser real, per què encara no es parla a tots els racons". A la sèrie anterior, es va saber que una explosió d’intel·ligència s’està introduint gradualment cap a la gent del planeta Terra, que intenta desenvolupar des de la intel·ligència estretament enfocada fins a la universal i, finalment, la superintel·ligència artificial.

"Potser ens trobem davant d'un problema extremadament difícil i no se sap quant de temps es dedica a la seva solució, però el futur de la humanitat pot dependre de la seva solució". - Nick Bostrom.

La primera part de l'article va començar prou innocentment. Vam discutir la intel·ligència artificial enfocada estretament (IA, especialitzada en resoldre un problema específic com determinar rutes o jugar a escacs), al nostre món n’hi ha molta. Després van analitzar per què és tan difícil créixer la intel·ligència artificial direccional general (AGI, o IA, que, en termes de capacitats intel·lectuals, es pot comparar amb un ésser humà per resoldre qualsevol problema), és tan difícil. Vam concloure que la taxa exponencial d’avanç tecnològic fa pensar que AGI pot estar a la volta de la cantonada ben aviat. Al final, vam decidir que tan aviat com les màquines arribessin a la intel·ligència humana, podrien passar de seguida:

Imatge
Imatge
Imatge
Imatge
Imatge
Imatge
Imatge
Imatge

Com és habitual, mirem la pantalla sense creure que la superintel·ligència artificial (ISI, que és molt més intel·ligent que qualsevol persona) pugui aparèixer durant la nostra vida, i escollim emocions que millor reflectissin la nostra opinió sobre aquest tema.

Abans d’endinsar-nos en els detalls específics de l’ISI, recordem-nos què significa que una màquina sigui superintel·ligent.

La principal diferència rau entre la superintel·ligència ràpida i la superintel·ligència de qualitat. Sovint, el primer que ens ve al cap quan es pensa en un ordinador superintel·ligent és que pot pensar molt més ràpid que una persona, milions de vegades més ràpid, i en cinc minuts comprèn el que trigaria deu anys a una persona. ("Conec el kung fu!")

Sona impressionant i l’ISI hauria de pensar més ràpidament que qualsevol de les persones, però la principal característica de separació serà la qualitat de la seva intel·ligència, que és completament diferent. Els humans som molt més intel·ligents que els micos, no perquè pensin més de pressa, sinó perquè el seu cervell conté una sèrie de mòduls cognitius enginyosos que duen a terme complexes representacions lingüístiques, planificació a llarg termini i pensament abstracte, dels quals els micos no són capaços. Si accelereu el cervell d'un mico mil vegades, no serà més intel·ligent que nosaltres; ni tan sols al cap de deu anys no podrà muntar un constructor segons les instruccions, que trigarien un parell d'hores com a màxim a una persona. Hi ha coses que un mico mai no aprendrà, per moltes hores que passi o per la rapidesa amb què funciona el seu cervell.

A més, el mico no sap amb quina humanitat, perquè el seu cervell simplement no és capaç d’adonar-se de l’existència d’altres mons; és possible que el mico sàpiga què és una persona i què és un gratacel, però mai no entendrà que un gratacel va ser construït per gent. Al seu món, tot pertany a la natura, i el macac no només no pot construir un gratacels, sinó que també entén que qualsevol pot construir-lo. I això és el resultat d’una petita diferència en la qualitat de la intel·ligència.

En l’esquema general d’intel·ligència del qual parlem, o simplement segons els estàndards dels éssers biològics, la diferència en la qualitat de la intel·ligència entre els humans i els micos és petita. A l’article anterior, vam situar les capacitats cognitives biològiques en una escala:

Imatge
Imatge

Per entendre el grau de serietat d’una màquina superintel·ligent, col·loqueu-la dues escales més alta que la persona que hi ha en aquesta escala. És possible que aquesta màquina sigui una mica superintel·ligent, però la seva superioritat sobre les nostres capacitats cognitives serà la mateixa que la nostra, sobre els micos. I de la mateixa manera que un ximpanzé no entendrà mai que es pugui construir un gratacel, mai no entendrem què entendrà una màquina un parell de passos més alta, encara que la màquina ens ho expliqui. Però això és només un parell de passos. La màquina més intel·ligent veurà formigues en nosaltres: ens ensenyarà les coses més senzilles des de la seva posició durant anys i aquests intents seran completament desesperants.

El tipus de superintel·ligència de què parlarem avui està molt més enllà d’aquesta escala. Es tracta d’una explosió d’intel·ligència: quan un cotxe es fa més intel·ligent, més ràpid pot augmentar la seva pròpia intel·ligència, augmentant gradualment l’impuls. Una màquina com aquesta pot trigar anys a superar els ximpanzés en intel·ligència, però potser un parell d’hores a superar-nos per un parell d’escales. A partir d’aquest moment, el cotxe ja pot saltar més de quatre graons cada segon. És per això que hem d’entendre que ben aviat després que apareguin les primeres notícies que la màquina ha assolit el nivell d’intel·ligència humana, podem afrontar la realitat de la convivència a la Terra amb alguna cosa que serà molt més alta que nosaltres en aquesta escala (o potser, i milions de vegades superior):

Imatge
Imatge

I ja que hem constatat que és completament inútil intentar entendre la potència d’una màquina que està només a dos passos per sobre de nosaltres, definim d’una vegada per totes que no hi ha manera d’entendre què farà l’ISI i quines seran les conseqüències de això serà per a nosaltres. Qualsevol que afirma el contrari simplement no entén què significa superintel·ligència.

L’evolució ha evolucionat lentament i gradualment el cervell biològic durant centenars de milions d’anys i, si els humans creen una màquina superintel·ligent, en cert sentit transcendirem l’evolució. O formarà part de l’evolució; potser l’evolució funciona de manera que la intel·ligència es desenvolupa gradualment fins arribar a un punt d’inflexió que anuncia un nou futur per a tots els éssers vius:

Imatge
Imatge

Per raons que discutirem més endavant, una gran part de la comunitat científica creu que la qüestió no és si arribarem a aquest punt d'inflexió, sinó quan.

On acabem després d’això?

Crec que ningú en aquest món, ni jo ni tu, serem capaços de dir què passarà quan arribem al punt d'inflexió. El filòsof d'Oxford i principal teòric de la IA Nick Bostrom creu que podem resumir tots els resultats possibles en dues grans categories.

En primer lloc, mirant la història, sabem el següent sobre la vida: les espècies apareixen, existeixen durant un temps determinat i, després, inevitablement cauen de la barra d’equilibri i desapareixen.

Imatge
Imatge

"Totes les espècies moren" ha estat una norma tan fiable en la història com "totes les persones moren algun dia". El 99,9% de les espècies han caigut d’un registre de la vida i és clar que si una espècie penja en aquest registre durant massa temps, una ràfega de vent natural o un asteroide sobtat capgiraran el registre. Bostrom anomena extinció l’estat d’un atractor: un lloc on totes les espècies s’equilibren per no caure on encara no hi ha tornat cap espècie.

I, tot i que la majoria dels científics admeten que l’ISI tindrà la capacitat de condemnar les persones a l’extinció, molts també creuen que l’ús de les capacitats d’ISI permetrà als individus (i a l’espècie en general) assolir el segon estat de la immortalitat de l’espècie atractora. Bostrom creu que la immortalitat d’una espècie és tan atractiva com l’extinció d’una espècie, és a dir, si arribem a això, estarem condemnats a l’existència eterna. Així, fins i tot si totes les espècies fins ara caiguessin d’aquest pal a la voràgine de l’extinció, Bostrom creu que el registre té dues cares i que simplement no apareixia a la Terra una intel·ligència que entengués com caure a l’altre costat.

Imatge
Imatge

Si Bostrom i altres tenen raó i, a jutjar per tota la informació que tenim a l’abast, pot ser que ho siguin, hem d’acceptar dos fets molt impactants:

L’aparició de l’ISI per primera vegada a la història obrirà el camí a una espècie per aconseguir la immortalitat i sortir del cicle fatal d’extinció.

L’aparició de l’ISI tindrà un impacte tan inimaginable que, amb tota probabilitat, farà que la humanitat s’allunyi d’aquest registre en una o altra direcció.

És possible que quan l’evolució assoleixi aquest punt d’inflexió, sempre posi fi a la relació de les persones amb el corrent de la vida i creï un món nou, amb o sense persones.

Això condueix a una pregunta interessant que només un ximple no es faria: quan arribarem a aquest punt d'inflexió i on ens situarà? Ningú al món no sap la resposta a aquesta doble pregunta, però molta gent intel·ligent ha intentat esbrinar-la durant dècades. Per a la resta de l'article, esbrinarem d'on han sortit.

* * *

Comencem per la primera part d'aquesta pregunta: quan hem d'arribar al punt d'inflexió? En altres paraules: quant de temps queda fins que la primera màquina arriba a la superintel·ligència?

Les opinions varien segons els casos. Molts, inclòs el professor Vernor Vinge, el científic Ben Herzel, el cofundador de Sun Microsystems, Bill Joy, el futurista Ray Kurzweil, van coincidir amb l'expert en aprenentatge automàtic Jeremy Howard quan va presentar el següent gràfic a TED Talk:

Imatge
Imatge

Aquesta gent comparteix la opinió que ISI arribarà aviat: aquest creixement exponencial, que avui ens sembla lent, explotarà literalment en les properes dècades.

Altres, com el cofundador de Microsoft, Paul Allen, el psicòleg investigador Gary Marcus, l'expert en informàtica Ernest Davis i l'empresari tecnològic Mitch Kapor, creuen que pensadors com Kurzweil subestimen seriosament la magnitud del problema i pensen que no som gairebé tan propers a punt d'inflexió.

El camp de Kurzweil argumenta que l'única subestimació que es produeix és la desconsideració del creixement exponencial, i els dubtadors es poden comparar amb aquells que van mirar la lent creixement d'Internet el 1985 i van argumentar que no tindria cap impacte en el món en un futur proper.

Els dubtes poden defensar-se que és més difícil que el progrés faci cada pas posterior pel que fa al desenvolupament exponencial de la intel·ligència, que neutralitza la naturalesa exponencial típica del progrés tecnològic. Etc.

El tercer campament, en què es troba Nick Bostrom, no està d'acord ni amb el primer ni amb el segon, argumentant que a) tot això pot passar absolutament en un futur proper; i b) no hi ha cap garantia que això passi o que trigarà més.

Altres, com el filòsof Hubert Dreyfus, creuen que els tres grups creuen ingènuament que hi haurà un punt d'inflexió i que probablement mai arribarem a ISI.

Què passa quan combinem totes aquestes opinions?

El 2013, Bostrom va dur a terme una enquesta en què va entrevistar centenars d’experts en IA en una sèrie de conferències sobre el tema següent: "Quines seran les vostres prediccions per aconseguir AGI a nivell humà?" i ens va demanar que nomenéssim un any optimista (en el qual tindrem AGI amb un 10% de probabilitats), un supòsit realista (un any en què tindrem AGI amb una probabilitat del 50%) i un supòsit segur (el primer any en què AGI apareixerà des de la probabilitat del 90%). Aquests són els resultats:

* Any optimista mitjà (10%): 2022

* Any realista mitjà (50%): 2040

* Any pessimista mitjà (90%): 2075

La mitjana d’enquestats creu que d’aquí a 25 anys tindrem AGI més que no. Un 90% de probabilitats que es produeixi AGI el 2075 significa que si encara sou bastant jove, probablement passarà durant la vostra vida.

Un estudi separat realitzat recentment per James Barratt (autor de l’aclamat i molt bo llibre Our Latest Invention, extractes de Vaig presentar a l'atenció dels lectors Hola-News.ru) i Ben Hertzel a la Conferència AGI, la Conferència anual AGI, simplement van mostrar les opinions de la gent sobre l'any en què arribem a AGI: 2030, 2050, 2100, més tard o mai. Aquests són els resultats:

* 2030: 42% dels enquestats

* 2050: 25%

* 2100: 20%

Després del 2100: 10%

Mai: 2%

Semblant als resultats de Bostrom. A l'enquesta de Barratt, més de dos terços dels enquestats creuen que AGI serà aquí el 2050 i menys de la meitat creuen que AGI apareixerà en els propers 15 anys. També crida l’atenció que només el 2% dels enquestats, en principi, no veu AGI en el nostre futur.

Però AGI no és un punt d'inflexió com l'ISI. Quan, segons els experts, tindrem un ISI?

Bostrom va preguntar als experts quan arribarem a ASI: a) dos anys després d'arribar a AGI (és a dir, gairebé a l'instant a causa d'una explosió d'intel·ligència); b) després de 30 anys. Resultats?

L’opinió mitjana és que la ràpida transició d’AGI a ISI es produirà amb una probabilitat del 10%, però en 30 anys o menys es produirà amb una probabilitat del 75%.

A partir d’aquestes dades, no sabem a quina data els enquestats anomenarien una probabilitat del 50% de l’ASI, però, segons les dues respostes anteriors, suposem que són 20 anys. És a dir, els principals experts mundials en IA creuen que el punt d’inflexió arribarà el 2060 (AGI apareixerà el 2040 + passaran 20 anys per a la transició d’AGI a ISI).

Imatge
Imatge

Per descomptat, totes les estadístiques anteriors són especulatives i simplement representen l’opinió d’experts en el camp de la intel·ligència artificial, però també indiquen que la majoria de les persones interessades coincideixen a dir que el 2060 és probable que arribi la IA. En només 45 anys.

Passem a la segona pregunta. Quan arribem al punt d'inflexió, quin costat de l'elecció fatal ens determinarà?

La superintel·ligència tindrà el poder més poderós i la qüestió crítica per a nosaltres serà la següent:

Qui o què controlarà aquest poder i quina serà la seva motivació?

La resposta a aquesta pregunta dependrà de si l’ISI obté un desenvolupament increïblement potent, un desenvolupament incommensurablement terrorífic o alguna cosa entremig.

Per descomptat, la comunitat d’experts també intenta respondre aquestes preguntes. L'enquesta de Bostrom va analitzar la probabilitat de possibles conseqüències de l'impacte d'AGI sobre la humanitat i va resultar que amb un 52% de probabilitats tot aniria molt bé i amb un 31% de possibilitats que tot anés malament o extremadament malament. L'enquesta adjunta al final de la part anterior d'aquest tema, realitzada entre vosaltres, estimats lectors de Hi-News, va mostrar els mateixos resultats. Per a un resultat relativament neutral, la probabilitat només va ser del 17%. En altres paraules, tots creiem que AGI serà un gran problema. També val la pena assenyalar que aquesta enquesta es refereix a l’aparició d’AGI: en el cas d’ISI, el percentatge de neutralitat serà inferior.

Abans d’aprofundir en la reflexió sobre els bons i els mals aspectes de la pregunta, combinem els dos costats de la pregunta: "quan passarà això?" i "és bo o dolent?" en una taula que recull les opinions de la majoria dels experts.

Imatge
Imatge

En un minut parlarem del campament principal, però primer decidiu la vostra posició. El més probable és que estigueu al mateix lloc que jo abans de començar a treballar en aquest tema. Hi ha diversos motius pels quals la gent no pensa gens en aquest tema:

* Com es va esmentar a la primera part, les pel·lícules han confós seriosament persones i fets, presentant escenaris poc realistes amb intel·ligència artificial, cosa que va conduir al fet que no s’hagués de prendre gens seriosament la IA. James Barratt va comparar aquesta situació amb la publicada pels Centres per al Control de Malalties (CDC) amb una seriosa advertència sobre els vampirs en el nostre futur.

* A causa dels anomenats biaixos cognitius, ens és molt difícil creure que alguna cosa sigui real fins que no tinguem proves. Es pot imaginar amb confiança els informàtics del 1988 que discutien regularment sobre les conseqüències de gran abast d’Internet i en què podria esdevenir, però la gent gairebé no creia que canviaria les seves vides fins que realment passés. És que els ordinadors no sabien fer-ho el 1988 i la gent només mirava els ordinadors i pensava: “De debò? És això el que canviarà el món? La seva imaginació estava limitada pel que havien après de l’experiència personal, sabien què era un ordinador i era difícil imaginar de què seria capaç un ordinador en el futur. Ara passa el mateix amb la IA. Hem escoltat que esdevindrà una cosa seriosa, però com que encara no l’hem trobat cara a cara i, en general, observem manifestacions més aviat febles de la IA al nostre món modern, ens és difícil creure que radicalment canviar la nostra vida. És contra aquests prejudicis que nombrosos experts de tots els camps, així com persones interessades, s’oposen a intentar captar la nostra atenció a través del soroll de l’egocentrisme col·lectiu quotidià.

* Fins i tot si creiem en tot això, quantes vegades avui heu pensat en el fet que passareu la resta de l’eternitat en el no-res? Una mica, d'acord. Fins i tot si aquest fet és molt més important que qualsevol cosa que feu dia a dia. Això es deu al fet que els nostres cervells se solen centrar en coses petites i quotidianes, per molt delirant que sigui la situació a llarg termini en què ens trobem. És que estem fets.

Un dels objectius d’aquest article és fer-vos fora del campament anomenat "M’agrada pensar en altres coses" i situar-vos al camp d’experts, fins i tot si només esteu a la cruïlla entre les dues línies de punts de la plaça per sobre, completament indecís.

En el curs de la investigació, es fa obvi que les opinions de la majoria de la gent es desvien ràpidament cap al "camp principal" i que tres quartes parts dels experts es troben en dos subcamps del camp principal.

Imatge
Imatge

Visitarem tots dos camps completament. Comencem per diversió.

Per què el futur podria ser el nostre major somni?

Mentre explorem el món de la IA, trobem sorprenentment moltes persones a la nostra zona de confort. Les persones de la casella superior dreta bullen d’emoció. Creuen que caurem en el bon costat del registre i també creuen que inevitablement hi arribarem. Per a ells, el futur és només el millor que només es pot somiar.

El punt que distingeix aquestes persones d'altres pensadors no és que vulguin estar en el costat feliç, sinó que estan segurs que és ella qui ens espera.

Aquesta confiança surt de la controvèrsia. Els crítics creuen que prové d’una emocionant enlluernadora que enfosqueix els possibles bàndols negatius. Però els defensors diuen que les prediccions ombrívoles sempre són ingènues; la tecnologia continua i sempre ens ajudarà més que perjudicar-nos.

Podeu triar qualsevol d’aquestes opinions, però deixeu de banda l’escepticisme i mireu bé el costat feliç del balanç, intentant acceptar el fet que tot el que llegiu potser ja ha passat. Si ensenyéssiu als caçadors-recol·lectors el nostre món de comoditat, tecnologia i infinita abundància, els semblaria una ficció màgica, i ens comportem amb molta modèstia, incapaços d’admetre que la mateixa transformació incomprensible ens espera en el futur.

Nick Bostrom descriu tres camins que pot prendre un sistema d’intel·ligència artificial superintel·ligent:

* Un oracle que pot respondre a qualsevol pregunta exacta, incloses les preguntes difícils que els humans no poden respondre, per exemple, "com fer que el motor d'un cotxe sigui més eficient?" Google és un tipus primitiu d '"oracle".

* Un follet que executarà qualsevol ordre d’alt nivell (mitjançant un muntador molecular per crear una nova versió més eficient d’un motor d’automòbil) i que esperarà la següent ordre.

* Un sobirà que tindrà un ampli accés i la capacitat de funcionar lliurement al món, prenent les seves pròpies decisions i millorant el procés. Inventarà una forma de transport privat més barata, ràpida i segura que un cotxe.

Aquestes preguntes i tasques, que ens semblen difícils, semblaran al sistema superintel·ligent com si algú demanés millorar la situació "el meu llapis va caure de la taula", en què simplement el recolliríeu i el tornaríeu a posar.

Eliezer Yudkowski, un especialista nord-americà en intel·ligència artificial, ho va dir bé:

“No hi ha problemes durs, només problemes difícils per a un cert nivell d'intel·ligència. Aneu un pas més amunt (en termes d'intel·ligència) i alguns problemes passaran de sobte de la categoria d '"impossibles" al camp de "obvis". Un pas més amunt, i seran evidents ".

Hi ha molts científics, inventors i empresaris impacients que han escollit una zona de confort confiat de la nostra taula, però només necessitem una guia per caminar al millor d’aquest món.

Ray Kurzweil és ambigu. Alguns idolatren les seves idees, d’altres el menyspreen. Alguns es queden al mig: Douglas Hofstadter, discutint les idees dels llibres de Kurzweil, va assenyalar eloqüentment que "és com si prenguessis molt de bon menjar i una mica de caca de gos, i després ho barregessis tot de manera que sigui impossible d'entendre què és bo i què és dolent ".

Tant si us agraden les seves idees com si no, és impossible passar-les sense una ombra d’interès. Va començar a inventar coses quan era adolescent i, en els anys següents, va inventar diverses coses importants, inclòs el primer escàner de plataforma plana, el primer escàner que va convertir text a veu, el conegut sintetitzador de música Kurzweil (el primer piano elèctric real) i el primer reconeixedor de veu amb èxit comercial. També és autor de cinc llibres sensacionals. Kurzweil és apreciat per les seves audaces prediccions i la seva trajectòria és bastant bona: a finals dels anys 80, quan Internet encara estava en la seva infantesa, va predir que a la dècada de 2000 la xarxa es convertiria en un fenomen global. El Wall Street Journal va anomenar Kurzweil un "geni inquiet", Forbes una "màquina de pensar global", Inc. Magazine - "L'hereu legítim d'Edison", Bill Gates - "el millor dels que prediuen el futur de la intel·ligència artificial". El 2012, el cofundador de Google, Larry Page, va convidar Kurzweil al càrrec de CTO. El 2011, va cofundar la Singularity University, allotjada per la NASA i en part patrocinada per Google.

La seva biografia importa. Quan Kurzweil parla de la seva visió del futur, sembla una bogeria boja, però el que és realment boig és que està lluny de ser boig: és una persona increïblement intel·ligent, educada i sana. Podeu pensar que s’equivoca en les seves prediccions, però no és un ximple. Les prediccions de Kurzweil són compartides per molts experts en zones de confort, Peter Diamandis i Ben Herzel. Això és el que creu que passarà.

Cronologia

Kurzweil creu que els ordinadors assoliran el nivell d’intel·ligència artificial general (AGI) el 2029 i, el 2045, no només tindrem superintel·ligència artificial, sinó també un món completament nou: l’època de l’anomenada singularitat. La seva cronologia de la IA encara es considera escandalosament exagerada, però en els darrers 15 anys, el ràpid desenvolupament de sistemes d’intel·ligència artificial (IA) molt enfocats ha obligat molts experts a posar-se al costat de Kurzweil. Les seves prediccions són encara més ambicioses que les de l'enquesta de Bostrom (AGI el 2040, ISI el 2060), però no gaire.

Segons Kurzweil, la singularitat del 2045 està sent impulsada per tres revolucions simultànies en biotecnologia, nanotecnologia i, el que és més important, en IA. Però abans de continuar, i la nanotecnologia segueix de prop la intel·ligència artificial, dediquem-nos un moment a la nanotecnologia.

Imatge
Imatge

Unes paraules sobre nanotecnologia

Normalment anomenem tecnologies de nanotecnologia que s’ocupen de la manipulació de la matèria entre 1 i 100 nanòmetres. Un nanòmetre és la mil·lèsima part del metre o la milionèsima part del mil·límetre; dins del rang d’1-100 nanòmetres, es poden allotjar virus (100 nm de diàmetre), ADN (10 nm d’amplada), molècules d’hemoglobina (5 nm), glucosa (1 nm) i altres. Si alguna vegada la nanotecnologia ens queda sotmesa, el següent pas serà manipular àtoms individuals que siguin inferiors a un ordre de magnitud (~ 1 nm).

Per entendre on els éssers humans tenen problemes per intentar manipular la matèria a tal escala, saltem a una escala més gran. L’Estació Espacial Internacional es troba a 481 quilòmetres sobre la Terra. Si els humans fossin gegants i colpejessin l’ISS amb el cap, serien 250.000 vegades més grans que ara. Si augmenteu qualsevol cosa d’1 a 100 nanòmetres 250.000 vegades, obtindreu 2,5 centímetres. La nanotecnologia és l’equivalent a un ésser humà, que orbita al voltant de l’ISS, que intenta manipular coses de la mida d’un gra de sorra o d’un globus ocular. Per arribar al següent nivell, el control d’àtoms individuals, el gegant haurà de col·locar acuradament objectes amb un diàmetre d’1 / 40 mil·límetre. Les persones corrents necessitaran un microscopi per veure-les.

Per primera vegada, Richard Feynman va parlar de nanotecnologia el 1959. Després va dir: “Els principis de la física, pel que puc dir, no parlen en contra de la possibilitat de controlar les coses àtom per àtom. En principi, un físic podria sintetitzar qualsevol substància química que un químic hagi anotat. Com? Posant àtoms allà on el químic diu que s’obté la substància . Aquesta és tota la senzillesa. Si sabeu moure molècules o àtoms individuals, podeu fer gairebé qualsevol cosa.

La nanotecnologia es va convertir en un seriós camp científic el 1986 quan l'enginyer Eric Drexler va presentar els seus fonaments al seu llibre primordial Machines of Creation, però el mateix Drexler creu que aquells que vulguin aprendre més sobre les idees modernes en nanotecnologia haurien de llegir el seu llibre del 2013. Abundància completa (Radical Abundància).

Unes paraules sobre "gris goo"

Aprofundim en la nanotecnologia. En particular, el tema del "goo gris" és un dels temes poc agradables en el camp de la nanotecnologia, que no es pot ignorar. Versions més antigues de la teoria de la nanotecnologia proposaven un mètode de nanoassemblea que implicava la creació de bilions de nanorobots diminuts que funcionarien junts per crear alguna cosa. Una manera de crear bilions de nanorobots és crear-ne un que es pugui auto-replicar, és a dir, d’un a dos, de dos a quatre, etc. Diversos bilions de nanorobots apareixeran en un dia. Aquest és el poder del creixement exponencial. Divertit, no?

És curiós, però exactament fins que condueix a l’apocalipsi. El problema és que el poder del creixement exponencial, que el converteix en una manera bastant còmoda de crear ràpidament un bilió de nanobots, fa que la autoreplicació sigui una cosa aterradora a la llarga. I si el sistema es bloqueja i, en lloc d’aturar la replicació per un parell de bilions de milions, els nanobots continuen generant-se? I si tot aquest procés depèn del carboni? La biomassa de la Terra conté 10 ^ 45 àtoms de carboni. Un nanobot hauria de ser de l’ordre de 10 ^ 6 àtoms de carboni, de manera que 10 ^ 39 nanobots devoraran tota la vida a la Terra en només 130 rèpliques. Un oceà de nanobots ("goo gris") inundarà el planeta. Els científics pensen que els nanobots es poden replicar en 100 segons, cosa que significa que un simple error pot matar tota la vida a la Terra en només 3,5 hores.

Podria ser encara pitjor: si terroristes i especialistes desfavorables arriben a les mans de la nanotecnologia. Podrien crear diversos bilions de nanobots i programar-los per propagar-se tranquil·lament pel món en un parell de setmanes. Després, amb només prémer un botó, en només 90 minuts es menjaran de tot, sense possibilitat.

Tot i que aquesta història de terror ha estat àmpliament discutida durant anys, la bona notícia és que només és una història de terror. Eric Drexler, que va encunyar el terme "goo gris", va dir recentment el següent: "A la gent li encanten les històries de terror i aquesta és una de les històries de terror de zombis. Aquesta idea en si mateixa ja menja cervells ".

Un cop arribem al fons de la nanotecnologia, la podem utilitzar per crear dispositius tècnics, roba, aliments, bioproductes (cèl·lules sanguínies, combatents de virus i càncer, teixits musculars, etc.). I en un món que utilitza nanotecnologia, el cost d’un material ja no estarà lligat a la seva escassetat ni a la complexitat del seu procés de fabricació, sinó a la complexitat de la seva estructura atòmica. En el món de la nanotecnologia, un diamant podria ser més barat que una goma d’esborrar.

Ni tan sols hi som a prop. I no està del tot clar si subestimem o sobrevalorem la complexitat d’aquest camí. Tot i això, tot arriba al punt que la nanotecnologia no està lluny. Kurzweil assumeix que per a la dècada del 2020 els tindrem. Els estats mundials saben que la nanotecnologia pot prometre un gran futur i, per tant, hi inverteixen molts milions.

Imagineu quines possibilitats tindria un ordinador superintel·ligent si arribés a un muntador de nanoescales fiable. Però la nanotecnologia és la nostra idea, i estem intentant muntar-la, és difícil per a nosaltres. Què passa si només són una broma per al sistema ISI i el propi ISI ofereix tecnologies que seran moltes vegades més potents que qualsevol cosa que, en principi, puguem suposar? Vam estar d'acord: ningú no s'imagina de què serà capaç la superintel·ligència artificial? Es creu que els nostres cervells no són capaços de predir ni el mínim del que passarà.

Què podria fer la IA per nosaltres?

Imatge
Imatge

Armat amb superintel·ligència i tota la tecnologia que podria crear la superintel·ligència, ISI probablement serà capaç de resoldre tots els problemes de la humanitat. Escalfament global? ISI primer detindrà les emissions de carboni inventant una sèrie de maneres eficients de generar energia que no estigui relacionada amb els combustibles fòssils. A continuació, proposarà una forma innovadora i eficaç d’eliminar l’excés de CO2 de l’atmosfera. Càncer i altres malalties? No és un problema: la salut i la medicina canviaran de maneres inimaginables. Fam al món? ISI utilitzarà la nanotecnologia per crear carn idèntica a la carn real, natural, des de zero.

La nanotecnologia serà capaç de convertir una pila d’escombraries en una tina de carn fresca o altres aliments (no necessàriament ni tan sols en la seva forma habitual, imaginem un cub de poma gegant) i distribuir tot aquest menjar arreu del món mitjançant sistemes de transport avançats. Per descomptat, això serà fantàstic per als animals que ja no han de morir per menjar. L'ISI també pot fer moltes altres coses, com la preservació d'espècies en perill d'extinció o fins i tot recuperar les extingides de l'ADN emmagatzemat. ISI pot resoldre els nostres problemes macroeconòmics més difícils (els nostres debats econòmics més difícils, qüestions ètiques i filosòfiques, el comerç mundial), tot això serà dolorosament obvi per ISI.

Però hi ha alguna cosa molt especial que ISI podria fer per nosaltres. Seductor i seductor que ho canviaria tot: ISI ens pot ajudar a fer front a la mortalitat … Comprensió gradual de les capacitats de la IA, potser reconsiderareu totes les vostres idees sobre la mort.

No hi havia cap motiu perquè l’evolució allargés la nostra vida més del que ho fa ara. Si vivim prou per donar a llum i criar els fills fins al punt que es puguin valer per si mateixos, l’evolució és suficient. Des del punt de vista evolutiu, 30 anys o més són suficients per al desenvolupament, i no hi ha cap motiu perquè les mutacions prolongin la vida i redueixin el valor de la selecció natural. William Butler Yates va anomenar la nostra espècie "una ànima lligada a un animal moribund". No és molt divertit.

I com que tots morim algun dia, vivim amb la idea que la mort és inevitable. Pensem en l'envelliment amb el pas del temps: continuar avançant i no poder aturar aquest procés. Però el pensament de la mort és traïdor: capturat per ella, ens oblidem de viure. Richard Feynman va escriure:

“Hi ha una cosa meravellosa en biologia: no hi ha res en aquesta ciència que parli de la necessitat de la mort. Si volem crear una màquina de moviment perpetu, ens adonem que hem trobat prou lleis en física que indiquen la impossibilitat d’això o bé que les lleis són incorrectes. Però no hi ha res en biologia que indiqui la inevitabilitat de la mort. Això em fa creure que no és tan inevitable, i només és qüestió de temps que els biòlegs descobreixin la causa d’aquest problema, aquesta terrible malaltia universal, que es curarà.

El fet és que l’envelliment no té res a veure amb el temps. L’envelliment és quan es desgasten els materials físics del cos. Les peces de cotxes també es degraden, però l’envelliment és inevitable? Si repareu el cotxe a mesura que es desgasten les peces, durarà per sempre. El cos humà no és diferent, sinó més complex.

Kurzweil parla de nanobots intel·ligents connectats a la xarxa Wi-Fi al torrent sanguini que podrien dur a terme innombrables tasques per a la salut humana, inclosa la reparació o la substitució regular de cèl·lules desgastades a qualsevol part del cos. Millorar aquest procés (o trobar una alternativa suggerida per un ASI més intel·ligent) no només mantindrà el cos sa, sinó que pot revertir l’envelliment. La diferència entre el cos d’un nen de 60 anys i un de 30 anys és un grapat de problemes físics que es podrien corregir amb la tecnologia adequada. ISI podria construir un cotxe al qual entraria una persona quan tingués 60 anys i marxés quan en tingués 30.

Fins i tot es podria renovar un cervell degradat. L’ISI segur que sabria fer-ho sense afectar les dades cerebrals (personalitat, records, etc.). Un home de 90 anys que pateix una degradació cerebral completa es podria tornar a formar, renovar i tornar al començament de la seva vida. Pot semblar absurd, però el cos és un grapat d’àtoms, i l’ISI sens dubte els podria manipular fàcilment, qualsevol estructura atòmica. No és tan absurd.

Kurzweil també creu que els materials artificials s’integraran cada cop més al cos a mesura que passa el temps. Per començar, els òrgans es podrien substituir per versions de màquines súper avançades que durarien per sempre i que mai fallarien. Aleshores podríem fer un redisseny complet del cos, substituint els glòbuls vermells per nanobots perfectes que es mouen sols, eliminant la necessitat del cor. També podríem millorar les nostres capacitats cognitives, començar a pensar milers de milions de vegades més ràpid i accedir a tota la informació disponible per a la humanitat a través del núvol.

Les possibilitats per comprendre nous horitzons serien realment infinites. Les persones han aconseguit dotar el sexe d’un nou propòsit, ho fan per plaer, no només per a la reproducció. Kurzweil creu que podem fer el mateix amb els aliments. Els nanobots podrien administrar una nutrició ideal directament a les cèl·lules del cos, permetent el pas de substàncies poc saludables pel cos. El teòric de la nanotecnologia Robert Freitas ja ha desenvolupat un substitut de les cèl·lules sanguínies que, quan s’implementa al cos humà, pot permetre que no respiri durant 15 minuts, i això va ser inventat per una persona. Imagineu quan l’ISI guanyarà poder.

Al cap i a la fi, Kurzweil creu que els humans arribaran al punt que esdevindran completament artificials; el moment en què observem els materials biològics i pensem en com eren de primitius; moment en què llegirem sobre les primeres etapes de la història de la humanitat, sorpresos de com els gèrmens, els accidents, les malalties o simplement la vellesa podrien matar una persona contra la seva voluntat. En última instància, els humans derrotaran la seva pròpia biologia i esdevindran eterns: aquest és el camí cap al costat feliç del feix d’equilibri del qual hem estat parlant des del principi. I les persones que hi creuen també estan segures que un futur així ens espera molt, molt aviat.

Probablement no us sorprendrà que les idees de Kurzweil hagin suscitat fortes crítiques. La seva singularitat el 2045 i la posterior vida eterna per a les persones es va anomenar "l'ascensió dels nerds" o "creació intel·ligent de persones amb un coeficient intel·lectual de 140". Altres van qüestionar el marc temporal optimista, la comprensió del cos i el cervell humans, que recordaven la llei de Moore, que encara no ha desaparegut. Per a cada expert que creu en les idees de Kurzweil, n’hi ha tres que creuen que s’equivoca.

Però el més interessant d'això és que la majoria dels experts que no estan d'acord amb ell, en general, no diuen que això sigui impossible. En lloc de dir "ximpleries, això no passarà mai", diuen que "tot això passarà si arribem a la ISI, però aquest és el problema". Bostrom, un dels aclamats experts en IA que adverteix dels perills de la IA, també admet:

“Quasi no queda cap problema que la superintel·ligència no pugui resoldre, ni tan sols ens ajudi a resoldre. Malalties, pobresa, destrucció ambiental, patiments de tota mena: tota aquesta superintel·ligència amb l'ajut de la nanotecnologia es pot resoldre en un moment. La superintel·ligència també ens pot proporcionar una vida útil il·limitada aturant i invertint el procés d’envelliment mitjançant nanomedicina o la possibilitat de pujar-nos al núvol. La superintel·ligència també pot crear oportunitats per augmentar sense fi les capacitats intel·lectuals i emocionals; ens pot ajudar a crear un món en què viurem amb alegria i comprensió, apropant-nos als nostres ideals i fent realitat els nostres somnis.

Aquesta és una cita d’un dels crítics de Kurzweil, però, que admet que tot això és possible si podem crear un ASI segur. Kurzweil simplement va definir en què hauria de convertir-se la superintel·ligència artificial, si és possible. I si és un bon déu.

La crítica més òbvia als defensors de la zona de confort és que poden ser condemnats a equivocar-se quan avaluen el futur de la ISI. Al seu llibre The Singularity, Kurzweil va dedicar 20 pàgines de 700 possibles amenaces ISI. La qüestió no és quan arribem a ISI, la pregunta és quina serà la seva motivació. Kurzweil respon a aquesta pregunta amb precaució: “ISI prové de molts esforços dispars i estarà profundament integrat a la infraestructura de la nostra civilització. De fet, estarà molt integrat al nostre cos i cervell. Reflexionarà els nostres valors perquè serà un amb nosaltres.

Però si la resposta és, per què tanta gent intel·ligent d’aquest món està preocupada pel futur de la intel·ligència artificial? Per què Stephen Hawking diu que el desenvolupament d'ISI "podria significar el final de la raça humana"? Bill Gates diu que "no entén a les persones que no els molesten" al respecte. Elon Musk tem que estiguem "convocant un dimoni". Per què molts experts consideren que la ISI és la major amenaça per a la humanitat?

En parlarem la propera vegada.

Recomanat: