La intel·ligència artificial (IA) que es pugui millorar a si mateixa en el futur pot esclavitzar o matar persones si ho vol. Així ho va dir el científic Amnon Eden, que creu que els riscos derivats del desenvolupament d'una consciència lliure de pensament i altament intel·ligent són molt elevats i "si no us ocupeu dels problemes de control de la IA ja en l'etapa actual de desenvolupament, llavors potser demà simplement no arribarà ". Segons l'edició en anglès Express, la humanitat, segons Amnon Eden, és avui en el "punt de no retorn" per a la implementació de la trama de la famosa èpica cinematogràfica "The Terminator".
Val a dir que el Dr. Amnon Eden és un líder del projecte que té com a principal objectiu analitzar els possibles efectes devastadors de la IA. El científic creu que sense una comprensió correcta de les conseqüències de crear intel·ligència artificial, el seu desenvolupament pot amenaçar amb desastres. Actualment, la nostra societat està poc informada sobre el debat que s’està produint a la comunitat científica sobre l’anàlisi de l’impacte potencial de la IA. "El proper 2016, l'anàlisi dels possibles riscos s'haurà de generalitzar significativament en el pensament de les empreses i els governs, els polítics i els responsables de prendre decisions", diu Eden.
El científic està segur que la ciència ficció, que descriu la destrucció de la humanitat pels robots, pot esdevenir aviat el nostre problema comú, ja que el procés de creació d’IA ha quedat fora de control. Per exemple, Elon Musk, amb el suport de l’empresari Sam Altman, va decidir crear una nova organització sense ànim de lucre de 1.000 milions de dòlars que desenvolupés IA de codi obert que hauria de superar la ment humana. Al mateix temps, el mateix multimilionari nord-americà Elon Musk situa la intel·ligència artificial entre les "amenaces més grans per a la nostra existència". Steve Wozniak, que va ser cofundador d’Apple, va dir el març passat que “el futur sembla descoratjador i molt perillós per a la gent … finalment arribarà el dia en què els ordinadors pensaran més ràpid que nosaltres i es desfaran de la gent lenta per perquè les empreses puguin treballar de manera més eficient ".
Val a dir que molts científics veuen l'amenaça de la IA. Desenes de científics, inversors i empresaris coneguts, les activitats dels quals, d’una manera o altra, estan relacionats amb el desenvolupament de la intel·ligència artificial, han signat una carta oberta per demanar més atenció a la qüestió de la seguretat i la utilitat social del treball a la camp de la IA. L’astrofísic Stephen Hawking i fundador de Tesla i SpaceX Elon Musk es troben entre els signants d’aquest document. La carta, juntament amb un document adjunt, que va ser redactat pel Future of Life Institute (FLI), va ser escrita enmig de les creixents preocupacions sobre l’impacte de la intel·ligència artificial en el mercat laboral i fins i tot la supervivència a llarg termini de tota la humanitat en un país. entorn on les capacitats de robots i màquines creixeran gairebé de forma incontrolable.
Els científics entenen el fet que el potencial de la IA en l'actualitat és molt gran, per la qual cosa és necessari investigar completament les possibilitats del seu ús òptim per evitar les trampes que s'acompanyen, assenyala la carta FLI. És imprescindible que els sistemes d’IA creats pels humans facin exactament el que volem que facin. Val a dir que el Future of Life Institute va ser fundat només l'any passat per diversos entusiastes, entre els quals hi havia el creador de Skype, Jaan Tallinn, per tal de "minimitzar els riscos que afronta la humanitat" i estimular la investigació amb una "visió optimista". del futur”. En primer lloc, parlem aquí dels riscos causats pel desenvolupament de la IA i la robòtica. El consell assessor de FLI inclou Musk i Hawking, juntament amb l’aclamat actor Morgan Freeman i altres personatges famosos. Segons Elon Musk, el desenvolupament descontrolat de la intel·ligència artificial és potencialment més perillós que les armes nuclears.
El famós astrofísic britànic Stephen Hawking a finals del 2015 va intentar explicar el seu rebuig a les tecnologies d’intel·ligència artificial. Al seu parer, amb el pas del temps, les màquines superintel·ligents veuran les persones com a consumibles o formigues que simplement interfereixen en la solució de les seves tasques. En parlar amb els usuaris del portal Reddit, Stephen Hawking va assenyalar que no creu que aquestes màquines superintel·ligents siguin "criatures malvades" que vulguin destruir tota la humanitat a causa de la seva superioritat intel·lectual. El més probable és que es pugui parlar del fet que simplement no notaran la humanitat.
“Els mitjans han estat distorsionant constantment les meves paraules darrerament. El principal risc en el desenvolupament de la IA no és la malícia de les màquines, sinó la seva competència. La intel·ligència artificial superintel·ligent farà un treball excel·lent, però si ella i els nostres objectius no coincideixen, la humanitat tindrà problemes molt greus”, explica el famós científic. Com a exemple, Hawking va citar una hipotètica situació en què una IA superpotent és responsable de l'operació o construcció d'una nova presa hidroelèctrica. Per a aquesta màquina, la prioritat serà la quantitat d’energia que generarà el sistema confiat i el destí de les persones no importarà. “Som pocs els que trepitgem formiguers i trepitgem formigues per ràbia, però imaginem una situació: tu controles una potent central hidroelèctrica que genera electricitat. Si necessiteu elevar el nivell de l’aigua i, com a resultat de les vostres accions, s’inundarà un formiguer, és probable que els problemes d’ofegar insectes no us molestin. No posem la gent al lloc de les formigues”, va dir el científic.
Segons Hawking, el segon problema potencial per al desenvolupament de la intel·ligència artificial pot ser la "tirania dels propietaris de màquines": el ràpid creixement de la bretxa en el nivell d'ingressos entre els rics que podran monopolitzar la producció de màquines intel·ligents i la resta de la població mundial. Stephen Hawking proposa resoldre aquests possibles problemes de la següent manera: alentir el procés de desenvolupament de la IA i canviar al desenvolupament de la intel·ligència artificial no "universal", sinó altament especialitzada, que només pot resoldre una gamma molt limitada de problemes.
A més de Hawking i Musk, la carta va ser signada pel premi Nobel i professor de física del MIT Frank Wilczek, el director executiu del Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, així com molts especialistes de grans empreses de TI: Google, Microsoft i IBM, així com empresaris que van fundar les empreses d'IA Vicarious i DeepMind. Els autors de la carta assenyalen que no pretenen espantar el públic, sinó que pretenen ressaltar tant els aspectes positius com els negatius associats a la creació d’intel·ligència artificial. "Actualment, tothom està d'acord que la investigació en el camp de la IA avança constantment i que la influència de la IA en la societat humana moderna només augmentarà", diu la carta, "les oportunitats que s'obren als humans són enormes, tot el que la civilització moderna ha estat creat per la intel·ligència. No podem predir què aconseguirem si la intel·ligència humana es pot multiplicar per IA, però el problema de desfer-se de la pobresa i les malalties ja no és infinitament difícil ".
Nombrosos desenvolupaments en el camp de la intel·ligència artificial ja s’inclouen a la vida moderna, inclosos sistemes de reconeixement d’imatges i de veu, vehicles no tripulats i molt més. Els observadors de Silicon Valley calculen que actualment s’estan implementant més de 150 startups en aquesta àrea. Al mateix temps, els desenvolupaments en aquesta àrea atreuen cada vegada més inversions i cada vegada són més les empreses com Google que desenvolupen els seus projectes basats en la IA. Per tant, els autors de la carta creuen que ha arribat el moment de prestar una major atenció a totes les possibles conseqüències del boom observat per als aspectes econòmics, socials i legals de la vida humana.
La posició que la intel·ligència artificial pot suposar un perill per als humans és compartida per Nick Bostrom, professor de la Universitat d’Oxford, conegut pel seu treball sobre el principi antròpic. Aquest especialista creu que la IA ha arribat al punt que seguirà la seva incompatibilitat amb els humans. Nick Bostrom destaca que, a diferència de l'enginyeria genètica i el canvi climàtic, per als quals els governs destinen fons suficients per controlar, "no s'està fent res per controlar l'evolució de la IA". Segons el professor, actualment es persegueix una "política de buit legal que cal omplir" pel que fa a la intel·ligència artificial. Fins i tot tecnologies com els cotxes autònoms, que semblen inofensius i útils, plantegen diverses preguntes. Per exemple, aquest cotxe hauria de realitzar una frenada d'emergència per salvar els seus passatgers i qui serà el responsable en cas d'accident comès per un vehicle no tripulat?
En discutir els riscos potencials, Nick Bostrom va assenyalar que "l'ordinador no és capaç de determinar els beneficis i els perjudicis per als humans" i "ni tan sols té la més mínima idea de la moralitat humana". A més, els cicles d’autosuperació en ordinadors es poden produir a una velocitat tal que una persona simplement no pot fer un seguiment i tampoc es pot fer gairebé res al respecte, diu el científic. "En l'etapa de desenvolupament en què els ordinadors poden pensar per si mateixos, ningú pot predir amb seguretat si això conduirà al caos o millorarà significativament el nostre món", va dir Nick Bostrom, citant com a exemple una possible solució simple per a un ordinador: apagar als països amb escalfament climàtic fred per millorar la salut de les persones i augmentar la seva resistència, cosa que "pot arribar al capdavant de la intel·ligència artificial".
A més, Bostrom també planteja el problema d’encenallar el cervell humà per augmentar la nostra biointel·ligència. “En molts aspectes, aquest procediment pot ser útil si es controlen tots els processos, però què passa si el xip implantat es pot reprogramar? Quines conseqüències pot conduir a l'aparició d'un superhome o a l'aparició d'un ordinador que només tindrà l'aspecte d'un ésser humà? - pregunta el professor. La forma en què els ordinadors resolen problemes humans és molt diferent de la nostra. Per exemple, en els escacs, el cervell humà només considera un conjunt estret de moviments, escollint la millor opció entre ells. Al seu torn, l'ordinador té en compte tots els moviments possibles, escollint el millor. Al mateix temps, l'ordinador no espera molestar ni sorprendre al seu oponent en el joc. A diferència d’un ésser humà, jugant als escacs, un ordinador pot fer un moviment subtil i astut només per accident. La intel·ligència artificial pot calcular de la millor manera: eliminar l’error de qualsevol sistema eliminant el “factor humà” d’allà, però, a diferència d’un humà, un robot no està preparat per fer gestes que salvarien la vida de les persones.
Entre altres coses, l’augment del nombre de màquines intel·ligents representa l’etapa d’una nova revolució industrial. Al seu torn, això significa que en un futur proper, la humanitat s’enfrontarà a inevitables canvis socials. Amb el pas del temps, el treball es convertirà en un munt d’especialistes altament qualificats, ja que gairebé totes les tasques senzilles poden ser realitzades per robots i altres mecanismes. Els científics creuen que la intel·ligència artificial "necessita un ull i un ull" perquè el nostre planeta no es converteixi en un planeta de dibuixos animats "Zhelezyaka", que estava habitat per robots.
Pel que fa a cada vegada més automatització dels processos de producció, el futur ja ha arribat. El Fòrum Econòmic Mundial (WEF) va presentar el seu informe, segons el qual l'automatització conduirà al fet que el 2020 més de 5 milions de persones que treballen en diversos camps perdran la feina. Aquest és l’impacte dels robots i dels sistemes robòtics en les nostres vides. Per elaborar l'informe, els empleats del WEF van utilitzar dades sobre 13,5 milions d'empleats de tot el món. Segons ells, el 2020 desapareixerà la necessitat total de més de 7 milions de llocs de treball, mentre que el creixement esperat de l’ocupació en altres indústries ascendirà a poc més de 2 milions de llocs de treball.