Intel · ligència artificial. El futur de la seguretat nacional de Rússia?

Taula de continguts:

Intel · ligència artificial. El futur de la seguretat nacional de Rússia?
Intel · ligència artificial. El futur de la seguretat nacional de Rússia?

Vídeo: Intel · ligència artificial. El futur de la seguretat nacional de Rússia?

Vídeo: Intel · ligència artificial. El futur de la seguretat nacional de Rússia?
Vídeo: Любовь и голуби (FullHD, комедия, реж. Владимир Меньшов, 1984 г.) 2024, Abril
Anonim
Imatge
Imatge

Deu anys de desenvolupament

No és cap secret que la intel·ligència artificial penetri cada vegada més a la vida de les persones corrents de tot el món. Això es veu facilitat tant per la difusió mundial d'Internet com per l'augment massiu de la potència informàtica. Les xarxes neuronals, que tenen una certa similitud amb el cervell humà, han permès millorar qualitativament el treball del programari desenvolupat. Hi ha, però, un parell de punts clarificadors: les xarxes neuronals encara estan molt lluny del nivell del cervell humà, sobretot pel que fa a l’eficiència energètica, i els algorismes de treball encara són extremadament difícils d’entendre.

Imatge
Imatge

Els diners per a la indústria de la intel·ligència artificial, malgrat algunes restriccions i accidents de gran perfil amb cotxes autònoms, són un riu ampli. L’any passat, segons l’estratègia nacional aprovada, el mercat de solucions de TI en aquesta àrea va superar els 21.500 milions de dòlars. Déu sap quina quantitat, però només augmentarà cada any i, per al 2024, la IA total al món costarà condicionalment 140.000 milions, i el creixement econòmic potencial de la introducció de la IA en aquest moment arribarà als 1 bilió decents. dòlars. De fet, l’aprovació de l’esmentada Estratègia Nacional pel president Vladimir Putin el 10 d’octubre de 2019 va ser un intent de mantenir-se al dia amb les tendències mundials. Al mateix temps, el propi programa declara no només una reducció de la bretxa amb els líders mundials, sinó una entrada al nombre d’actors destacats d’aquest mercat. I està previst fer-ho per al 2030. Entre els obstacles evidents d’aquest camí hi haurà les declaracions proteccionistes de diversos països segons les quals qualsevol programari rus comporta un perill potencial.

On van a implementar les capacitats "il·limitades" de la IA en terres russes? En primer lloc, es tracta de l’automatització d’operacions rutinàries juntament amb la substitució d’una persona en indústries perilloses (llegiu: inclòs a l’exèrcit). A més, es planifica un treball seriós amb big data, que s’ha generat recentment com una allau. Se suposa que podran millorar les previsions per a les decisions de gestió, així com optimitzar la selecció i la formació del personal. L’atenció sanitària amb educació d’aquí a deu anys també serà un usuari actiu de la IA. En medicina, la profilaxi, el diagnòstic, la dosi de medicaments i fins i tot la cirurgia es lliuraran a la ment de la màquina, parcialment o completament. A les escoles, la IA participarà en la individualització dels processos d’aprenentatge, l’anàlisi de la propensió del nen a l’activitat professional i la identificació precoç dels joves amb talent. En l'estratègia, es pot trobar una disposició sobre "el desenvolupament i la implementació de mòduls educatius dins dels programes educatius de tots els nivells educatius". És a dir, els conceptes bàsics de la IA s’ensenyaran a l’escola?

Com és habitual, a més dels resultats tangibles del desenvolupament de la IA, la comunitat científica haurà d’augmentar el nombre i l’índex de cites d’articles de científics russos a les publicacions especialitzades del món. I per al 2024, és a dir, molt aviat, el nombre de ciutadans amb competències d’IA hauria d’augmentar a Rússia. En particular, això es realitzarà mitjançant la captació d'especialistes nacionals de l'estranger, així com l'atracció de ciutadans estrangers que treballin sobre aquest tema a Rússia.

No obstant això, la IA té una qualitat controvertida, que se suposa que es tracta de l'estratègia "desenvolupant regles ètiques per a la interacció humana amb la intel·ligència artificial". Resulta que el fred càlcul de la ment de l’ordinador el porta a fer generalitzacions esbiaixades i injustes.

Biaix AI

Entre la massa de preguntes sobre el funcionament dels sistemes moderns d’IA, destaquen els algorismes imperfectes actualment per al pilotatge automàtic de vehicles de rodes, que encara no permeten que es pugui fer servir legalment. Molt probablement, en un futur previsible, no veurem cotxes d’IA a les nostres carreteres. Les nostres condicions de carretera no són adequades per a això i el clima no afavoreix l'ús del pilot automàtic durant tot l'any: el fang i la neu "cegaran" ràpidament els sistemes sensorials del robot més avançat. A més, la introducció massiva d’IA provocarà inevitablement llocs de treball de milions de persones a tot el món: hauran de reciclar-se o passar la resta dels seus dies en desocupació. És just dir que diversos "Atles de les professions del futur", de nova creació, de vegades tenen un disbarat flagrant: en un d'ells, datat el 2015, el nou 2020, per exemple, les professions d'un comptable, bibliotecari, corrector i verificador haurien de ser han quedat obsolets. Però, no obstant això, el perfil de la majoria de professions canviarà i el factor negatiu de la IA prevalerà aquí. En qualsevol cas, les perspectives d’una nova introducció de la IA a la societat plantegen moltes preguntes als reguladors governamentals. I sembla que poca gent sap com solucionar-los.

Imatge
Imatge

Un altre tema que ja s’albira a l’horitzó és el biaix de la IA en la presa de decisions. Els nord-americans van ser uns dels primers a afrontar-ho quan es va introduir el sistema COMPAS a 15 estats per predir els casos de recaiguda de criminals. I tot semblava començar molt bé: vam aconseguir desenvolupar un algorisme que, basat en la massa de dades (Big Data), formés recomanacions sobre la gravetat del càstig, el règim d'una institució correccional o l'alliberament anticipat. Els programadors van argumentar amb raó que a la tarda un jutge famolenc pot suportar un càstig excessivament dur i que, al contrari, un de ben alimentat és massa lleu. La IA ha d'afegir càlcul en fred a aquest procediment. Però va resultar que COMPAS i tots els programes similars són racistes: la IA tenia el doble de probabilitats de culpar erròniament els afroamericans de taxes de recaiguda que els blancs (45% contra 23%). La IA generalment considera que els delinqüents de pell clara són persones amb un nivell baix de risc, ja que estadísticament tenen menys probabilitats de infringir la llei; per tant, les previsions per a ells són més optimistes. En aquest sentit, als Estats Units, cada vegada es senten més veus sobre l'abolició de la IA en la resolució de qüestions de fiança, condemna i llibertat anticipada. Al mateix temps, la justícia nord-americana no té res a veure amb el codi del programa d’aquests sistemes: tot s’adquireix a desenvolupadors externs. Els sistemes de programari Predpol, HunchLab i Series Finder que operen als carrers de moltes ciutats del món ja han demostrat estadísticament la seva eficàcia: la delinqüència està disminuint, però no estan exempts de prejudicis racials. El més interessant és que no sabem quines altres "paneroles" es cusen al cervell artificial d'aquests sistemes, ja que es classifiquen molts paràmetres de l'anàlisi. També hi ha dubtes que els mateixos desenvolupadors entenguin com la IA pren certes decisions, quins paràmetres considera clau. Situacions similars es desenvolupen no només en l’aplicació de la llei i la justícia, sinó també en les agències de contractació. La IA en la majoria dels casos dóna preferència a la contractació d’homes joves, deixant de banda els candidats amb edat i sexe més febles. És curiós que els valors d'Occident, que tan zeliosament promouen (igualtat de sexes i races), siguin trepitjats per l'últim assoliment occidental: la intel·ligència artificial.

Imatge
Imatge

La conclusió d’una petita excursió a la teoria i la pràctica de la IA suggereix el següent. Una cosa és que les nostres dades de xarxes socials i altres fonts es processen massivament amb finalitats de màrqueting o manipulació política, i una altra cosa és quan l’espasa de la justícia o, encara pitjor, l’arsenal de seguretat nacional es lliuren a IA. El preu d’una decisió esbiaixada augmenta moltes vegades i cal fer alguna cosa al respecte. Qui ho aconsegueixi es convertirà en l’autèntic governant del segle XXI.

Recomanat: