[Fèlix Pardo] Intel·ligència

No Comment

L’aparició del programa d’intel·ligència artificial generativa CHATGPT, el qual permet generar respostes concises, argumentades i coherents a les preguntes que se li plantegen en llenguatge natural, és un nou motiu per preguntar-nos sobre l’especificitat de la intel·ligència humana. És un fet que la intel·ligència artificial (IA) ens ha superat en el processament de quantitats astronòmiques de dades i en la resolució de problemes complexes a gran velocitat. Només cal recordar aquí la victòria, el 10 de febrer de 1996, del programa d’escacs d’IBM “Deep Blue” sobre el campió mundial Garry Kasparov. Però cal dir que aquest èxit es basa en el plagi d’allò creat prèviament pels humans, en la simulació de les nostres capacitats cognitives, en la recombinació dels nostres raonaments amb patrons, regles, evidències i inferències determinats prèviament pels programadors.

Aquí trobem un primer límit en la IA en relació amb nosaltres, la de còpia en relació amb l’original, si bé és possible que això es superi en un futur quan la IA esdevingui verament deductiva i autoproductiva, i no només pel que fa als algoritmes amb els que funcioni, millorant el seu rendiment i adaptant-se a les dades i a les situacions, sinó també pel que fa al procés d’autoproducció del propi sistema, des del disseny i programació fins la implementació i el manteniment. La superació d’aquest límit crearà nous escenaris en la relació entre les dues intel·ligències amb conseqüències difícils de preveure avui: la propietat de la IA generada a partir d’una IA mare, la seguretat de la població davant d’una IA autònoma de la intervenció humana, la contracció irreversible del mercat laboral en tots aquells sectors econòmics amb activitats automatitzades i la distribució de la corresponent riquesa creada per aquesta IA, i finalment la responsabilitat davant les decisions de la IA que causin danys a la població o la mort de persones.

Certament, la IA té importants implicacions ètiques i socials. Però no més que les que ja té la intel·ligència humana. La novetat és que l’avaluació dels riscos serà encara més complexa perquè aquests ja no seran només endògens de la nostra intel·ligència. Encara no haurem resolt qüestions com la influència dels prejudicis i la fal·libilitat del raonament en la presa de decisions, la pèrdua de privacitat i seguretat en la societat de la informació i les amenaces existencials per a la humanitat causades per les guerres i l’acció humana sobre el medi ambient, quan haurem d’entomar qüestions semblants causades per una IA avançada.

“En el seu estat actual de desenvolupament, la IA no té la capacitat de generar una subjectivitat i personalitat pròpia a partir d’allò prèviament programat, ni tampoc es pot autoprogramar per ella mateixa. No té consciència i autoconsciència pròpia”

Però si els possibles escenaris de futur deixen prou marge per a l’especulació i obren un debat que serveix per assenyalar les nostres pors sobre la manca de control social de la revolució tecnològica iniciada amb internet, alhora ja podem constatar amb el desenvolupament actual de la IA altres límits d’aquesta que poden perdurar en el temps i que no està clar que puguin ser superats en el futur sense passar per la simbiosi de les xarxes neuronals de la IA amb les de la intel·ligència humana, així com per la integració de l’aprenentatge humà i l’automàtic, la qual cosa modificaria la naturalesa humana i crearia una nova línia evolutiva en la nostra espècie, esborrant la demarcació entre allò humà i allò artificial de la intel·ligència.

En el seu estat actual de desenvolupament, la IA no té la capacitat de generar una subjectivitat i personalitat pròpia a partir d’allò prèviament programat, ni tampoc es pot autoprogramar per ella mateixa. No té consciència i autoconsciència pròpia. No té sensibilitat, emocions, sentiments, desitjos, motivacions, valors, intencions i pensaments propis. En conseqüència no té capacitat d’empatia ni de reconeixement de la identitat de l’altre. No pot prendre decisions i realitzar accions per ella mateixa. No pot plantejar objectius i finalitats que maximitzin el benestar de les persones i l’acompliment del bé comú. No pot fer-se preguntes existencials perquè aquestes impliquen un coneixement de la dimensió social, moral i espiritual del subjecte d’enunciació de les mateixes com a jo pensant. Tampoc pot qüestionar-se el propòsit de la seva existència.

Un altre límit encara més difícil de superar és la capacitat de mentir, d’enganyar, i per tant de reconèixer estratègies de distracció utilitzades per la intel·ligència humana davant de les quals la IA és vulnerable. Una capacitat, la de la ficcionalitat de la ment, que tenim totes les persones pel seu valor adaptatiu, i que va permetre guanyar recentment i de manera rotunda a Kellin Pelrine, investigador en aprenentatge automàtic de la Universitat McGill, al programa del joc del go “KataGo”. Aquesta vulnerabilitat s’explica per la incapacitat de la IA d’interpretar dades i situacions per a les quals encara no ha estat entrenada com les que es poden donar de forma imprevista en el present o les que podrien succeir en el futur, així com fer generalitzacions, que són la base del raonament deductiu amb el que obtenim conclusions vàlides. Podem afirmar que la IA té memòria però no imaginació, pot trobar i ordenar patrons en un conjunt de dades però no generalitzar aquests mateixos patrons per a una diversitat d’aplicacions. I sense aquesta facultat no es pot pensar, és a dir, generar idees i relacionar-les, i així construir idees complexes per poder entendre el món real, com la idea de relació causal.

La IA no té la capacitat de fer-nos més o menys intel·ligents en el sentit específicament humà abans assenyalat. I el que pugui fer-nos canviar en els diferents àmbits de la vida social dependrà de la responsabilitat dels seus programadors; el seu abast és el de l’eficiència, l’optimització, la resolució de problemes i la presa de decisions en accions relatives a determinades tasques. Ens pot respondre un ampli ventall de preguntes, però si li plantegem per primera vegada la mateixa pregunta que hagi generat prèviament a una sol·licitud nostra en relació a determinades qüestions existencials, aleshores no pot generar cap resposta o entra en un bucle. Així amb les preguntes que impliquen experiències subjectives pròpies i les que requereixen judicis ètics o estètics. A títol d’exemple, cito aquesta breu conversa amb el CHATGPT:

Jo: Formula una pregunta sobre la absurditat de la mort.
Chatgpt: Com podem trobar significat a la vida quan sabem que la mort és inevitable i tot el que fem eventualment desapareixerà?
Jo: (Faig la mateixa pregunta.)
Chatgpt: Load failed. (No és possible regenerar una nova resposta.)
Cal dir que en noves converses (les quals comporten un entrenament) amb la mateixa pregunta sí que genera noves respostes però de forma repetitiva, amb algunes variacions, entrant en un bucle.

La intel·ligència humana és un fenomen emergent en l’evolució biològica a partir de la interacció entre els individus conformats per sistemes orgànics i de l’adaptació d’aquests individus al seu medi. La vida té prou força per modular la nostra intel·ligència i establir límits a la nostra voluntat. Pel contrari, la IA és un fenomen produït per la creativitat humana i els seus límits són els que vulguem fixar segons la nostra capacitat de creació. Però cal advertir que no és prudent voler tot el que es pot fer i jugar a ser un nou Prometeu atorgant a la IA el poder de la creació, perquè aquest poder, sense l’instint de conservació dels éssers vius, pot comportar una transformació de l’existència humana no desitjable en un sentit ètic i social i fins i tot la aniquilació de la vida. L’actual impacte destructiu de la tecnologia sobre la naturalesa, en obviar el límits d’aquesta, ens anticipa el possible estadi final del poder de creació de la intel·ligència humana.

Fèlix Pardo

 

Related Articles

Deixa un comentari