El marc ètic europeu sobre Intel·ligència Artificial i Robòtica Autònoma
06/2023
L’armament robòtic autònom va ser un dels factors que van desencadenar l’atenció sobre la Intel·ligència Artificial (IA) a mitjans de la segona dècada de segle XXI. En eixe sentit es podrien moure els robots assassins amb capacitat per a decidir qui viu o qui mor al camp de batalla. En un breu espai de temps van sorgir iniciatives públiques i privades com organitzacions, fòrums, cimeres globals i acords estatals que proclamaven una ètica en què imperaven els principis de l’autonomia humana i de fer només el bé. En efecte, el dilema digital reflecteix les tensions entre el que és tècnicament possible digitalitzar i robotitzar i el món real del que està permès.
El cas és que els sistemes d’IA que ofereixen recomanacions de productes i serveis als consumidors no susciten les mateixes preocupacions ètiques que els que proposen tractaments mèdics crítics o produeixen biaixos racials. La preocupació per estos assumptes resulta crucial en la mesura que un gran nombre de drets fonamentals podrien veures afectats per l’ús de la IA, com per exemple, la dignitat humana.
En 2019, el Grup d’Experts en Intel·ligència Artificial de la Comissió Europea va proposar crear una cultura que garantira el respecte als valors de la Unió Europea: una «IA fiable per a Europa» concebuda des de les directrius de l’estratègia industrial i tecnològica «AI Made in Europe» de 2018, la qual instava a edificar una IA ètica, segura i centrada en l’ésser humà, i que es va constituir sobre quatre principis fonamentals: dos d’ells de naturalesa ètica (el respecte de l’autonomia humana i l’equitat), i dos tècnica (explicabilitat i prevenció de el dany físic i mental), principis aplicables tant als sistemes d’IA desenvolupats i utilitzats a la Unió Europea, com als sistemes produïts en altres llocs del món que es despleguessen a la Unió.
És de subratllar que les Directrius ètiques del Grup d’Experts en IA van oferir a la Comissió Europea una valuosa aportació narrativa amb la qual contribuir als debats ètics internacionals, per exemple, en l’elaboració dels Principis ètics de l’OCDE en matèria d’IA que van ser ratificats el maig de 2019 pels trenta-sis països de l’Organització, més altres sis països que els van adoptar amb el suport de la Comissió Europea i el G20 que els va subscriure al mes següent.
No obstant això, la «IA fiable per a Europa» no va tractar els aspectes jurídics de la possible responsabilitat dels robots i softbots autònoms, de manera que la Doctora Robot (que hem estudiat en un article anterior sobre la ciència mèdica digital) quedà de nou desatesa, deixant-ho tot en mans del principi general que les màquines continuen sent màquines i els humans conserven en tot moment el domini sobre elles, un principi antropocèntric que considera els robots intel·ligents o autònoms com coses destinades tan sols per a l’ús dels humans, d’igual manera com es valorava fins fa ben poc als animals salvatges i domesticats. En conseqüència, la doctora o doctor Robot no estan facultats legalment per receptar medicaments i emetre baixes i altes laborals sense la supervisió humana.
Potser que siga així, perquè ningú sap amb certesa si la IA arribarà a adquirir una autonomia elevada amb els algoritmes machine learning o perquè aquesta possibilitat s’entreveu encara llunyana, o fins i tot, perquè es considera inabordable en la lògica de les ètiques convencionals dels humans.
Tanquem el present resum corresponent al capítol XI del llibre, afirmant que un dels grans reptes que s’hauran d’afrontar, més aviat que tard, es reflecteix en la problemàtica de la responsabilitat de la Intel·ligència Artificial.
Arturo Gradolí és doctor en estudis històrics i socials en ciència i tecnologia, filòsof, informàtic i escriptor.