Visualització de contingut web

Desenvolupament responsable de la IA

Desenvolupament responsable de la IA

L'impacte de la Intel·ligència artificial en la nostra societat està fora de dubte. No obstant això, el que està generant un major debat és si aquest impacte serà positiu o negatiu. En aquest sentit, la societat comença a reclamar l'existència d'un cert marc ètic que definisca els principis bàsics per al desenvolupament sostenible i responsable de la Intel·ligència artificial i, per tant, les institucions competents i grups de referència en la matèria ja han començat a donar resposta a aquesta demanda social.

La Comissió Europea (CE) ha publicat recentment un primer esborrany de les directrius ètiques comunitàries per a una Intel·ligència artificial de confiança. Prèviament, en les seues comunicacions del 25 d'abril i el 7 de desembre de 2018, la CE ja va exposar la seua visió de la Intel·ligència artificial, que implicava un suport directe a una Intel·ligència artificial feta a Europa, ètica, segura i d'avantguarda. Un dels tres pilars de l'estratègia comunitària era precisament el de garantir un marc ètic i legal adequat per a enfortir els valors europeus en el desenvolupament de la Intel·ligència artificial. A aquest efecte, la Comissió va establir el Grup d'Experts d'Alt Nivell sobre Intel·ligència artificial (AI HLEG) i li va encomanar la redacció d'unes pautes ètiques i unes recomanacions de polítiques i inversions en matèria d'Intel·ligència artificial.

Les directrius ètiques publicades per AI HLEG, al desembre de 2018, constitueixen un primer esborrany d'aquestes pautes i destaquen:

"[…] la Intel·ligència artificial promet augmentar el benestar humà i el bé comú, però per a això ha d'estar centrada en l'ésser humà i respectar els drets fonamentals. En un context de ràpid canvi tecnològic, creiem que és essencial que la confiança continue sent el ciment de les societats, les comunitats, les economies i el desenvolupament sostenible. Per tant, fixem la Intel·ligència artificial de confiança com el nostre Estel del nord.
Aquest document de treball articula un marc per a la Intel·ligència artificial de confiança que requereix un propòsit ètic i una solidesa tècnica. Aquests dos components són crítics per a una competitivitat responsable, ja que generaran confiança en l'usuari i, per tant, facilitaran l'acceptació de la Intel·ligència artificial."

Altres organitzacions i institucions que estan treballant intensament en aquesta qüestió són, per exemple, AI4People o Partenariat on AI (PAI). AI4People va sorgir en 2017 com una iniciativa de l'Institut Europeu Atomium de Ciència, Mitjans i Democràcia, amb l'objectiu de definir l'estratègia a llarg termini que permeta el desenvolupament d'una bona societat d'Intel·ligència artificial. AI4People és el primer fòrum global europeu creat per a analitzar els impactes socials de la Intel·ligència artificial i promoure el seu desenvolupament responsable, tot per aplar el camí per a un marc ètic europeu amb el qual donar suport als projectes futurs.

Al novembre de 2018, AI4People va presentar els seus primers resultats durant la cimera d'alt nivell celebrada en la seu de l'Eurocambra a Brussel·les, on es va presentar l'informe AI4People – Un marc ètic per a una bona societat d'Intel·ligència artificial: oportunitats, riscos, principis i recomanacions i es va reclamar la creació d'una autoritat europea de supervisió. En aquesta línia, la Comissió Europea ja ha posat en marxa l'Aliança Europea per a la Intel·ligència artificial (European AI Alliance) que ha de treballar al costat de l'AI HLEG en la formulació de polítiques comunitàries en matèria d'Intel·ligència artificial.

Per part seua, Partenariat on AI (PAI) és una organització composta per una llarga llista d'agents del sector. El partenariat va sorgir a iniciativa d'un grup d'investigadors en Intel·ligència artificial que representaven en 2016 a sis de les companyies de tecnologia més grans del món: Apple, Amazon, DeepMind i Alphabet, Facebook, IBM i Microsoft. Hui dia reuneix acadèmics, investigadors, organitzacions de la societat civil, companyies que desenvolupen i utilitzen aquesta tecnologia i altres grups que treballen per a comprendre millor els impactes de la Intel·ligència artificial en la societat i en les persones. PAI es va establir per a estudiar i formular bones pràctiques en tecnologies d'Intel·ligència artificial, millorar la comprensió del públic sobre aquest camp i servir com una plataforma oberta per al debat i el compromís sobre la Intel·ligència artificial i les seues influències en la societat.

A Espanya en 2017, la llavors Secretaria d'Estat per a la Societat de la Informació i l'Agenda Digital va constituir el Grup de Savis sobre Intel·ligència artificial i Big Data, encarregat de la redacció i publicació del Llibre blanc sobre la Intel·ligència artificial. Les conclusions a les quals arriben aquests experts es plasmaran en el Llibre blanc, que inclourà un diagnòstic sobre l'ús creixent de les dades en les Administracions Públiques i les empreses. Les recomanacions serviran perquè l'Executiu espanyol impulse l'elaboració d'un codi ètic sobre l'ús de les dades en l'Administració Pública, i també un codi de bones pràctiques per a les empreses en l'ús de la Intel·ligència artificial i les dades.