Deustuko Unibertsitateko (Bilbo) Lucía Vicente eta Helena Matute psikologoek ikerketa bat egin dute, eta agerian utzi dute pertsonok adimen artifizialaren (IA) alborapenak heredatu, geureganatu eta erreproduzitu ditzakegula. Ikerketa Scientific Reports sarbide irekiko aldizkarian argitaratu da.

Orain arte, teknologia berri hau lortzen ari den emaitza harrigarriei buruz entzun dugu, baita herrialde guztietan adin eta mota desberdinetako erabiltzaileen artean bihurtzen ari den fidagarritasun-indize handiei eta herrikoitasunari buruz ere. Halaber, IAren algoritmoek izan ditzaketen joerei eta/edo egin ditzaketen akats sistematikoei buruz eztabaidatzen eta ikertzen hasi dira. Izan ere, IAko programak giza erabakien emaitza diren datuekin entrenatzen dira, eta erabaki horiek alborapenak badituzte, adimen artifizialeko ereduak modu anplifikatuan ikasi eta erreproduzitu ditzakete.

Egoera hori ezaguna zen, baina orain Lucía Vicentek eta Helena Matutek egindako ikerketa berriak erakusten du kontrako efektua ere gerta daitekeela: pertsonok IAren alborapenak heredatu genitzake, eta, beraz,   begizta arriskutsu samar batean sartzeko arriskua dugu. Azterketa osasun-arloan egin zuten, eta honako hipotesi hau planteatu zuten: IA alboratuko sistema baten laguntzaz diagnostiko medikoa (simulatua) egiten duten pertsonek ereduaren alborapena erreproduzituko dute beren erabakietan, baita IArik gabeko testuinguru batera igarotzen direnean ere.

Egileen arabera, “IA alboratu batek aholkatutako pertsonek erabakiak eragile artifizial horren emaitzetara egokitzea posible dela ikusi dugu, eta are garrantzitsuagoa da eragin horrek iraun dezakeela, baita pertsonak jada laguntza hori ez duten testuinguru batera igarotzen direnean ere”. Hau da, adimen artifizial batek emandako informazio partzialak eragin negatiboa izan dezake pertsonen erabakietan, bai eta beste eremu batzuetan ere, osasungintzaz gain.

Ikerketaren egileentzat, aurkikuntza horrek adimen artifizialaren eta gizakien arteko interakzioari buruzko ikerketa psikologiko eta diziplina anitzeko gehiagoren premia adierazten du. Era berean, beharrezkotzat jotzen dute ebidentzian oinarritutako erregulazioa, IA etiko eta fidagarria bermatuko duena, alderdi teknikoak ez ezik, teknologia horren eta gizakien arteko harremanaren alderdi psikologikoak ere kontuan hartuko dituena.

Egilea: Luisa María Puertas