El 2022 hem viscut un punt d'inflexió en el camp de la Intel·ligència Artificial (IA). No només s'han presentat aplicacions espectaculars en àmbits com els conversadors (chatGPT), la generació d'imatges a partir de text (DALL·E 2, Midjourney) o el reconeixement de veu (Whisper), sinó que aquestes mateixes aplicacions han omplert pàgines a la premsa generalista, de manera que tots ens hem convençut que estem davant d'una tecnologia que transformarà les nostres vides en un termini molt proper.
Tot i que sense una projecció pública tan marcada, en el 2022 també s'ha accelerat el ritme de desenvolupament de projectes basats en models d'IA de suport a la presa de decisions. Aquests models, construïts mitjançant tècniques de Deep Learning, ajuden les organitzacions a predir el futur més enllà de la simple intuïció i, per tant, a poder prendre millors decisions davant de preguntes com: Aquest sol·licitant em tornarà el crèdit? Aquesta piga desenvoluparà un tumor? Aquesta màquina tindrà una avaria abans de 72 hores?
Més enllà de la seva espectacular capacitat predictiva, aquests models presenten diverses limitacions. El més conegut és el de l'efecte “caixa negra”: els models funcionen, però no sabem per què.
Desconèixer el funcionament dels models IA pot implicar, entre d’altres, 1) aplicar models subòptims, és a dir treballar de manera no eficient, 2) decidir a partir de models amb biaixos, cosa que pot portar a prendre decisions injustes. Aquests dos factors poden provocar la desconfiança dels usuaris en la IA, i aquesta desconfiança en pot frenar l'ús.
Per respondre a aquests inconvenients ja fa un temps que es treballa en el concepte d'Intel·ligència Artificial Explicable (IAX, Explainable Artificial Intelligence). Bàsicament consisteix en el desenvolupament d'algorismes gràcies als quals podem “transparentitzar” els models IA, permetent entendre'ls tant a nivell global com de cada previsió concreta que facin.
La IAX aporta valor a tots els actors de la cadena IA:
Aquesta darrera afirmació es sustenta en un estudi d'IBM sobre Explainable AI Impact que conclou que el benefici econòmic d'aplicar models generats amb tècnica IAX triplica el resultat dels models IA tradicionals.
Però no tot han estat avantatges en la Intel·ligència Artificial Explicable. Les tècniques originals que permeten convertir els models “black-box” en models explicables requereixen d’un gran expertesa per part de personal altament especialitzat. D'aquí que comencin a aparèixer aplicacions que posen a l’abast de les empreses les tècniques d'IAX mitjançant solucions de fàcil ús, és a dir, que transformen un knowhow críptic en solucions de gran valor per a les empreses a l'abast de persones no especialitzades.
Per cert, una d’aquestes propostes, EXPAI, sorgeix en el ric ecosistema emprenedor de Barcelona. Un motiu addicional de satisfacció al fet de disposar de solucions que permeten treure el màxim profit dels models analítics, facilitant una millor presa de decisions, aportant d'una banda eficiència i productivitat, i de l'altra transparència i justícia.
Autor: Carles Soler, CEO d'Expai
Powered by Timtul - Copyright 2023
Comentaris